19 มี.ค. 2023 เวลา 00:17 • วิทยาศาสตร์ & เทคโนโลยี

ค่าใช้จ่ายที่ซ่อนอยู่ของ AI: พลังงานและทรัพยากรที่กําลังจะเกิดขึ้น

เทคโนโลยีใหม่ ๆ เช่น โมเดลการเรียนรู้เชิงลึกที่ก้าวหน้าอย่างรวดเร็วได้นําไปสู่แบบจําลองปัญญาประดิษฐ์ (AI) ที่ซับซ้อนมากขึ้น ตั้งแต่ยานยนต์ขับเคลื่อนอัตโนมัติ ทางบก ทางอากาศ และการเดินเรือ ไปจนถึงการดึงและการสร้างข้อมูลที่มีความเชี่ยวชาญสูง เช่น ChatGPT ความเป็นไปได้จึงดูไร้ขอบเขต ยังมีข้อผิดพลาดที่อาจเกิดขึ้น เช่น การพลัดถิ่นของงาน ข้อกังวลด้านความเป็นส่วนตัว และข้อกังวลด้านวัสดุและพลังงาน
1
การทํางานของคอมพิวเตอร์ทุกครั้งสอดคล้องกับสัญญาณไฟฟ้าทผ่านฮาร์ดแวร์และใช้พลังงาน Deep Jariwala แห่งคณะวิศวกรรมศาสตร์และวิทยาศาสตร์ประยุกต์ ผู้ช่วยศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและระบบ และ Benjamin C. Lee ศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและระบบ และคอมพิวเตอร์และสารสนเทศศาสตร์ ได้พูดคุยกับ Penn Today เกี่ยวกับผลกระทบที่การพึ่งพาการคํานวณ AI ที่เพิ่มขึ้นจะมีขึ้นในขณะที่โครงสร้างพื้นฐานพัฒนาขึ้นเพื่ออํานวยความสะดวกในความต้องการที่เพิ่มขึ้นเรื่อยๆ
อะไรทําให้ AI และแอปพลิเคชันปัจจุบันแตกต่างจากการทําซ้ําอื่นๆ ของการคํานวณ
1
Jariwala: เป็นกระบวนทัศน์ใหม่ทั้งหมดในแง่ของฟังก์ชัน ลองนึกย้อนกลับไปที่คอมพิวเตอร์เครื่องแรก Electrical Numerical Integrator and Computer (ENIAC) ที่เรามีที่ Penn มันถูกสร้างขึ้นเพื่อทําคณิตศาสตร์ที่ใช้เวลานานเกินไปสําหรับมนุษย์ในการคํานวณด้วยมือ ส่วนใหญ่จะใช้สําหรับการคํานวณวิถีขีปนาวุธ ดังนั้นจึงมีตรรกะพื้นฐานที่ตรงไปตรงมา: การบวก การลบ การคูณ และการหารของ เช่น ตัวเลข 10 หลักที่ป้อนด้วยตนเอง
1
Lee: คอมพิวเตอร์สําหรับ AI มีสามส่วนหลัก หนึ่งคือการประมวลผลข้อมูลล่วงหน้า ซึ่งหมายถึงการจัดระเบียบชุดข้อมูลขนาดใหญ่ก่อนที่คุณจะสามารถทําอะไรกับมันได้ สิ่งนี้อาจเกี่ยวข้องกับการติดป้ายกํากับข้อมูล(Labeling Data)หรือทําความสะอาดข้อมูล(Data Cleaning)แต่โดยพื้นฐานแล้วคุณแค่พยายามสร้างโครงสร้างบางอย่างในนั้น
2
เมื่อประมวลผลล่วงหน้าแล้ว คุณสามารถเริ่ม “ฝึกอบรม” AI ได้ นี่ก็เหมือนกับการสอนวิธีตีความข้อมูล ต่อไป เราสามารถทําสิ่งที่เราเรียกว่าการอนุมาน AI ซึ่งกําลังเรียกใช้แบบจําลองเพื่อตอบคําถามของผู้ใช้
Jariwala: ด้วย AI มีการคำนวณตัวเลขปริมาณตัวเลขปริมาณมากอย่างรวดเร็วและการใช้อัลกอริธึมที่ซับซ้อนและการเรียนรู้ของเครื่องเพื่อฝึกอบรมและปรับให้เข้ากับข้อมูลหรือสถานการณ์ใหม่ เป็นมากกว่าการป้อนค่าด้วยตนเอง เนื่องจากสามารถดึงข้อมูลจากชุดข้อมูลขนาดใหญ่จากอินเทอร์เน็ต
ความสามารถในการรวบรวมข้อมูลจากที่ต่างๆ ใช้แบบจําลองความน่าจะเป็นเพื่อชั่งน้ําหนักความเกี่ยวข้องกับงานที่ทําอยู่ รวมข้อมูลนั้น จากนั้นให้ผลลัพธ์ที่คล้ายกับของมนุษย์ในหลายกรณีอย่างประหลาดคือสิ่งที่ทําให้มันแตกต่างจากการคํานวณแบบเดิม โมเดลภาษาขนาดใหญ่ เช่น ChatGPT แสดงการดําเนินการชุดใหม่นี้เมื่อคุณถามคําถามและรวบรวมคําตอบเฉพาะเข้าด้วยกัน ต้องใช้หลักฐานพื้นฐานของเครื่องมือค้นหาขั้นสูง
คุณมีข้อกังวลอะไรบ้างเกี่ยวกับการเปลี่ยนแปลงเหล่านี้กับธรรมชาติของการคํานวณ
Lee: เนื่องจากผลิตภัณฑ์ AI เช่น ChatGPT และ Bing ได้รับความนิยมมากขึ้น ลักษณะของการคํานวณจึงกลายเป็นการอนุมานมากขึ้น นี่เป็นการออกจากโมเดลแมชชีนเลิร์นนิงที่ได้รับความนิยมเมื่อไม่กี่ปีที่ผ่านมาเล็กน้อย เช่น AlphaGO ของ DeepMind ซึ่งเป็นเครื่องจักรที่ได้รับการฝึกฝนให้เป็นผู้เล่นที่ดีที่สุด
1
ซึ่งความพยายามอย่างมากคือการฝึกฝนโมเดลและในที่สุดก็แสดงให้เห็นถึงความสามารถที่แปลกใหม่ ตอนนี้ โมเดล AI ขนาดใหญ่กําลังถูกฝังอยู่ในการดําเนินงาน day-to-day เช่น การดําเนินการค้นหา และนั่นมาพร้อมกับการแลกเปลี่ยน
1
ค่าวัสดุและทรัพยากรที่เกี่ยวข้องกับ AI คืออะไร?
Jariwala: เรามองข้ามไป แต่งานทั้งหมดที่เครื่องของเราดําเนินการคือธุรกรรมระหว่างหน่วยความจําและโปรเซสเซอร์ และธุรกรรมแต่ละรายการเหล่านี้ต้องใช้พลังงาน เมื่องานเหล่านี้ซับซ้อนและใช้ข้อมูลมากมากขึ้น สองสิ่งก็เริ่มขยายขนาดอย่างทวีคูณ: ความต้องการพื้นที่จัดเก็บหน่วยความจํามากขึ้นและความต้องการพลังงานมากขึ้น
1
เกี่ยวกับหน่วยความจํา การประมาณการจาก Semiconductor Research Corporation ซึ่งเป็นกลุ่มของบริษัทเซมิคอนดักเตอร์รายใหญ่ทั้งหมด อ้างว่าหากเรายังคงปรับขนาดข้อมูลในอัตรานี้ ซึ่งเก็บไว้ในหน่วยความจําที่ทําจากซิลิกอน เราจะใช้ปริมาณซิลิกอนทั่วโลกที่ผลิตทุกปีมากขึ้น ดังนั้น อีกไม่นานเราจะมีปัญหาเกี่ยวกับห่วงโซ่อุปทานซิลิกอนของเราไม่สามารถติดตามปริมาณข้อมูลที่สร้างขึ้นได้
1
ควบคู่ไปกับข้อเท็จจริงที่ว่าในปี 2018 คอมพิวเตอร์ของเราใช้พลังงานไฟฟ้าประมาณ 1-2% ของแหล่งจ่ายไฟทั่วโลก และในปี 2020 ตัวเลขนี้คาดว่าจะอยู่ที่ประมาณ 4–6% หากเราดําเนินต่อไปในอัตรานี้ ภายในปี 2573 คาดว่าจะเพิ่มขึ้นระหว่าง 8-21% ซึ่งทําให้วิกฤตพลังงานในปัจจุบันรุนแรงขึ้นอีก
Lee: นอกจากนี้ยังมีความกังวลเกี่ยวกับการปล่อยก๊าซคาร์บอนจากการปฏิบัติงานจากการคํานวณ ดังนั้นก่อนที่ผลิตภัณฑ์อย่าง ChatGPT จะเริ่มได้รับความสนใจอย่างมาก การเพิ่มขึ้นของ AI นําไปสู่การเติบโตอย่างมีนัยสําคัญในศูนย์ข้อมูล สิ่งอํานวยความสะดวกกับโครงสร้างพื้นฐานด้านไอทีที่อยู่อาศัยสําหรับการประมวลผลข้อมูล การจัดการ และการจัดเก็บข้อมูล
1
และบริษัทต่างๆ เช่น Amazon, Google และ Meta ได้สร้างสิ่งอํานวยความสะดวกขนาดใหญ่เหล่านี้มากขึ้นเรื่อยๆ ทั่วประเทศ อันที่จริง พลังงานของศูนย์ข้อมูลและการปล่อยก๊าซคาร์บอนที่เกี่ยวข้องกับศูนย์ข้อมูลเพิ่มขึ้นเป็นสองเท่าระหว่างปี 2560 ถึง 2563 โรงงานแต่ละแห่งใช้พลังงานตามลําดับ 20 เมกะวัตต์ถึง 40 เมกะวัตต์ และศูนย์ข้อมูลเวลาส่วนใหญ่ทํางานเต็มประสิทธิภาพที่ 100%
ซึ่งหมายความว่าโปรเซสเซอร์ทั้งหมดกําลังยุ่งอยู่กับงานบางอย่าง ดังนั้น โรงงานขนาด 20 เมกะวัตต์ อาจใช้พลังงาน 20 เมกะวัตต์ได้ค่อนข้างสม่ําเสมอ เพียงพอที่จะจ่ายไฟได้ประมาณ 16,000 ครัวเรือน คํานวณให้มากที่สุดเท่าที่จะทําได้เพื่อตัดจําหน่ายต้นทุนของศูนย์ข้อมูล เซิร์ฟเวอร์ และระบบส่งพลังงาน
1
แล้วก็มี Carbon footprint ซึ่งเกี่ยวข้องกับการก่อสร้างและการผลิต สิ่งนี้ย้อนกลับไปที่การสร้างโรงหล่อเซมิคอนดักเตอร์ใหม่และบรรจุชิปทั้งหมดที่เราจะต้องผลิตเพื่อให้ทันกับความต้องการในการคํานวณที่เพิ่มขึ้น กระบวนการเหล่านี้ในตัวมันเองนั้นใช้พลังงานมาก มีราคาแพง และมีผลกระทบต่อคาร์บอนในแต่ละขั้นตอน
ศูนย์ข้อมูลเหล่านี้มีบทบาทอย่างไร และเหตุใดจึงต้องการมากกว่านี้??
Lee: ศูนย์ข้อมูลเสนอการประหยัดจากขนาด ในอดีต ธุรกิจจํานวนมากจะสร้างสิ่งอํานวยความสะดวกของตนเอง ซึ่งหมายความว่าพวกเขาต้องจ่ายค่าก่อสร้าง อุปกรณ์ไอที การจัดการห้องเซิร์ฟเวอร์ ฯลฯ “ดังนั้นทุกวันนี้ การ ”“เช่า”“ พื้นที่จาก Amazon Web Services จึงง่ายกว่ามาก” นั่นเป็นเหตุผลที่คลาวด์คอมพิวติ้งเริ่มต้นขึ้นในทศวรรษที่ผ่านมา
และในช่วงไม่กี่ปีที่ผ่านมา โปรเซสเซอร์รุ่นเดิมที่ใช้แพร่หลายในศูนย์ข้อมูลตั้งแต่ต้นทศวรรษที่ 90 เริ่มถูกแทนที่ด้วยโปรเซสเซอร์พิเศษเพื่อตอบสนองความต้องการของคอมพิวเตอร์สมัยใหม่ เหตุใดจึงเป็นเช่นนั้น และสถาปนิกคอมพิวเตอร์ตอบสนองต่อข้อจํากัดนี้อย่างไร??
Lee: ย้อนกลับไปที่การปรับขนาด การสังเกตสองครั้งมีผลกระทบอย่างลึกซึ้งต่อสถาปัตยกรรมโปรเซสเซอร์คอมพิวเตอร์: กฎของมัวร์และการปรับขนาดเดนนาร์ด
กฎของมัวร์ระบุว่าจํานวนทรานซิสเตอร์บนชิป ซึ่งเป็นชิ้นส่วนที่ควบคุมการไหลของอิเล็กตรอนบนวัสดุเซมิคอนดักเตอร์ เพิ่มขึ้นเป็นสองเท่าทุกๆ สองปีหรือมากกว่านั้น และในอดีตได้กําหนดจังหวะในการพัฒนาชิปที่เล็กกว่าและเร็วกว่า และการปรับขนาดของ Dennard ชี้ให้เห็นว่าการเพิ่มจํานวนทรานซิสเตอร์เป็นสองเท่าอย่างมีประสิทธิภาพหมายถึงการย่อขนาด แต่ยังรักษาความหนาแน่นของพลังงานไว้ด้วย ดังนั้นชิปขนาดเล็กจึงหมายถึงชิปประหยัดพลังงานมากกว่า
ในทศวรรษที่ผ่านมา ผลกระทบเหล่านี้เริ่มช้าลงด้วยเหตุผลหลายประการที่เกี่ยวข้องกับขีดจํากัดทางกายภาพของวัสดุที่เราใช้ ผลกระทบที่ลดลงนี้ทําให้สถาปนิกต้องพัฒนาวิธีใหม่ๆ ในการออกแบบ
โปรเซสเซอร์รถ่นเดิมไม่เร็วพอที่จะเรียกใช้การคํานวณที่ซับซ้อนหลายอย่างพร้อมกัน ดังนั้นสถาปนิกคอมพิวเตอร์จึงเริ่มมองหาการออกแบบทางเลือก นั่นคือเหตุผลที่หน่วยประมวลผลกราฟิก (GPU) ได้รูปลักษณ์ที่สอง
GPU เก่งเป็นพิเศษในการคํานวณที่ซับซ้อนซึ่งจําเป็นสําหรับอัลกอริธึมการเรียนรู้ของเครื่อง สิ่งเหล่านี้มีแนวโน้มที่จะเป็นศูนย์กลางพีชคณิตเชิงเส้นมากขึ้น เช่น การคูณเมทริกซ์ขนาดใหญ่และการเพิ่มเวกเตอร์เชิงซ้อน ดังนั้นสิ่งนี้จึงเปลี่ยนภูมิทัศน์ของสถาปัตยกรรมคอมพิวเตอร์อย่างมีนัยสําคัญ เนื่องจากนําไปสู่การสร้างสิ่งที่เราเรียกว่าตัวเร่งความเร็วเฉพาะโดเมน ชิ้นส่วนของฮาร์ดแวร์ที่เหมาะกับแอปพลิเคชันเฉพาะ
ตัวเร่งความเร็วประหยัดพลังงานมากกว่ามาก เนื่องจากเป็น custom-made สําหรับคอมพิวเตอร์บางประเภทและยังให้ประสิทธิภาพที่ดีขึ้นมาก ดังนั้นศูนย์ข้อมูลสมัยใหม่จึงมีความหลากหลายมากกว่าที่คุณเคยมีเมื่อ 10 ถึง 15 ปีที่แล้ว อย่างไรก็ตาม ด้วยความหลากหลายนั้นมาพร้อมกับค่าใช้จ่ายใหม่ เนื่องจากเราต้องการวิศวกรใหม่ในการสร้างและออกแบบฮาร์ดแวร์แบบกําหนดเองเหล่านี้
เรามีแนวโน้มที่จะเห็นการเปลี่ยนแปลงฮาร์ดแวร์อะไรอีกบ้างเพื่อรองรับระบบใหม่
Jariwala: ดังที่ฉันได้กล่าวไปแล้ว งานคํานวณแต่ละงานคือธุรกรรมระหว่างหน่วยความจําและการประมวลผลที่ต้องใช้พลังงาน ดังนั้นห้องปฏิบัติการของเราร่วมกับห้องปฏิบัติการของ Troy Olsson จึงพยายามหาวิธีที่จะทําให้การดําเนินการแต่ละครั้งใช้พลังงานน้อยลง วิธีหนึ่งในการลดเมตริกนี้คือการรวมหน่วยความจําและหน่วยประมวลผลอย่างแน่นหนา
เนื่องจากปัจจุบันมีอยู่ในสองตําแหน่งที่แยกจากกันซึ่งห่างกันหลายมิลลิเมตรถึงเซนติเมตร ดังนั้นไฟฟ้าจึงต้องเดินทางไกลเพื่ออํานวยความสะดวกในการคํานวณ ซึ่งทําให้พลังงานและเวลาไม่มีประสิทธิภาพ
มันเหมือนกับการสร้างห้างสรรพสินค้า high-rise ที่คุณประหยัดพื้นที่และพลังงาน และลดเวลาในการเดินทางโดยอนุญาตให้ผู้คนใช้ลิฟต์แทนที่จะให้พวกเขาเดินไปยังสถานที่ต่างๆ เช่นเดียวกับในห้างสรรพสินค้าสตริปชั้นเดียว เราเรียกมันว่าสถาปัตยกรรม heterogenous-integrated ในแนวตั้ง และการพัฒนาสิ่งนี้เป็นกุญแจสําคัญในการลดการใช้พลังงาน
แต่การผสานรวมหน่วยความจําและการประมวลผลอย่างมีประสิทธิภาพนั้นมาพร้อมกับความท้าทายของตัวเอง เพราะมันทําสิ่งต่าง ๆ โดยเนื้อแท้ที่คุณไม่ต้องการรบกวนซึ่งกันและกัน ดังนั้น นี่คือปัญหาที่ผู้คนอย่างเพื่อนร่วมงานและฉันตั้งเป้าที่จะแก้ไข เรากําลังพยายามมองหาวัสดุประเภทใหม่ที่สามารถอํานวยความสะดวกในการออกแบบเพื่อสร้างอุปกรณ์หน่วยความจําประหยัดพลังงานที่เราสามารถวางซ้อนกันบนโปรเซสเซอร์ได้
1
คุณมีความคิดปิดหรือไม่?
Jariwala: ถึงตอนนี้ น่าจะชัดเจนว่าเรามีกอริลลาน้ำหนักขนาด 800 ปอนด์อยู่ในห้อง คอมพิวเตอร์และอุปกรณ์อื่นๆ ของเรากําลังกลายเป็นสัตว์พลังงานที่ไม่รู้จักพอที่เรายังคงให้อาหารต่อไป ไม่ได้หมายความว่า AI และความก้าวหน้าจําเป็นต้องหยุดเพราะมีประโยชน์อย่างเหลือเชื่อสําหรับการใช้งานที่สําคัญ เช่น การเร่งการค้นพบการรักษาให้เร็วขึ้น เราแค่ต้องตระหนักถึงผลกระทบและผลักดันแนวทางที่ยั่งยืนมากขึ้นในการออกแบบ การผลิต และการบริโภค
1
ที่มา: มหาวิทยาลัยเพนซิลเวเนีย
โฆษณา