ความลับสกปรกของการประมวลผลประสิทธิภาพสูง

ความลับสกปรกของการประมวลผลประสิทธิภาพสูง

ในช่วงหลายทศวรรษนับตั้งแต่ Seymour Cray พัฒนาสิ่งที่ถือเป็นซูเปอร์คอมพิวเตอร์เครื่องแรกของโลก นั่นคือ CDC 6600 (เปิดในแท็บใหม่) การแข่งขันด้านอาวุธได้ดุเดือดในชุมชนคอมพิวเตอร์ประสิทธิภาพสูง (HPC) เป้าหมาย: ปรับปรุงประสิทธิภาพในทุกวิถีทางโดยเสียค่าใช้จ่ายทั้งหมด

ขับเคลื่อนด้วยความก้าวหน้าในด้านการประมวลผล การจัดเก็บข้อมูล เครือข่าย และซอฟต์แวร์ ประสิทธิภาพของระบบชั้นนำได้เพิ่มขึ้นนับล้านล้านเท่านับตั้งแต่เปิดตัว CDC 6600 ในปี 1964—นับล้านของการดำเนินการจุดลอยตัวต่อวินาที (megaFLOPS) ถึง quintillions (exaFLOPS)

เจ้าของมงกุฎคนปัจจุบัน ซึ่งเป็นซูเปอร์คอมพิวเตอร์ขนาดมหึมาของอเมริกาที่เรียกว่า Frontier มีความสามารถในการบรรลุ 1102 exaFLOPS ตามเกณฑ์มาตรฐาน High Performance Linpack (HPL) แต่เชื่อกันว่าเครื่องจักรที่ทรงพลังยิ่งกว่านั้นกำลังทำงานอยู่ที่อื่นหลังประตูปิด

การมาถึงของซูเปอร์คอมพิวเตอร์ที่เรียกว่า Exascale คาดว่าจะเป็นประโยชน์ต่อทุกอุตสาหกรรม ตั้งแต่วิทยาศาสตร์ ความปลอดภัยทางไซเบอร์ การดูแลสุขภาพ จนถึงการเงิน และปูทางไปสู่โมเดล AI ใหม่อันทรงพลังที่อาจต้องใช้เวลาหลายปีในการพัฒนา

CDC 6600

CDC 6600 ถือเป็นซูเปอร์คอมพิวเตอร์เครื่องแรกของโลกอย่างกว้างขวาง (เครดิตภาพ: พิพิธภัณฑ์ประวัติศาสตร์คอมพิวเตอร์)

อย่างไรก็ตาม ความเร็วที่เพิ่มขึ้นขนาดนี้ต้องแลกมาด้วยต้นทุน นั่นคือ การใช้พลังงาน ด้วยความเร็วเต็มพิกัด Frontier ใช้พลังงานถึง 40 MW (เปิดในแท็บใหม่) ประมาณเท่ากับคอมพิวเตอร์เดสก์ท็อป 40 ล้านเครื่อง

ซูเปอร์คอมพิวเตอร์คือการก้าวข้ามขีดจำกัดของสิ่งที่เป็นไปได้มาโดยตลอด แต่เนื่องจากความจำเป็นในการลดการปล่อยก๊าซเรือนกระจกมีความชัดเจนมากขึ้น และราคาพลังงานยังคงเพิ่มขึ้นอย่างต่อเนื่อง อุตสาหกรรม HPC จะต้องประเมินใหม่ว่าหลักการชี้นำเดิมยังคงคุ้มค่าที่จะปฏิบัติตามหรือไม่

ประสิทธิภาพเทียบกับ ประสิทธิภาพ

องค์กรหนึ่งที่ดำเนินงานแถวหน้าในประเด็นนี้คือมหาวิทยาลัยเคมบริดจ์ ซึ่งร่วมมือกับ Dell Technologies ได้พัฒนาซูเปอร์คอมพิวเตอร์รุ่นต่อไปที่ประหยัดพลังงานหลายเครื่อง

ตัวอย่างเช่น Wilkes3 (เปิดในแท็บใหม่) อยู่ในอันดับที่ 100 ในตารางประสิทธิภาพโดยรวม (เปิดในแท็บใหม่) แต่อยู่ในอันดับที่สามใน Green500 (เปิดในแท็บใหม่) การจัดหมวดหมู่ของระบบ HPC ตามประสิทธิภาพต่อวัตต์ พลังงานที่ใช้ไป

ในการสนทนากับ LaComparacion Pro ดร. Paul Calleja ผู้อำนวยการฝ่ายบริการคอมพิวเตอร์เพื่อการวิจัยที่มหาวิทยาลัยเคมบริดจ์ อธิบายว่าสถาบันให้ความสำคัญกับการสร้างเครื่องจักรที่มีประสิทธิผลสูงและมีประสิทธิภาพสูงมากกว่าเครื่องจักรที่ทรงพลังอย่างยิ่ง

“เราไม่ได้สนใจระบบขนาดใหญ่มากนัก เพราะว่ามันเป็นวิธีแก้ปัญหาเฉพาะจุดมาก แต่เทคโนโลยีที่ใช้งานภายในอาคารมีการใช้งานที่กว้างกว่ามากและจะช่วยให้ระบบดำเนินการได้ช้าลงในลักษณะที่ประหยัดและประหยัดพลังงานมากขึ้น” ดร. Calleja กล่าว

“การทำเช่นนี้จะทำให้ผู้คนจำนวนมากเข้าถึงไอทีได้เป็นประชาธิปไตย เราสนใจที่จะใช้เทคโนโลยีที่ออกแบบมาสำหรับระบบรุ่นเก่าขนาดใหญ่เหล่านี้เพื่อสร้างซูเปอร์คอมพิวเตอร์ที่ทนทานมากขึ้นสำหรับผู้ชมในวงกว้าง

มหาวิทยาลัยเคมบริดจ์

ซูเปอร์คอมพิวเตอร์ Wilkes3 อาจไม่ใช่เครื่องที่เร็วที่สุดในโลก แต่เป็นหนึ่งในซุปเปอร์คอมพิวเตอร์ที่ประหยัดพลังงานมากที่สุด (เครดิตภาพ: มหาวิทยาลัยเคมบริดจ์)

ในอีกไม่กี่ปีข้างหน้า ดร. Calleja ยังคาดการณ์ถึงการผลักดันประสิทธิภาพการใช้พลังงานอย่างเข้มข้นมากขึ้นในภาค HPC และชุมชนศูนย์ข้อมูลในวงกว้าง ซึ่งการใช้พลังงานคิดเป็นสัดส่วนมากกว่า 90% ของต้นทุน เราได้รับแจ้ง

การเปลี่ยนแปลงราคาพลังงานล่าสุดที่เกี่ยวข้องกับสงครามในยูเครนจะทำให้ซูเปอร์คอมพิวเตอร์มีราคาแพงกว่ามาก โดยเฉพาะอย่างยิ่งในบริบทของการประมวลผลระดับ Exascale ซึ่งแสดงให้เห็นความสำคัญของประสิทธิภาพต่อวัตต์เพิ่มเติม

ในบริบทของ Wilkes3 มหาวิทยาลัยค้นพบว่ามีการปรับปรุงประสิทธิภาพหลายประการที่ช่วยปรับปรุงระดับประสิทธิภาพ ตัวอย่างเช่น โดยการลดความเร็วสัญญาณนาฬิกาที่ส่วนประกอบบางอย่างกำลังทำงานอยู่ โดยขึ้นอยู่กับปริมาณงาน ทีมงานจึงสามารถลดการใช้พลังงานได้สำเร็จตามลำดับ 20-30%

“ภายในตระกูลสถาปัตยกรรมเฉพาะ ความเร็วสัญญาณนาฬิกามีความสัมพันธ์เชิงเส้นกับประสิทธิภาพ แต่มีความสัมพันธ์กับการใช้พลังงานเป็นรูปสี่เหลี่ยมจัตุรัส นี่คือฆาตกร” ดร. Calleja อธิบาย

“การลดความเร็วสัญญาณนาฬิกาจะช่วยลดการใช้พลังงานในอัตราที่เร็วกว่าประสิทธิภาพมาก แต่ยังช่วยยืดเวลาที่ใช้ในการทำงานให้เสร็จสิ้นอีกด้วย ดังนั้นสิ่งที่เราควรพิจารณาไม่ใช่การใช้พลังงานระหว่างการวิ่ง แต่จริงๆ แล้วคือพลังงานที่ใช้ไปในการทำงาน มีสถานที่ที่สมบูรณ์แบบ

ซอฟต์แวร์คือราชา

นอกเหนือจากการกำหนดค่าฮาร์ดแวร์ที่ปรับแต่งอย่างละเอียดสำหรับปริมาณงานเฉพาะแล้ว ยังมีการเพิ่มประสิทธิภาพอีกหลายประการที่ต้องทำในที่อื่น ในบริบทของการจัดเก็บข้อมูลและเครือข่าย และในสาขาวิชาที่เกี่ยวข้อง เช่น การระบายความร้อนและการออกแบบชั้นวาง

อย่างไรก็ตาม เมื่อถูกถามโดยเฉพาะเจาะจงว่าเขาต้องการเห็นทรัพยากรที่จัดสรรเพื่อแสวงหาการปรับปรุงประสิทธิภาพการใช้พลังงานโดยเฉพาะ ดร. Calleja อธิบายว่าควรให้ความสำคัญกับซอฟต์แวร์เป็นอันดับแรกและสำคัญที่สุด

“ฮาร์ดแวร์ไม่ใช่ปัญหา แต่เป็นเรื่องของประสิทธิภาพของแอพพลิเคชั่น “นี่จะเป็นคอขวดหลักในการก้าวไปข้างหน้า” เขากล่าว “ระบบ exascale ในปัจจุบันนั้นใช้สถาปัตยกรรม GPU และจำนวนแอปพลิเคชันที่สามารถทำงานได้อย่างมีประสิทธิภาพบนระบบ GPU นั้นมีจำนวนน้อย”

“เพื่อที่จะใช้ประโยชน์จากเทคโนโลยีในปัจจุบันได้อย่างแท้จริง เราต้องให้ความสำคัญกับการพัฒนาแอพพลิเคชั่น วงจรชีวิตของการพัฒนาครอบคลุมหลายทศวรรษ ซอฟต์แวร์ที่ใช้อยู่ในปัจจุบันได้รับการพัฒนาเมื่อ 20 หรือ 30 ปีที่แล้ว และเป็นเรื่องยากเมื่อคุณมีโค้ดยาวจนต้องออกแบบใหม่

อย่างไรก็ตาม ปัญหาคืออุตสาหกรรม HPC ไม่มีนิสัยชอบคิดถึงซอฟต์แวร์ก่อน ในอดีต มีการให้ความสนใจกับฮาร์ดแวร์มากขึ้น เนื่องจากตามคำพูดของ Dr. Calleja “มันง่าย; คุณเพิ่งซื้อชิปที่เร็วกว่า คุณไม่จำเป็นต้องคิดอย่างชาญฉลาด”

"เมื่อเรามีกฎของมัวร์ ซึ่งประสิทธิภาพของโปรเซสเซอร์เพิ่มขึ้นสองเท่าทุก ๆ สิบแปดเดือน คุณไม่จำเป็นต้องดำเนินการใดๆ เพื่อเพิ่มประสิทธิภาพ แต่ยุคนั้นได้จบลงแล้ว ตอนนี้ หากเราต้องการสร้างความก้าวหน้า เราต้องย้อนกลับไปและปรับโครงสร้างใหม่ ซอฟต์แวร์ »

CPU ที่มีหน้าสัมผัสหันขึ้นวางอยู่บนเมนบอร์ดของพีซี ชิปถูกเน้นด้วยแสงสีน้ำเงิน

เมื่อกฎของมัวร์เริ่มอ่อนลง ความก้าวหน้าในสถาปัตยกรรม CPU จึงไม่สามารถนำมาใช้เป็นแหล่งที่มาของการปรับปรุงประสิทธิภาพได้อีกต่อไป (เครดิตรูปภาพ: Alexander_Safonov/Shutterstock)

ดร. Calleja ขอยกย่อง Intel ในเรื่องนี้ เนื่องจากพื้นที่ฮาร์ดแวร์เซิร์ฟเวอร์มีความหลากหลายมากขึ้นจากมุมมองของผู้จำหน่าย (ในหลาย ๆ ด้านเป็นการพัฒนาเชิงบวก) ความเข้ากันได้ของแอปพลิเคชันอาจกลายเป็นปัญหา แต่ Intel กำลังทำงานในแนวทางแก้ไข

“ความแตกต่างอย่างหนึ่งที่ฉันเห็นสำหรับ Intel คือพวกเขากำลังลงทุนอย่างมากในระบบนิเวศ oneAPI เพื่อพัฒนาความสามารถในการพกพาโค้ดระหว่างประเภทซิลิคอน “ห่วงโซ่เครื่องมือประเภทนี้เองที่เราจำเป็นต้องเปิดใช้งานการใช้งานในอนาคตเพื่อใช้ประโยชน์จากซิลิคอนที่เกิดขึ้นใหม่” เขากล่าว

ดร. Calleja แยกกันเรียกร้องให้ให้ความสำคัญกับ "ความต้องการทางวิทยาศาสตร์" ให้มากขึ้น บ่อยครั้งที่สิ่งต่างๆ “ผิดพลาดในการแปล” ทำให้เกิดความไม่ตรงกันระหว่างสถาปัตยกรรมฮาร์ดแวร์และซอฟต์แวร์กับความต้องการที่แท้จริงของผู้ใช้

ตามที่เขาพูด แนวทางที่มีประสิทธิภาพมากขึ้นในการทำงานร่วมกันข้ามอุตสาหกรรมจะสร้าง "วงจรคุณธรรม" ของผู้ใช้ ผู้ให้บริการ และซัพพลายเออร์ ซึ่งสร้างประโยชน์ทั้งในด้านประสิทธิภาพและประสิทธิผล

อนาคตขนาดเซ็ตต้า

โดยปกติแล้ว เมื่อเหตุการณ์สำคัญเชิงสัญลักษณ์ของการลดลงในระดับ exascale ตอนนี้ความสนใจจะหันไปที่ระดับระดับเซตตาถัดไป

“Zettascale เป็นเพียงธงต่อไป” ดร. Calleja กล่าว “โทเท็มที่เน้นย้ำถึงเทคโนโลยีที่จำเป็นในการก้าวไปสู่ความก้าวหน้าทางคอมพิวเตอร์ขั้นต่อไปซึ่งไม่สามารถบรรลุได้ในปัจจุบัน”

“ระบบที่เร็วที่สุดในโลกนั้นมีราคาแพงมากสำหรับสิ่งที่คุณได้รับจากมัน ในแง่ของผลลัพธ์ทางวิทยาศาสตร์ แต่สิ่งเหล่านี้มีความสำคัญเพราะพวกเขาแสดงให้เห็นถึงศิลปะแห่งความเป็นไปได้และพัฒนาอุตสาหกรรม

มหาวิทยาลัยเคมบริดจ์

วิทยาลัย Pembroke มหาวิทยาลัยเคมบริดจ์ ซึ่งเป็นที่ตั้งของ Open Zettascale Lab (เครดิตภาพ: มหาวิทยาลัยเคมบริดจ์)

ไม่ว่าระบบที่มีความสามารถในการบรรลุผลการดำเนินงาน zettaFLOPS ซึ่งมีประสิทธิภาพมากกว่าพืชผลในปัจจุบันนับพันเท่าจะสามารถพัฒนาในลักษณะที่สอดคล้องกับเป้าหมายด้านความยั่งยืนได้หรือไม่นั้น จะขึ้นอยู่กับความสามารถของอุตสาหกรรมในการประดิษฐ์หรือไม่

ไม่มีความสัมพันธ์แบบไบนารีระหว่างประสิทธิภาพและประสิทธิภาพการใช้พลังงาน แต่ทักษะจำนวนพอสมควรในแต่ละสาขาย่อยจะต้องเพิ่มประสิทธิภาพการทำงานที่จำเป็นภายในขอบเขตพลังงานที่เหมาะสม

ตามทฤษฎีแล้ว มีอัตราส่วนทองคำระหว่างประสิทธิภาพและการใช้พลังงาน ดังนั้นคุณประโยชน์ต่อสังคมจาก HPC จึงถือเป็นตัวกำหนดค่าใช้จ่ายในการปล่อยก๊าซคาร์บอนได้

แน่นอนว่าตัวเลขที่แม่นยำจะยังคงยากจะเข้าใจในทางปฏิบัติ แต่ตามคำจำกัดความแล้ว การดำเนินตามแนวคิดนี้ถือเป็นก้าวไปในทิศทางที่ถูกต้อง