ปูทางสำหรับ Terabit Ethernet

ปูทางสำหรับ Terabit Ethernet แม้จะมีความก้าวหน้าในเทคโนโลยี Wi-Fi และการเปิดตัว Wi-Fi 6 เมื่อเร็ว ๆ นี้ อีเธอร์เน็ตยังคงเป็นเทคโนโลยีที่ต้องการที่บริษัทต่างๆ ใช้เมื่อต้องการย้ายข้อมูลจำนวนมากอย่างรวดเร็ว โดยเฉพาะในศูนย์ข้อมูล แม้ว่าเทคโนโลยีที่อยู่เบื้องหลังอีเธอร์เน็ตจะมีอายุมากกว่าสี่สิบปีแล้ว แต่ในช่วงหลายปีที่ผ่านมา มีการพัฒนาโปรโตคอลใหม่ที่ช่วยให้สามารถส่งข้อมูลได้มากกว่ากิกะไบต์ เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับเทคโนโลยี โปรโตคอล ความก้าวหน้าล่าสุด และอนาคตของ Gigabit Ethernet และบางทีอาจจะเป็นในเร็วๆ นี้ Terabit Ethernet ทาง TechRadar Pro ได้พูดคุยกับ Tim Klein ซีอีโอของบริษัทเชื่อมต่ออุปกรณ์จัดเก็บข้อมูล ATTO

อีเทอร์เน็ตเปิดตัวครั้งแรกในปี XNUMX เทคโนโลยีมีวิวัฒนาการมาอย่างไรตั้งแต่นั้นมา และเหมาะสมกับศูนย์ข้อมูลในปัจจุบันอย่างไร

ปัจจุบันนี้ เป็นเวลากว่าสี่ทศวรรษที่เทคโนโลยีอีเธอร์เน็ตได้ทำการปรับปรุงที่สำคัญ แต่ยังมีหลายสิ่งที่ดูเหมือนเมื่อเปิดตัวครั้งแรกเช่นกัน เดิมทีพัฒนาขึ้นเพื่อให้นักวิทยาศาสตร์แบ่งปันข้อมูลชิ้นเล็กๆ ที่ความเร็ว 4 เมกะบิตต่อวินาที (Mbps) ปัจจุบันเราเห็นศูนย์ข้อมูลขนาดใหญ่แบ่งปันชุดข้อมูลที่ไม่มีโครงสร้างจำนวนมหาศาลผ่านเครือข่ายอีเธอร์เน็ต และแผนงานที่จะเข้าถึงเทราบิตอีเธอร์เน็ตในเวลาเพียงไม่กี่ปี . การพัฒนาข้อมูลแบบทวีคูณ ซึ่งขับเคลื่อนโดยรูปแบบใหม่ๆ เช่น ภาพดิจิทัล ทำให้เกิดความต้องการมหาศาล และการใช้งานพื้นที่จัดเก็บข้อมูลที่ใช้ร่วมกันผ่านอีเทอร์เน็ตในช่วงแรกๆ เหล่านี้ไม่สามารถตอบสนองความต้องการด้านประสิทธิภาพหรือจัดการกับความแออัดด้วยเวลาแฝงที่กำหนดได้ เป็นผลให้โปรโตคอลเช่น Fibre Channel ได้รับการพัฒนาโดยเฉพาะสำหรับการจัดเก็บข้อมูล ในช่วงหลายปีที่ผ่านมา มีการนำเสนอนวัตกรรมหลายอย่าง เช่น ออฟโหลดอัจฉริยะและ RDMA เพื่อให้อีเทอร์เน็ตสามารถตอบสนองความต้องการของข้อมูลที่ไม่มีโครงสร้าง และเอาชนะการหยุดชะงักที่อาจเกิดขึ้นเมื่อมีการถ่ายโอนชุดข้อมูลขนาดใหญ่ มาตรฐานอีเทอร์เน็ตความเร็วสูงล่าสุด เช่น 10/25/40/50/100GbE กลายเป็นแกนหลักของศูนย์ข้อมูลสมัยใหม่แล้ว

(เครดิตรูปภาพ: Pixabay)

แอพพลิเคชั่นในปัจจุบันต้องการประสิทธิภาพที่เพิ่มขึ้นเรื่อยๆ อะไรคือความท้าทายในการกำหนดค่าโปรโตคอลที่เร็วขึ้น? ซอฟต์แวร์สามารถช่วยที่นี่ได้หรือไม่?

การปรับแต่งถือเป็นสิ่งสำคัญอย่างยิ่งในปัจจุบันเนื่องจากความต้องการประสิทธิภาพที่สูงขึ้น แต่ละระบบ ไม่ว่าจะเป็นไคลเอนต์หรือเซิร์ฟเวอร์ จะต้องปรับให้เข้ากับข้อกำหนดของแต่ละเวิร์กโฟลว์เฉพาะ โปรโตคอลการแชร์ไฟล์และข้อกำหนดเวิร์กโฟลว์จำนวนมากอาจมีล้นหลาม ก่อนหน้านี้ คุณอาจยอมรับว่าแบนด์วิดท์ของคุณครึ่งหนึ่งถูกทำลายเนื่องจากการโอเวอร์โหลดกับเหตุการณ์และการสูญเสียแพ็คเกจที่ทำให้คุณเวียนหัวช้าลง ปัจจุบัน มีหลายวิธีในการเพิ่มประสิทธิภาพและปรับแต่งอะแดปเตอร์อีเธอร์เน็ตสำหรับเวิร์กโหลดที่มีความเข้มข้นสูง ขณะนี้ไดรเวอร์ฮาร์ดแวร์มาพร้อมกับอัลกอริธึมในตัวที่ช่วยปรับปรุงประสิทธิภาพ เอ็นจิ้น TCP offload ช่วยลดค่าใช้จ่ายสแต็กเครือข่าย Large Receiver Offload (LRO) และ TCP Segmentation Offload (TSO) สามารถติดตั้งไว้ในฮาร์ดแวร์และซอฟต์แวร์ได้ เพื่ออำนวยความสะดวกในการถ่ายโอนข้อมูลที่ไม่มีโครงสร้างจำนวนมาก การเพิ่มบัฟเฟอร์ เช่น คิวการรับอย่างต่อเนื่อง ช่วยเพิ่มความเร็วในการจัดส่งพัสดุ เพิ่มความเป็นธรรม และปรับปรุงประสิทธิภาพ เทคโนโลยีใหม่กว่า เช่น RDMA ช่วยให้สามารถเข้าถึงหน่วยความจำได้โดยตรงโดยข้ามสแต็กเครือข่ายของระบบปฏิบัติการ และขจัดค่าใช้จ่ายที่เกิดขึ้นจริง

อะไรเป็นแรงผลักดันให้เกิดการนำอินเทอร์เฟซ 10/25/50 / 100GbE มาใช้

ความต้องการโซลูชันการจัดเก็บข้อมูลที่ใหญ่ขึ้นและมีประสิทธิภาพมากขึ้น และความกระตือรือร้นสำหรับเทคโนโลยีอีเธอร์เน็ตใหม่ เช่น RDMA และ NVMe-over-Fabrics กำลังผลักดันการนำอีเธอร์เน็ตความเร็วสูงมาใช้ในศูนย์ข้อมูลสมัยใหม่ ขณะนี้ 10 Gigabit Ethernet (40GbE) เป็นการเชื่อมต่อระหว่างกันที่โดดเด่นสำหรับอะแดปเตอร์ระดับเซิร์ฟเวอร์ และ 4GbE ได้รับการแนะนำอย่างรวดเร็วเพื่อขยายขอบเขตโดยการรวมการรับส่งข้อมูล 10GbE 25 เลน สิ่งนี้พัฒนาเป็นครั้งคราวเป็นมาตรฐาน 50/100/10GbE ซึ่งใช้เลน Gigabit ยี่สิบห้าเลน ขณะนี้เครือข่ายใช้ความเร็ว 25/40/50/100/50 GbE ผสมกัน โดยมี 100 GbE ที่แกนหลัก และ XNUMX GbE ที่ Edge ความสามารถในการผสมและจับคู่ความเร็ว เส้นทางการออกแบบเพื่อให้ได้รับพลังงานทั้งหมดที่ต้องการ และปรับสมดุลศูนย์ข้อมูลตั้งแต่แกนกลางไปจนถึงขอบสุด กำลังนำไปสู่การนำมาตรฐาน XNUMX/XNUMX/XNUMX GbE มาใช้อย่างรวดเร็ว เทคโนโลยีใหม่ๆ เช่น RDMA เปิดโอกาสใหม่ๆ ให้กับบริษัทต่างๆ ในการใช้อะแดปเตอร์เครือข่ายและ Network-Attached Storage (NAS) พร้อมเวลาแฝงที่กำหนดเพื่อจัดการกับเวิร์กโหลดที่ก่อนหน้านี้ต้องจัดการโดยเครือข่ายคอมพิวเตอร์ พื้นที่เก็บข้อมูลราคาแพงกว่า (SAN) โดยใช้ไฟเบอร์ อะแดปเตอร์ช่องสัญญาณที่ต้องการความช่วยเหลือพิเศษเพิ่มเติม เมื่อเร็วๆ นี้ เราได้เห็น NVMe-Over-Fabrics ซึ่งใช้การขนส่ง RDMA เพื่อแบ่งปันเทคโนโลยี NVMe ที่ล้ำสมัยในแฟบริคการจัดเก็บข้อมูล การ์ดเครือข่าย GbE หลายร้อยตัวพร้อม RDMA เปิดประตูสู่แฟบริคการจัดเก็บข้อมูล NVMe ที่ให้ประสิทธิภาพที่เร็วที่สุดในตลาดปัจจุบัน ความเร็วและความน่าเชื่อถือในระดับที่คาดไม่ถึงเหล่านี้ช่วยให้บริษัทต่างๆ ใช้ประโยชน์จากข้อมูลของตนได้มากขึ้นกว่าที่เคย

RDMA คืออะไรและส่งผลต่อเทคโนโลยีอีเทอร์เน็ตอย่างไร

Remote Direct Memory Access (RDMA) ช่วยให้อะแดปเตอร์เครือข่ายอัจฉริยะสามารถเข้าถึงหน่วยความจำได้โดยตรงจากระบบอื่น โดยไม่ต้องผ่านกระบวนการ TCP แบบเดิมและไม่มีการรบกวนจาก CPU การถ่ายโอนแบบดั้งเดิมอาศัย Network Stack (TCP/IP) ของระบบปฏิบัติการในการสื่อสาร ทำให้เกิดค่าใช้จ่ายจำนวนมาก ส่งผลให้ประสิทธิภาพลดลง และจำกัดสิ่งที่เป็นไปได้ด้วยอีเทอร์เน็ตและอุปกรณ์จัดเก็บข้อมูล ขณะนี้ RDMA ช่วยให้สามารถถ่ายโอนข้อมูลแบบไม่สูญเสียซึ่งช่วยลดค่าใช้จ่ายด้วยการเพิ่มประสิทธิภาพอย่างมากโดยประหยัดรอบของ CPU ประสิทธิภาพเพิ่มขึ้นและเวลาแฝงลดลง ช่วยให้องค์กรทำงานได้มากขึ้นโดยใช้เวลาน้อยลง จริงๆ แล้ว RDMA เป็นส่วนขยายของ DMA (การเข้าถึงหน่วยความจำโดยตรง) และข้าม CPU เพื่ออนุญาตการดำเนินการ "ไม่มีการคัดลอก" เทคโนโลยีเหล่านี้เป็นส่วนสำคัญของการจัดเก็บข้อมูลแบบ Fibre Channel มาหลายปีแล้ว เวลาแฝงที่กำหนดนี้เองที่ทำให้ Fibre Channel เป็นตัวเลือกแรกสำหรับองค์กรและเวิร์คโหลดจำนวนมาก ตอนนี้ฟรีด้วยอีเทอร์เน็ต ทำให้องค์กรทุกขนาดสามารถใช้ประโยชน์จากพื้นที่จัดเก็บข้อมูลที่ใช้ร่วมกันระดับไฮเอนด์ได้ง่ายขึ้น

NVMe ถูกรวมเข้าด้วยกันอย่างไร?

โดยที่ NVMe ผสานรวมกับอีเทอร์เน็ตคือผ่านโปรโตคอล NVMe-over-Fabrics เป็นวิธีที่เร็วที่สุดในการถ่ายโอนไฟล์ผ่านอีเทอร์เน็ตในปัจจุบัน NVMe ได้รับการพัฒนาเพื่อใช้ประโยชน์จาก SSD ที่ทันสมัยและที่เก็บข้อมูลแฟลชโดยอัปเดตโปรโตคอล SATA / SAS NVMe ยกระดับมาตรฐานไปอีกขั้นด้วยการใช้ความสามารถของหน่วยความจำแบบไม่ลบเลือนในการทำงานแบบคู่ขนาน เนื่องจาก NVMe เป็นเทคโนโลยีการจัดเก็บข้อมูลที่เชื่อมต่อโดยตรง ขั้นตอนต่อไปสำหรับการจัดเก็บข้อมูลแบบแบ่งใช้คือที่มาของ Ethernet หรือ Fibre Channel: การนำ NVMe มาสู่แฟบริกการจัดเก็บข้อมูลที่ใช้ร่วมกัน

แรม

(เครดิตรูปภาพ: Gorodenkoff / Shutterstock)

ข้อกำหนดอีเทอร์เน็ตสำหรับเทคโนโลยีการจัดเก็บข้อมูล เช่น ดิสก์ RAM และที่เก็บข้อมูลอัจฉริยะ มีอะไรบ้าง

Smart NIC เป็นคำศัพท์ใหม่บางส่วนสำหรับความสามารถของตัวควบคุมเครือข่ายในการจัดการการทำงานที่ก่อนหน้านี้เป็นภาระของโปรเซสเซอร์ การยกเลิกการโหลดโปรเซสเซอร์ระบบช่วยปรับปรุงประสิทธิภาพโดยรวม ผู้ผลิตการ์ดเครือข่ายนำเสนอเทคโนโลยี Field Programmable Gate Array (FPGA) ซึ่งช่วยให้ฟังก์ชันการทำงานของแอปพลิเคชันเฉพาะ รวมถึงการถ่ายโอนข้อมูลและการเร่งความเร็ว ได้รับการพัฒนาและเขียนโค้ดบน FPGA การพักอยู่บนเลเยอร์ฮาร์ดแวร์ทำให้การ์ดเครือข่ายเหล่านี้รวดเร็วอย่างน่าประทับใจพร้อมศักยภาพมหาศาลในอนาคตที่จะเพิ่มนวัตกรรมให้กับเลเยอร์นี้มากขึ้น Disk RAM Smart Storage พัฒนาพื้นที่นี้โดยการผสานรวมฮาร์ดแวร์เร่งความเร็วข้อมูลเข้ากับอุปกรณ์จัดเก็บข้อมูลที่ใช้ RAM แบบถาวร (ซึ่งเร็วกว่าหน่วยความจำแบบไม่ลบเลือนที่ใช้ในอุปกรณ์ NVMe ในปัจจุบัน) สิ่งนี้แปลงเป็นการจัดเก็บข้อมูลที่รวดเร็วอย่างน่าประทับใจพร้อมความสามารถในการปรับปริมาณงานหนักให้เหมาะสม การผสมผสานระหว่างพื้นที่จัดเก็บข้อมูล RAM ที่รวดเร็วเป็นพิเศษ ผู้ดูแล NIC ในตัว และ FPGA ที่มีการออฟโหลดอัจฉริยะและการเร่งความเร็วข้อมูล มีศักยภาพมหาศาลสำหรับการจัดเก็บข้อมูลความเร็วสูงพิเศษ ดิสก์ RAM และอุปกรณ์จัดเก็บข้อมูลอัจฉริยะจะไม่มีอยู่จริงหากไม่มีนวัตกรรมล่าสุดใน Ethernet RDMA และ NVMe-over-Fabrics

อนาคตของเทคโนโลยีอีเธอร์เน็ตคืออะไร?

XNUMX Gigabit Ethernet เริ่มแพร่กระจายจากโซลูชัน HPC ไปยังศูนย์ข้อมูลแล้ว มาตรฐานนี้จะเพิ่มช่องจราจรเป็นสองเท่าเป็น XNUMX GbE ต่อช่อง และมีแผนปฏิบัติการที่น่าทึ่งที่จะได้เห็นช่องทางหนึ่งที่มีห้าเทราบิตภายในเวลาเพียงไม่กี่ปี PCI Express Forties และ Fifties จะมีบทบาทสำคัญในการเปิดใช้งานความเร็วที่สูงขึ้นเหล่านี้ และบริษัทต่างๆ จะยังคงมองหาวิธีที่จะเพิ่มพลังงานสูงสุด ความเร็วในการถ่ายโอนความเร็ว และค้นหาวิธีการควบคุมการทำงานของ CPU และ GPU พร้อม FPGA และไดรเวอร์เครือข่าย