เหตุใด NFS จึงไม่เหมาะสำหรับการทำงานอีกต่อไป

เหตุใด NFS จึงไม่เหมาะสำหรับการทำงานอีกต่อไป

ในช่วงต้นทศวรรษ 1980 Motorola ได้เปิดตัวโทรศัพท์มือถือเชิงพาณิชย์เครื่องแรก มีขนาดใหญ่ หนัก มีราคาหลายพันดอลลาร์ และทำงานบนเครือข่ายแอนะล็อกที่เรียกว่า AMPS ซึ่งใช้แบนด์วิธจำนวนมาก และไม่มีคุณสมบัติด้านความปลอดภัยขั้นพื้นฐานเพื่อป้องกันไม่ให้สายเรียกเข้าถูกดักหรือดักฟัง หงุดหงิดเหมือนในสมัยของพวกเขาไม่มีใครในความคิดที่ถูกต้องของพวกเขาที่จะสวมใส่พวกเขาในวันนี้ เมื่อ Motorola DynaTac 8000X เปิดตัว Sun Microsystems ได้พัฒนา Network File System (NFS) เป็นโปรโตคอลที่ช่วยให้เครื่องไคลเอนต์สามารถเข้าถึงไฟล์บนเซิร์ฟเวอร์ส่วนกลางเครื่องเดียว เกี่ยวกับผู้เขียน บียอร์น โคลเบคเป็นผู้ร่วมก่อตั้งและซีอีโอของ Quobyte NFS ซึ่งประสบความสำเร็จในสมัยนั้น แต่ปัจจุบันไม่มีใครมีสติที่ถูกต้องจะใช้มันใช่ไหม ย้อนกลับไปตอนนั้น การเชื่อมต่อผ่านสายโทรศัพท์ไปยังโมเด็มวัดเป็นบิตต่อวินาที และ LAN อีเธอร์เน็ตภายในเครื่องมีความเร็วสูงสุดที่ 10 Mbps ทุกวันนี้ เรากำลังเผชิญกับข้อมูลที่เพิ่มขึ้นอย่างมาก เครือข่ายที่เร็วขึ้น และเซิร์ฟเวอร์ที่เพิ่มมากขึ้นกว่าในยุค 80 หรือแม้แต่ยุค 90 ด้วยการถือกำเนิดของสถาปัตยกรรมที่ปรับขนาดได้ในด้านไอที หรือการประมวลผลระดับคลังสินค้าตามที่ Google เรียก เราจึงได้เจอกับสภาพแวดล้อมที่ไม่เหมาะกับ NFSv4 ล่าสุดและยิ่งใหญ่ที่สุดด้วยซ้ำ ในความเป็นจริงมันกลายเป็นข้อเสียเปรียบ ปัญหาใหญ่ที่สุด: NFS ได้รับการออกแบบมาสำหรับเซิร์ฟเวอร์รวมศูนย์เพียงเซิร์ฟเวอร์เดียว ไม่ใช่การปรับขนาดแนวนอน NFSv4 ปัจจุบันและแม้กระทั่ง NFS แบบขนานยังคงใช้โมเดลแบบรวมศูนย์ NFS ไม่เพียงแต่ได้รับการออกแบบเพื่อให้ไคลเอนต์สามารถสื่อสารกับเซิร์ฟเวอร์เดียวได้ เครื่องเหล่านี้มีความจุเพียงไม่กี่ MB ขนาดไฟล์ค่อนข้างเล็ก และประสิทธิภาพค่อนข้างต่ำ CIO, CIO และนักวิทยาศาสตร์ข้อมูลทุกคนในโลกมีเป้าหมายสองประการ: หนึ่ง เพื่อตอบสนองความต้องการของผู้ใช้และแอปพลิเคชันในวงกว้าง และสองเพื่อมอบความปลอดภัยของข้อมูลที่เพียงพอเพื่อให้มั่นใจในความปลอดภัยและการปฏิบัติตามข้อกำหนด และความพร้อม ความสามารถในการปรับขนาดในแนวนอนต้องใช้การสื่อสารแบบตาข่ายเต็มรูปแบบ (n am) ระหว่างไคลเอนต์และเซิร์ฟเวอร์จัดเก็บข้อมูล มิฉะนั้น จะเกิดปัญหาคอขวดและคอขวดเพื่อลดประสิทธิภาพ โดยเฉพาะกับเวิร์กโหลดที่มีการอ่านหรือเขียนจำนวนมาก ซึ่งโดยพื้นฐานแล้วคือเวิร์กโหลดทั้งหมดในองค์กรสมัยใหม่ และนั่นคือข้อบกพร่องที่สำคัญในท้ายที่สุด: NFS เองก็เป็นจุดคอขวด โดยธรรมชาติแล้ว อุปกรณ์ NFS จะอยู่ในเส้นทางข้อมูลโดยตรง และไม่สามารถปรับขนาดประสิทธิภาพเพื่อตอบสนองความต้องการ I/O ที่เน้นการประมวลผลหรือคำขอหลายรายการพร้อมกันได้ เกตเวย์ใดๆ ก็เป็นคอขวดเช่นกัน และเกตเวย์ NFS ก็ไม่มีข้อยกเว้น สถาปัตยกรรมที่ใช้เกตเวย์ NFS มีข้อจำกัดในการปรับขนาดประสิทธิภาพที่รุนแรงเนื่องจากการเชื่อมโยงแคชระหว่างเกตเวย์ NFS เพื่อสร้างภาพลวงตาของเซิร์ฟเวอร์ NFS เดียว เนื่องจากนั่นคือทั้งหมดที่ NFS สามารถทำได้ และความสม่ำเสมอของแคชเป็นตัวช่วยที่มีราคาแพงในการรันโปรโตคอลที่ล้าสมัย แทนที่จะแก้ไขปัญหา: NFS โหลดบาลานซ์: ฉันใช้เครื่องหมายคำพูดเพราะโดยส่วนใหญ่แล้วเอาต์พุตอยู่ไกลจากความสมดุล โดยธรรมชาติแล้วมันต้องใช้สภาพแวดล้อมหรือระบบแบบกระจาย และเนื่องจาก NFS ไม่เคยได้รับการออกแบบมาสำหรับระบบแบบกระจาย การทำโหลดบาลานซ์จึงเป็นเรื่องที่น่าเบื่อและก่อกวน เขาแค่ไม่คิดแบบนั้น อ่า แต่นั่นคือสิ่งที่ NFS แบบขนานเข้ามามีบทบาท ผู้คนคิดว่ามันช่วยแก้ปัญหาเหล่านี้ได้ทั้งหมด น่าเสียดายที่ pNFS ยังคงใช้งานไม่ได้ และยังคงตรงกันข้ามกับการเพิ่ม มีเพียง I/O เท่านั้นที่กระจายไปยังเซิร์ฟเวอร์หลายเครื่อง ยังคงมีเซิร์ฟเวอร์รวมศูนย์เพียงเครื่องเดียวสำหรับข้อมูลเมตาและระนาบควบคุม ไม่น่าแปลกใจเลยที่การแพร่กระจายของข้อมูลองค์กรจะรวมถึงการแพร่กระจายของข้อมูลเมตาที่สอดคล้องกันด้วย ประสิทธิภาพและขนาดในการประมวลผลข้อมูลเมตามีความสำคัญอย่างยิ่งในแอปพลิเคชันข้อมูลขนาดใหญ่ เช่น AI/ML และการวิเคราะห์ น่าเสียดายที่ฉันพบเห็นครั้งแล้วครั้งเล่า pNFS แก้ปัญหาได้เพียงส่วนเล็กๆ เท่านั้น นั่นก็คือ การถ่ายโอนข้อมูล อาจเป็นรุ่นที่ทันสมัยที่สุด แต่ช้ากว่าตลาดถึง 15 ปี และทำให้ปัญหาที่แท้จริงหลายอย่างยังไม่ได้รับการแก้ไข NFS ยังล้มเหลวในระหว่างการเฟลโอเวอร์ ใครก็ตามที่ใช้ NFS จะทราบปัญหาของ "ตัวอธิบายไฟล์เก่า" เมื่อเกิดข้อผิดพลาด NFS โปรโตคอล แม้แต่ NFSv4 ก็ไม่รู้ว่าการเฟลโอเวอร์คืออะไร (อีกครั้ง มันไม่ได้ถูกสร้างขึ้นมาเพื่อคิดแบบนั้น) และอาศัยการเฟลโอเวอร์ IP ที่บอบบางซึ่งช้าแทน และก่อกวน เช่นเดียวกับคุณสมบัติที่สำคัญอื่นๆ ความทนทานต่อข้อผิดพลาดจะต้องได้รับการออกแบบให้เป็นโปรโตคอลตั้งแต่ต้น แต่ NFS ได้เพิ่มการเฟลโอเวอร์ที่น่าอึดอัดใจในภายหลัง เช่น อาคารที่ออกแบบไม่ดีและรอการพังทลาย สิ่งนี้นำฉันไปสู่วัตถุประสงค์ประการที่สองของไอทีขององค์กรนั่นคือความปลอดภัยของข้อมูลคำศัพท์ทั่วไปสำหรับความสมบูรณ์ของข้อมูลการกำกับดูแลการปฏิบัติตามการป้องกันการควบคุมการเข้าถึงและอื่น ๆ ความปลอดภัยของข้อมูลถือเป็นข้อกังวลหลัก ไม่ว่าจะเพื่อป้องกันการละเมิดข้อมูลหรือควบคุมอุตสาหกรรม เมื่อเร็วๆ นี้ การละเมิดข้อมูลส่งผลให้บริษัทต้องเสียค่าปรับจำนวนมากซึ่งอยู่ภายใต้ GDPR ของสหภาพยุโรป บริษัทที่ประมวลผลข้อมูลที่สามารถระบุตัวบุคคลหรือข้อมูลด้านสุขภาพจะต้องใช้การปกป้องข้อมูลชั้นนำของอุตสาหกรรมผ่านการเข้ารหัส ขอย้ำอีกครั้งว่า NFS มีความรับผิดชอบ เนื่องจากทั้ง pNFS และ NFSv4 ไม่มีการเข้ารหัสจากต้นทางถึงปลายทางที่เพียงพอ และมีกลไกการรักษาความปลอดภัยอื่นๆ น้อยกว่ามาก เช่น ใบรับรอง TLS และ X.509 ซึ่งทั้งหมดนี้พร้อมใช้งานในเทคโนโลยีปัจจุบัน ระบบจัดเก็บข้อมูลที่ออกแบบมาเพื่อความสามารถในการปรับขนาดและความปลอดภัย รวมถึงระบบไฟล์ศูนย์ข้อมูลของ Quobyte จากการเปรียบเทียบ NFS แสดงถึงความเสี่ยงทางธุรกิจที่ร้ายแรงและการปฏิบัติตามกฎระเบียบ pNFS และ NFSv4 ยังขาดการตรวจสอบตั้งแต่ต้นทางถึงปลายทางเพื่อระบุความเสียหายของข้อมูล นี่ยังส่วนหนึ่งเป็นผลจากขนาดที่เพิ่มขึ้นของการดำเนินการด้านข้อมูลในปัจจุบัน เมื่อเทียบกับตอนที่พัฒนา NFS ในช่วงทศวรรษ 1980 ความสมบูรณ์ของข้อมูลโดยใช้เช็คซัมไม่ใช่ปัญหา เนื่องจากข้อมูลที่ถ่ายโอนผ่านแพ็กเก็ต IP มีขนาดเล็กและเช็คซัม TCP ก็เพียงพอแล้ว แต่การตรวจสอบ TCP ในปัจจุบันต่ำเกินไป โดยเฉพาะในระดับที่สูงกว่า 64k ต่อแพ็กเก็ต ปัจจุบัน บริษัทคาดว่าจะมีกิกะไบต์ต่อวินาที หลายทศวรรษต่อมา NFS ยังคงไม่ได้จัดการกับความสมบูรณ์ของข้อมูลอย่างเพียงพอ คุณอาจประเมินต่ำไปว่าคุณได้รับข้อมูลที่เสียหายจากที่จัดเก็บข้อมูล NFS ของคุณบ่อยเพียงใด และการติดตามปัญหานั้นทำได้ยากและใช้เวลานาน ไม่ว่าจะเป็นข้อกำหนดด้านประสิทธิภาพสูง ปริมาณงานแบบสุ่มหรือแบบผสมทั่วไป หรือการรักษาความปลอดภัยและการเข้าถึงข้อมูล ไม่มีที่ไหนในองค์กรยุคใหม่ที่จะเก่งกว่า NFS