Google Cloud ต้องการทำให้การเรียกใช้ปริมาณงาน ML จำนวนมากง่ายขึ้น

Google Cloud ต้องการทำให้การเรียกใช้ปริมาณงาน ML จำนวนมากง่ายขึ้น

Google Cloud ได้ประกาศความพร้อมใช้งานทั่วไปของเครื่องเสมือน TPU

หน่วยประมวลผลเทนเซอร์ (TPU) คือวงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่พัฒนาโดย Google ซึ่งใช้เพื่อเร่งปริมาณงานของแมชชีนเลิร์นนิง

Cloud TPU ช่วยให้คุณเรียกใช้ปริมาณงานแมชชีนเลิร์นนิงบนฮาร์ดแวร์เร่งความเร็ว TPU ของยักษ์ที่โฮสต์บนคลาวด์โดยใช้แพลตฟอร์มการเรียนรู้ของเครื่อง TensorFlow แบบโอเพนซอร์ส

เครื่องเสมือน TPU สามารถทำอะไรให้ผู้ใช้ได้บ้าง

Google กล่าวว่าชุมชนผู้ใช้ของตนได้นำ TPU เสมือนมาใช้ เนื่องจากให้ประสบการณ์การดีบักที่ดีขึ้นและยังอนุญาตการกำหนดค่าการฝึกอบรมบางอย่าง รวมถึงการเรียนรู้การเสริมแรงแบบกระจาย ซึ่งบอกว่าไม่สามารถทำได้ด้วยสถาปัตยกรรมโหนด UPT เครือข่าย) ที่มีอยู่จาก Google

Cloud TPU ได้รับการปรับให้เหมาะสมสำหรับการจัดหมวดหมู่ขนาดใหญ่และปริมาณงานการแนะนำตาม Google โดยอ้างว่า Snap เป็นผู้ปรับใช้ความสามารถในช่วงแรกๆ

นอกจากนี้ ด้วยการเปิดตัวเครื่องเสมือน TPU ของ GA Google กำลังเปิดตัว API การผสานรวม TPU ใหม่ ซึ่งอ้างว่าสามารถเร่งความเร็วการจำแนกประเภทตาม ML และปริมาณงานคำแนะนำ

Google เน้นย้ำว่าธุรกิจสมัยใหม่จำนวนมากใช้กรณีการใช้งานการจัดอันดับและการแนะนำ เช่น คำแนะนำเสียงและวิดีโอ คำแนะนำผลิตภัณฑ์ และการจัดอันดับโฆษณา

ยักษ์ใหญ่ด้านเทคโนโลยีกล่าวว่า TPU สามารถช่วยให้บริษัทต่างๆ ใช้แนวทางเครือข่ายประสาทเทียมเชิงลึกเพื่อจัดการกับกรณีการใช้งานข้างต้น ซึ่งอาจมีค่าใช้จ่ายสูงและต้องใช้ทรัพยากรมาก

Google ยังอ้างว่าเครื่องเสมือน TPU มีคุณสมบัติเพิ่มเติมหลายอย่างบนสถาปัตยกรรมโหนด TPU ที่มีอยู่เนื่องจากการกำหนดค่ารันไทม์ในเครื่อง เนื่องจากไปป์ไลน์ข้อมูลอินพุตสามารถทำงานโดยตรงบนโฮสต์ TPU ซึ่งช่วยให้องค์กรสามารถประหยัดทรัพยากรไอทีได้

TPU VM GA Release ยังรองรับเฟรมเวิร์ก ML หลักอื่นๆ เช่น PyTorch และ JAX

สนใจใช้งาน TPU เสมือนหรือไม่ คุณสามารถทำตามคำแนะนำหรือบทแนะนำการเริ่มต้นใช้งานฉบับย่อของ Google