การปฏิวัติวงการปัญญาประดิษฐ์ AI กำลังเผชิญอุปสรรค! บริษัทชั้นนำอย่าง Blackstone และ OpenAI ต่างกำลังเผชิญปัญหาแคลนการ์ดจอประมวลผล (GPU) เช่น FPGAs, AMD G
ในเดือนมกราคม 2024 บริษัท Blackstone ซึ่งเป็นบริษัทด้านการลงทุนเอกชนชั้นนำ ได้ประกาศแผนการที่จะสร้างอาณาจักรข้อมูล AI มูลค่า 25 พันล้านดอลลาร์ หลังจากนั้นไม่นาน OpenAI และ Microsoft ได้เสนอ Stargate ซึ่งเป็นซุปเปอร์คอมพิวเตอร์ AI มูลค่า 100 พันล้านดอลลาร์ เพื่อครองความเป็นผู้นำในการปฏิวัติด้านปัญญาประดิษฐ์
การพัฒนาอย่างรวดเร็วของภาคส่วน AI ทำให้บริษัทยักษ์ใหญ่ในอุตสาหกรรมต่างมุ่งแย่งชิงตำแหน่งสำคัญ ผู้เชี่ยวชาญคาดการณ์ว่าตลาด AI ทั่วโลกจะมีมูลค่าสูงถึง 826.70 พันล้านดอลลาร์ภายในปี 2030 ด้วยอัตราการเติบโตต่อปีที่ 28.46%
ปัญหาหลักอยู่ที่ GPU สถาปัตยกรรม Von Neumann ที่ใช้ในคอมพิวเตอร์ทั่วไปมีข้อจำกัดโดยธรรมชาติ เนื่องจากบัสระบบเดียวจำกัดความเร็วในการถ่ายโอนข้อมูลระหว่างหน่วยความจำและ CPU ทำให้ CPU มีประสิทธิภาพน้อยลงสำหรับ AI และการเรียนรู้ของเครื่อง
อย่างไรก็ตาม GPU ได้นำวิธีการประมวลผลแบบขนานมาใช้ ทำให้มีประสิทธิภาพที่ดีขึ้นผ่านความสามารถในการประมวลผลแบบหลายคอร์ อย่างไรก็ตาม ความต้องการ GPU ได้เพิ่มสูงขึ้นมาก ส่งผลให้ห่วงโซ่อุปทานตึงตัวและเป็นอุปสรรคต่อนักวิจัยและสตาร์ทอัพ โดย Nvidia ซึ่งเป็นผู้จัดจำหน่ายหลักทำให้ปัญหานี้รุนแรงขึ้น
ผู้ให้บริการคลาวด์ขนาดใหญ่ เช่น AWS และ Google Cloud Platform สามารถเข้าถึง Nvidia’s A100s และ H100s ได้ แต่ทางเลือกอื่นสำหรับบริษัทอื่น ๆ นักวิจัย และสตาร์ทอัพรายอื่นๆ มีอะไรบ้าง?
Field Programmable Gate Arrays (FPGAs) เป็นวงจรรวมที่สามารถโปรแกรมใหม่ได้ตามงานเฉพาะ มีความยืดหยุ่น ราคาประหยัด และมีประสิทธิภาพในการประมวลผลแบบขนาน เหมาะสำหรับ AI และการเรียนรู้ของเครื่อง ชิป D1 Dojo ของ Tesla ที่ใช้ฝึกโมเดลวิทัศน์คอมพิวเตอร์สำหรับรถยนต์ไร้คนขับเป็นตัวอย่างหนึ่งของการใช้ FPGA อย่างไรก็ตาม ความเชี่ยวชาญด้านวิศวกรรมที่สูงในการออกแบบ FPGA อาจทำให้ต้นทุนเบื้องต้นแพง
GPU ของ AMD เป็นอีกทางเลือกหนึ่ง ในปี 2023 บริษัทใหญ่อย่าง Meta, Oracle และ Microsoft แสดงความสนใจใน GPU ของ AMD ในฐานะทางเลือกที่คุ้มค่าเพื่อหลีกเลี่ยงการผูกขาดตลาดของ Nvidia ซีรีส์ Instinct MI300 ของ AMD พร้อมด้วยสถาปัตยกรรม Graphics Core Next (GCN) ซึ่งเน้นความเป็นโมดูลและรองรับมาตรฐานเปิด มีศักยภาพที่จะเป็นทางเลือกสำหรับการคำนวณทางวิทยาศาสตร์และ AI
Tensor Processing Units (TPUs) เป็นวงจรรวมเฉพาะงาน (ASICs) ที่ออกแบบมาสำหรับงานด้านการเรียนรู้ของเครื่อง ซึ่งพัฒนาโดย Google TPUs สามารถประมวลผลเครือข่ายประสาทเทียมได้อย่างมีประสิทธิภาพ ประหยัดพลังงาน และเพิ่มประสิทธิภาพการทำงาน แม้จะมีข้อได้เปรียบมากมาย แต่ระบบนิเวศของ TPU ยังอยู่ในช่วงเริ่มต้นและในปัจจุบันจำกัดอยู่ใน Google Cloud Platform เท่านั้น
ตลาดกระจายศูนย์ช่วยแก้ปัญหาการขาดแคลน GPU ด้วยการใช้ทรัพยากร GPU ที่ไม่ได้ใช้จากศูนย์ข้อมูล สถาบันการศึกษา และบุคคลทั่วไป ตลาดเหล่านี้มีทรัพยากรเพียงพอสำหรับนักวิจัยและสตาร์ทอัพ ตัวอย่างเช่น Render Network, FluxEdge และ Bittensor ตลาดเหล่านี้มีตัวเลือก GPU ระดับผู้บริโภคสำหรับบริษัท AI/ML ขนาดเล็กถึงกลาง และตัวเลือกระดับอุตสาหกรรมสำหรับความต้องการขนาดใหญ่
CPU ที่มักถูกมองว่าเป็นรองสำหรับงาน AI กำลังได้รับการประเมินใหม่ ความพยายามที่จะรันอัลกอริทึมที่ประหยัดพลังงานสำหรับ AI บน CPU โดยมุ่งเน้นที่การจัดสรรภาระงานเฉพาะ ตัวอย่างเช่น โมเดล NLP พื้นฐานและการคำนวณทางสถิติที่ซับซ้อน แม้ว่า CPU จะไม่ใช่ทางออกที่ใช้ได้ทั่วไป แต่ก็สามารถจัดการกับอัลกอริทึมที่ยากต่อการประมวลผลแบบขนาน เช่น เครือข่ายประสาทแบบวนซ้ำ (RNN) หรือระบบแนะนำ (recommender systems)
ภาวะขาดแคลน GPU สำหรับ AI อาจยังคงอยู่ต่อไป แต่นวัตกรรมด้านเทคโนโลยีชิป AI จะช่วยให้ปัญหานี้หายไปในอนาคต ภาคส่วน AI มีศักยภาพอันยิ่งใหญ่ และได้ส่งสัญญาณถึงการปฏิวัติทางเทคโนโลยีที่มีความเป็นไปได้ที่ไม่เคยมีมาก่อน