- يضيف Openai Google TPUs لتقليل الاعتماد على NVIDIA GPUS
- يسلط اعتماد TPU الضوء على دفع Openai لتنويع خيارات الحساب
- تفوز Google Cloud Openai كعميل على الرغم من الديناميات التنافسية
وبحسب ما ورد بدأ Openai في استخدام وحدات معالجة الموتر من Google (TPUS) إلى Power ChatGPT وغيرها من المنتجات.
تقرير من رويترز، الذي يستشهد بمصدر مطلع على هذه الخطوة ، يلاحظ أن هذا هو أول تحول رئيسي في Openai بعيدًا عن Nvidia Hardware ، والذي شكل حتى الآن العمود الفقري لمكدس حساب Openai.
تقوم Google بتأجير TPUs من خلال منصة السحابة الخاصة بها ، مما يضيف Openai إلى قائمة متزايدة من العملاء الخارجيين والتي تشمل التفاح والأنثروبور والخبراء الآمن.
عدم التخلي عن نفيديا
على الرغم من أن الرقائق التي يتم استئجارها ليست نماذج TPU الأكثر تقدماً في Google ، فإن الاتفاقية تعكس جهود Openai لخفض تكاليف الاستدلال وتنويعها إلى ما وراء كل من Nvidia و Microsoft Azure.
يأتي القرار مع نمو أعباء عمل الاستدلال إلى جانب استخدام ChatGPT ، حيث يخدم الآن أكثر من 100 مليون مستخدم نشط يوميًا.
يمثل هذا الطلب حصة كبيرة من ميزانية الحساب السنوية التي تبلغ قيمتها 40 مليار دولار.
تم تصميم TPUs V6E من Google من Google لاستدلال الحالة المستقرة وتقديم إنتاجية عالية مع تكاليف تشغيلية أقل مقارنة بوحدة المعالجة المركزية ذات النهاية العليا.
على الرغم من أن Google رفضت التعليق ولم يرد Openai على الفور على رويترز، يشير الترتيب إلى تعميق خيارات البنية التحتية.
تواصل Openai الاعتماد على Azure المدعوم من Microsoft لمعظم نشرها (Microsoft هي أكبر مستثمر للشركة بطريقة ما) ، لكن مشكلات العرض وضغوط التسعير حول وحدات معالجة الرسومات قد كشفت عن مخاطر البائع المفرد.
إن جلب Google إلى هذا المزيج لا يحسن من قدرة Openai على توسيع نطاق الحساب فحسب ، بل يتوافق أيضًا مع اتجاه صناعة أوسع نحو خلط مصادر الأجهزة للمرونة والرافعة المالية للتسعير.
لا يوجد أي اقتراح بأن Openai يفكر في التخلي عن Nvidia تمامًا ، ولكن دمج TPUs من Google يضيف المزيد من التحكم في التكلفة والتوافر.
لا يزال يتعين رؤيته إلى المدى الذي يمكن أن يدمج فيه Openai دمج هذا الجهاز في مكدس ، خاصة بالنظر إلى الاعتماد على النظام الإيكولوجي للبرنامج الطويل على أدوات Cuda و Nvidia.