تعلن AWS عن مثيل EC2 بناءً على شريحة Inferentia مخصصة

القائمة الرئيسية

الصفحات

تعلن AWS عن مثيل EC2 بناءً على شريحة Inferentia مخصصة

AWS announces an EC2 instance based on a custom Inferentia chip

أعلنت Amazon Web Services 

يوم الثلاثاء عن نسخة جديدة من EC2 تعمل بواسطة شريحة Inferentia المخصصة لها. إن Inferentia ، التي تم الإعلان عنها لأول مرة في مؤتمر re: Invent Conference العام الماضي ، عبارة عن شريحة عالية الأداء لاستدلال تعلم الآلة. إنه يوفر أداءً عاليًا للغاية ، زمن وصول منخفض وأداءًا مستدامًا ، بسعر فعال من حيث التكلفة ، حسب قول AWS.


وقال آندي جاسي 


 الرئيس التنفيذي لـ AWS في مؤتمر AWS re: Invent في لاس فيجاس: "إذا كنت تعلم الكثير من الآلات على نطاق واسع وفي الإنتاج ... فأنت تعلم أن معظم التكاليف الخاصة بك هي في توقعات".


وقال إن مثيلات Inf1


 سيكون لها زمن انتقال منخفض ، وإنتاجية أعلى بثلاثة أضعاف وتكلفة استدلال أقل بنسبة تصل إلى 40 في المائة مقارنة بشرائح Nvidia G4.

التعلم الآلي ، الذي يتضمن خوارزميات التدريب والاستدلال ، سرعان ما أصبح جزءًا لا يتجزأ من كل تطبيق ، لكن له بعض المتطلبات الفريدة. يمكن أن يكون الاستدلال مكلفًا ويتطلب زمنًا منخفضًا وأداءً عاليًا.

يمكن أن يمثل الاستدلال ، الذي يتم خلاله تطبيق نموذج التعلم الآلي المدرّب ، الممارسة بسهولة الغالبية العظمى من التكلفة المرتبطة بنظام التعلم الآلي. على سبيل المثال ، في كل مرة يفسر فيها Alexa أمر المستخدم ، فإنه يجعل الاستدلال. في كل مرة يكتشف فيها نموذج تعلُّم آلي يتم تدريبه على التعرف على الأشياء لسيارة مستقلة جسمًا ما على الطريق ، فإنه يستنتج.

في هذه السيناريوهات ، يكون الكمون ذا أهمية واضحة وبدرجات متفاوتة. كلما كانت Alexa تفسر أمرها بشكل أسرع ، زادت سرعة الاستجابة لها. وكلما أسرع جسم مستقل في التعرف على سيارة على الطريق ، كلما كان أسرع في تجنب الاصطدام.

تضع الشريحة المخصصة ضغطًا تنافسيًا جديدًا على موردي Amazon ، وهم Intel و Nvidia. ترسل استثمارات AWS في الرقائق المخصصة رسالة واضحة مفادها أن AWS لن تسمح لسلسلة التوريد التكنولوجية الخاصة بها بالحد من وتيرة الابتكار.
هل اعجبك الموضوع :

تعليقات