تقول شركة Meta إن نماذج Llama AI الخاصة بها تُستخدم من قبل البنوك وشركات التكنولوجيا

وقالت شركة التواصل الاجتماعي العملاقة في بيان يوم الخميس إن نماذج الذكاء الاصطناعي “لاما” من ميتا تُستخدم من قبل شركات بما في ذلك جولدمان ساكس وأيه تي آند تي لوظائف الأعمال مثل خدمة العملاء ومراجعة المستندات وتوليد التعليمات البرمجية للكمبيوتر.

تم تنزيل نماذج Llama المجانية في الغالب ما يقرب من 350 مليون مرة منذ أن بدأت Meta في إصدارها علنًا في العام الماضي، وهي زيادة عن 300 مليون عملية تنزيل أعلنت عنها الشركة عندما أصدرت أكبر نسخة من أحدث طراز Llama 3 في أواخر يوليو.

وقالت شركة ميتا إن الاستخدام عبر موفري الخدمات السحابية مثل Amazon Web Services وMicrosoft Azure زاد أيضًا، حيث تضاعف أكثر من الضعف بين مايو ويوليو من هذا العام.

ويأتي هذا الإعلان في الوقت الذي واجهت فيه شركة Meta وشركات التكنولوجيا الأخرى التي تستثمر مليارات الدولارات في الذكاء الاصطناعي أسئلة من المستثمرين حول مدى انتشار اعتماد التكنولوجيا وما هو نوع العائد الذي يمكن أن يتوقعوه مقابل إنفاقهم.

قال الرئيس التنفيذي لشركة ميتا مارك زوكربيرج إن بناء نماذج الذكاء الاصطناعي المتطورة وتقديمها مجانًا يضع الشركة في أفضل وضع لتجنب الوقوع في موقف حيث تكون مقيدة بتكنولوجيا مغلقة من قبل منافس.

وكتب زوكربيرج الشهر الماضي: “إن الطريق إلى أن تصبح اللاما معيارًا للصناعة هو أن تكون قادرة على المنافسة بشكل مستمر، وفعالة، ومنفتحة جيلًا بعد جيل”.

على الرغم من أن نماذج اللغة الكبيرة مثل Llama قد أبهرت المستخدمين بقدرتها على إنشاء نثر يشبه الإنسان عند الطلب، إلا أنها لا تزال تواجه صعوبات في بعض المهام المنطقية وتكون عرضة لارتكاب أخطاء واقعية، مما يحد من تبنيها في سياقات الأعمال.

ومع ذلك، أشار ميتا إلى عدد قليل من الشركات الكبيرة التي تتعامل مع نماذج Llama كدليل على فائدتها وكتأكيد على قدرتها التنافسية مع البدائل المدفوعة، مثل النماذج من شركة OpenAI الرائدة في الصناعة.

وتشمل الشركات الأخرى التي قالت إنها تستخدم اللاما البنك الياباني نومورا هولدينجز وخدمة توصيل الطعام دور داش ومزود الخدمات المهنية أكسنتشر.

© تومسون رويترز 2024

(لم يتم تحرير هذه القصة بواسطة طاقم عمل NDTV وتم إنشاؤها تلقائيًا من موجز مشترك.)

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here