أحد مؤسسي OpenAI يجمع مليار دولار أمريكي لشركة SSI الناشئة المتخصصة في الذكاء الاصطناعي والمتخصصة في السلامة

جمعت شركة Safe Superintelligence (SSI)، التي شارك في تأسيسها مؤخراً كبير العلماء السابقين في OpenAI، إيليا سوتسكيفر، مليار دولار نقداً للمساعدة في تطوير أنظمة الذكاء الاصطناعي الآمنة التي تتجاوز القدرات البشرية بكثير، حسبما قال مسؤولون تنفيذيون في الشركة لرويترز.

وتخطط شركة SSI، التي تضم حاليًا 10 موظفين، لاستخدام الأموال في الحصول على قوة الحوسبة وتوظيف أفضل المواهب. وستركز على بناء فريق صغير من الباحثين والمهندسين يتمتع بثقة عالية وينقسم بين بالو ألتو في كاليفورنيا وتل أبيب في إسرائيل.

ورفضت الشركة الكشف عن قيمتها السوقية، لكن مصادر قريبة من الأمر قالت إنها تقدر بنحو 5 مليارات دولار (حوالي 41993 كرور روبية). ويؤكد التمويل على أن بعض المستثمرين ما زالوا على استعداد للمراهنة على مواهب استثنائية تركز على أبحاث الذكاء الاصطناعي الأساسية. وذلك على الرغم من التراجع العام في الاهتمام بتمويل مثل هذه الشركات التي قد تكون غير مربحة لبعض الوقت، وهو ما دفع العديد من مؤسسي الشركات الناشئة إلى ترك مناصبهم لصالح شركات التكنولوجيا العملاقة.

وشمل المستثمرون شركات رأس المال الاستثماري الكبرى مثل أندريسن هورويتز، وسيكويا كابيتال، ودي إس تي جلوبال، وإس في أنجل. كما شاركت في المؤتمر شركة إن إف دي جي، وهي شراكة استثمارية يديرها نات فريدمان والرئيس التنفيذي لشركة إس إس آي دانييل جروس.

وقال جروس في مقابلة: “من المهم بالنسبة لنا أن نكون محاطين بالمستثمرين الذين يفهمون ويحترمون ويدعمون مهمتنا، والتي تتمثل في تحقيق هدف مباشر نحو الذكاء الفائق الآمن وخاصة قضاء عامين في البحث والتطوير على منتجنا قبل طرحه في السوق”.

تعتبر سلامة الذكاء الاصطناعي، والتي تشير إلى منع الذكاء الاصطناعي من التسبب في الضرر، موضوعًا ساخنًا وسط مخاوف من أن الذكاء الاصطناعي المارق قد يتصرف ضد مصالح البشرية أو حتى يتسبب في انقراض البشر.

أدى مشروع قانون في ولاية كاليفورنيا يسعى إلى فرض قواعد السلامة على الشركات إلى انقسام الصناعة. ويعارضه شركات مثل OpenAI وGoogle، ويدعمه Anthropic وxAI التابعة لإيلون ماسك.

سوتسكيفر، 37 عامًا، هو أحد أكثر خبراء التكنولوجيا تأثيرًا في مجال الذكاء الاصطناعي. شارك في تأسيس SSI في يونيو مع جروس، الذي قاد سابقًا مبادرات الذكاء الاصطناعي في Apple، ودانييل ليفي، الباحث السابق في OpenAI. سوتسكيفر هو كبير العلماء وليفي هو العالم الرئيسي، بينما جروس مسؤول عن قوة الحوسبة وجمع التبرعات.

الجبل الجديد

وقال سوتسكيفر إن مشروعه الجديد كان منطقيًا لأنه “حدد جبلًا مختلفًا بعض الشيء عما كنت أعمل عليه”.

في العام الماضي، كان جزءًا من مجلس إدارة الشركة الأم غير الربحية OpenAI والتي صوتت على إقالة الرئيس التنفيذي لشركة OpenAI سام ألتمان بسبب “انهيار الاتصالات”.

وفي غضون أيام، تراجع عن قراره وانضم إلى جميع موظفي OpenAI تقريبًا في التوقيع على خطاب يطالب بعودة ألتمان واستقالة مجلس الإدارة. لكن تحول الأحداث قلل من دوره في OpenAI. فقد تم إبعاده من مجلس الإدارة وترك الشركة في مايو.

بعد رحيل سوتسكيفر، قامت الشركة بتفكيك فريق “Superalignment” الخاص به، والذي كان يعمل على ضمان بقاء الذكاء الاصطناعي متوافقاً مع القيم الإنسانية استعداداً لليوم الذي يتجاوز فيه الذكاء الاصطناعي الذكاء البشري.

على عكس الهيكل المؤسسي غير التقليدي لشركة OpenAI، والذي تم تنفيذه لأسباب تتعلق بسلامة الذكاء الاصطناعي ولكنه جعل إقالة ألتمان ممكنة، فإن شركة SSI لديها هيكل ربحي منتظم.

تركز شركة SSI حاليًا بشكل كبير على توظيف الأشخاص الذين يتناسبون مع ثقافتها.

وقال جروس إنهم يقضون ساعات في التحقق من أن المرشحين يتمتعون “بشخصية جيدة”، ويبحثون عن أشخاص يتمتعون بقدرات غير عادية بدلاً من المبالغة في التأكيد على المؤهلات والخبرة في هذا المجال.

وأضاف “أحد الأشياء التي تثير حماسنا هو عندما تجد أشخاصًا مهتمين بالعمل، وغير مهتمين بالمشهد أو بالضجيج”.

وتقول شركة SSI إنها تخطط للشراكة مع مزودي الخدمات السحابية وشركات الرقائق لتمويل احتياجاتها من الطاقة الحاسوبية، لكنها لم تقرر بعد الشركات التي ستعمل معها. وغالبًا ما تعمل شركات الذكاء الاصطناعي الناشئة مع شركات مثل Microsoft وNvidia لتلبية احتياجاتها من البنية الأساسية.

كان سوتسكيفر من أوائل المؤيدين للتوسع، وهي فرضية مفادها أن نماذج الذكاء الاصطناعي ستتحسن في الأداء إذا ما توفرت لها كميات هائلة من قوة الحوسبة. وقد أدت الفكرة وتنفيذها إلى موجة من الاستثمار في الذكاء الاصطناعي في الرقائق ومراكز البيانات والطاقة، الأمر الذي مهد الطريق لتطورات الذكاء الاصطناعي التوليدي مثل ChatGPT.

وقال سوتسكيفر إنه سيتعامل مع التوسع بطريقة مختلفة عن صاحب عمله السابق، دون مشاركة التفاصيل.

“يقول الجميع فقط فرضية التوسع. ويتجاهل الجميع السؤال: ما الذي نعمل على توسيعه؟” كما قال.

“يمكن لبعض الأشخاص العمل لساعات طويلة جدًا ثم يسلكون نفس المسار بشكل أسرع. هذا ليس أسلوبنا تمامًا. ولكن إذا فعلت شيئًا مختلفًا، فسيصبح من الممكن أن تفعل شيئًا مميزًا.”

© تومسون رويترز 2024

(لم يتم تحرير هذه القصة بواسطة طاقم عمل NDTV وتم إنشاؤها تلقائيًا من موجز مشترك.)

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here