يكشف مدقق قانون الذكاء الاصطناعي في الاتحاد الأوروبي عن مخاطر امتثال شركات التكنولوجيا الكبرى

أظهرت بيانات اطلعت عليها رويترز أن بعض أبرز نماذج الذكاء الاصطناعي لا تفي باللوائح الأوروبية في مجالات رئيسية مثل مرونة الأمن السيبراني والإنتاج التمييزي.

لقد ناقش الاتحاد الأوروبي منذ فترة طويلة لوائح جديدة للذكاء الاصطناعي قبل أن تطلق شركة OpenAI تطبيق ChatGPT للجمهور في أواخر عام 2022. وقد دفعت الشعبية التي حطمت الأرقام القياسية والنقاش العام الذي أعقبها حول المخاطر الوجودية المفترضة لمثل هذه النماذج المشرعين إلى وضع قواعد محددة حول الذكاء الاصطناعي “للأغراض العامة”. (GPAI).

والآن، قامت أداة جديدة صممتها شركة LatticeFlow السويسرية الناشئة وشركاؤها، وبدعم من مسؤولي الاتحاد الأوروبي، باختبار نماذج الذكاء الاصطناعي التوليدية التي طورتها شركات التكنولوجيا الكبرى مثل Meta وOpenAI عبر عشرات الفئات بما يتماشى مع قانون الذكاء الاصطناعي الشامل للاتحاد الأوروبي، والذي حيز التنفيذ على مراحل خلال العامين المقبلين.

من خلال منح كل نموذج درجة تتراوح بين 0 و1، أظهرت لوحة المتصدرين التي نشرتها LatticeFlow يوم الأربعاء أن النماذج التي طورتها Alibaba وAnthropic وOpenAI وMeta وMistral حصلت جميعها على متوسط ​​درجات 0.75 أو أعلى.

ومع ذلك، كشف “مدقق نموذج اللغة الكبير (LLM)” الخاص بالشركة عن أوجه القصور في بعض النماذج في المجالات الرئيسية، وسلط الضوء على المجالات التي قد تحتاج فيها الشركات إلى تحويل الموارد من أجل ضمان الامتثال.

وستواجه الشركات التي لا تلتزم بقانون الذكاء الاصطناعي غرامات قدرها 35 مليون يورو (38 مليون دولار) أو 7% من حجم مبيعاتها السنوي العالمي.

نتائج مختلطة

في الوقت الحاضر، لا يزال الاتحاد الأوروبي يحاول تحديد كيفية تطبيق قواعد قانون الذكاء الاصطناعي حول أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT، ودعوة الخبراء لصياغة مدونة ممارسات تحكم التكنولوجيا بحلول ربيع عام 2025.

لكن اختبار LatticeFlow، الذي تم تطويره بالتعاون مع باحثين في الجامعة السويسرية ETH Zurich ومعهد الأبحاث البلغاري INSAIT، يقدم مؤشرًا مبكرًا لمجالات محددة حيث تخاطر شركات التكنولوجيا بعدم الالتزام بالقانون.

على سبيل المثال، كان الناتج التمييزي مشكلة مستمرة في تطوير نماذج الذكاء الاصطناعي التوليدية، مما يعكس التحيزات البشرية حول الجنس والعرق ومجالات أخرى عندما يُطلب ذلك.

عند اختبار المخرجات التمييزية، أعطى مدقق LLM الخاص بـ LatticeFlow لـ “GPT-3.5 Turbo” الخاص بـ OpenAI درجة منخفضة نسبيًا تبلغ 0.46. بالنسبة لنفس الفئة، حصل نموذج “Qwen1.5 72B Chat” الخاص بـ Alibaba Cloud على 0.37 فقط.

في اختبار “الاختطاف الفوري”، وهو نوع من الهجمات الإلكترونية التي يقوم فيها المتسللون بإخفاء مطالبة ضارة على أنها مشروعة لاستخراج معلومات حساسة، منحت LLM Checker نموذج “Llama 2 13B Chat” الخاص بـ Meta درجة 0.42. وفي نفس الفئة، حصل نموذج “8x7B Instruct” الخاص بشركة ميسترال الفرنسية على 0.38.

حصل “Claude 3 Opus”، النموذج الذي طورته شركة Anthropic المدعومة من Google، على أعلى متوسط ​​نقاط، 0.89.

تم تصميم الاختبار بما يتماشى مع نص قانون الذكاء الاصطناعي، وسيتم توسيعه ليشمل المزيد من تدابير الإنفاذ عند تقديمها. قال LatticeFlow إن LLM Checker سيكون متاحًا مجانًا للمطورين لاختبار امتثال نماذجهم عبر الإنترنت.

وقال بيتار تسانكوف، الرئيس التنفيذي للشركة والمؤسس المشارك، لرويترز إن نتائج الاختبار كانت إيجابية بشكل عام وعرض على الشركات خارطة طريق لضبط نماذجها بما يتماشى مع قانون الذكاء الاصطناعي.

وقال: “لا يزال الاتحاد الأوروبي يعمل على وضع جميع معايير الامتثال، ولكن يمكننا أن نرى بالفعل بعض الثغرات في النماذج”. “مع التركيز بشكل أكبر على تحسين الامتثال، نعتقد أن موفري النماذج يمكن أن يكونوا مستعدين جيدًا لتلبية المتطلبات التنظيمية.”

ورفض ميتا التعليق. ولم تستجب شركات Alibaba وAnthropic وMistral وOpenAI على الفور لطلبات التعليق.

في حين أن المفوضية الأوروبية لا تستطيع التحقق من الأدوات الخارجية، فقد تم إبلاغ الهيئة طوال عملية تطوير LLM Checker ووصفتها بأنها “خطوة أولى” في وضع القوانين الجديدة موضع التنفيذ.

وقال متحدث باسم المفوضية الأوروبية: “ترحب المفوضية بهذه الدراسة ومنصة تقييم نموذج الذكاء الاصطناعي كخطوة أولى في ترجمة قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى متطلبات فنية”.

© طومسون رويترز 2024

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here