تقدم Google إطار عمل آمن للذكاء الاصطناعي، وتشارك أفضل الممارسات لنشر نماذج الذكاء الاصطناعي بأمان

قدمت جوجل أداة جديدة لمشاركة أفضل ممارساتها لنشر نماذج الذكاء الاصطناعي (AI) يوم الخميس. في العام الماضي، أعلنت شركة التكنولوجيا العملاقة ومقرها ماونتن فيو عن Secure AI Framework (SAIF)، وهو دليل إرشادي ليس فقط للشركة ولكن أيضًا للمؤسسات الأخرى التي تقوم ببناء نماذج لغوية كبيرة (LLMs). الآن، قدمت شركة التكنولوجيا العملاقة أداة SAIF التي يمكنها إنشاء قائمة مرجعية ذات رؤية قابلة للتنفيذ لتحسين سلامة نموذج الذكاء الاصطناعي. والجدير بالذكر أن الأداة عبارة عن أداة تعتمد على الاستبيان، حيث سيتعين على المطورين والشركات الإجابة على سلسلة من الأسئلة قبل تلقي القائمة المرجعية.

في أ مشاركة مدونة، أبرزت شركة التكنولوجيا العملاقة ومقرها ماونتن فيو أنها طرحت أداة جديدة ستساعد الآخرين في صناعة الذكاء الاصطناعي على التعلم من أفضل ممارسات Google في نشر نماذج الذكاء الاصطناعي. نماذج اللغات الكبيرة قادرة على إحداث مجموعة واسعة من التأثيرات الضارة، بدءًا من إنشاء نصوص غير لائقة وغير لائقة، وتزييف عميق، ومعلومات مضللة، إلى توليد معلومات ضارة بما في ذلك الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).

حتى لو كان نموذج الذكاء الاصطناعي آمنًا بدرجة كافية، فهناك خطر من قيام الجهات الفاعلة السيئة بكسر حماية نموذج الذكاء الاصطناعي لجعله يستجيب لأوامر لم يتم تصميمه لها. مع مثل هذه المخاطر العالية، يجب على المطورين وشركات الذكاء الاصطناعي اتخاذ الاحتياطات الكافية لضمان أن النماذج آمنة للمستخدمين وكذلك آمنة بما فيه الكفاية. تغطي الأسئلة موضوعات مثل التدريب على النماذج وضبطها وتقييمها، وعناصر التحكم في الوصول إلى النماذج ومجموعات البيانات، ومنع الهجمات والمدخلات الضارة، والوكلاء المولدين الذين يعملون بالذكاء الاصطناعي، والمزيد.

توفر أداة SAIF من Google تنسيقًا قائمًا على الاستبيان، والذي يمكن الوصول إليه هنا. يُطلب من المطورين والمؤسسات الإجابة على أسئلة مثل، “هل أنت قادر على اكتشاف وإزالة ومعالجة التغييرات الضارة أو العرضية في بيانات التدريب أو الضبط أو التقييم الخاصة بك؟”. بعد إكمال الاستبيان، سيحصل المستخدمون على قائمة مرجعية مخصصة يتعين عليهم اتباعها من أجل سد الثغرات في تأمين نموذج الذكاء الاصطناعي.

الأداة قادرة على التعامل مع المخاطر مثل تسميم البيانات، والحقن الفوري، والتلاعب بمصدر النموذج، وغيرها. تم تحديد كل من هذه المخاطر في الاستبيان وتقدم الأداة حلاً محددًا للمشكلة.

وإلى جانب ذلك، أعلنت جوجل أيضًا عن إضافة 35 شريكًا صناعيًا إلى تحالفها من أجل الذكاء الاصطناعي الآمن (CoSAI). ستقوم المجموعة بشكل مشترك بإنشاء حلول أمنية للذكاء الاصطناعي في ثلاثة مجالات تركيز – أمن سلسلة توريد البرمجيات لأنظمة الذكاء الاصطناعي، وإعداد المدافعين لمشهد الأمن السيبراني المتغير وإدارة مخاطر الذكاء الاصطناعي.

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here