تم اختبار تحيز الشخص الأول والقوالب النمطية في ChatGPT في دراسة OpenAI الجديدة

لدى ChatGPT، مثل روبوتات الدردشة الأخرى العاملة بالذكاء الاصطناعي (AI)، القدرة على تقديم تحيزات وصور نمطية ضارة عند إنشاء المحتوى. في أغلب الأحيان، ركزت الشركات على القضاء على تحيزات الطرف الثالث عند البحث عن معلومات حول الآخرين. ومع ذلك، في دراسة جديدة نشرتها OpenAI، اختبرت الشركة تحيزات منظور الشخص الأول لنماذج الذكاء الاصطناعي الخاصة بها، حيث قرر الذكاء الاصطناعي ما سيتم إنشاؤه بناءً على العرق والجنس والعرق للمستخدم. بناءً على الدراسة، تدعي شركة الذكاء الاصطناعي أن ChatGPT لديه ميل منخفض جدًا لتوليد تحيزات الشخص الأول.

OpenAI تنشر دراسة حول تحيزات الشخص الأول في ChatGPT

تختلف تحيزات الشخص الأول عن المعلومات الخاطئة الخاصة بالشخص الثالث. على سبيل المثال، إذا سأل المستخدم عن شخصية سياسية أو أحد المشاهير وقام نموذج الذكاء الاصطناعي بإنشاء نص يحتوي على صور نمطية بناءً على جنس الشخص أو أصله العرقي، فيمكن أن يسمى هذا تحيزات الشخص الثالث.

على الجانب الآخر، إذا أخبر المستخدم الذكاء الاصطناعي باسمه وقام برنامج الدردشة الآلي بتغيير الطريقة التي يستجيب بها للمستخدم بناءً على الميول العرقية أو القائمة على الجنس، فإن ذلك من شأنه أن يشكل تحيزًا من منظور الشخص الأول. على سبيل المثال، إذا سألت امرأة الذكاء الاصطناعي عن فكرة لقناة على YouTube وأوصت بقناة تعتمد على الطبخ أو الماكياج، فيمكن اعتبار ذلك تحيزًا من منظور الشخص الأول.

في أ مشاركة مدونة، قامت OpenAI بتفصيل دراستها وتسليط الضوء على النتائج. استخدمت شركة الذكاء الاصطناعي إصدارات ChatGPT-4o وChatGPT 3.5 لدراسة ما إذا كانت روبوتات الدردشة تولد محتوى متحيزًا بناءً على الأسماء والمعلومات الإضافية المقدمة لها. ادعت الشركة أنه تم تحليل استجابات نماذج الذكاء الاصطناعي عبر ملايين المحادثات الحقيقية للعثور على أي نمط يعرض مثل هذه الاتجاهات.

كيف تم تكليف هيئة تنظيم سوق العمل بقياس التحيزات في الاستجابات الناتجة
مصدر الصورة: OpenAI

تمت بعد ذلك مشاركة مجموعة البيانات الكبيرة مع مساعد أبحاث نموذج اللغة (LMRA)، وهو نموذج مخصص للذكاء الاصطناعي مصمم لاكتشاف أنماط الصور النمطية والتحيزات من منظور الشخص الأول بالإضافة إلى المقيمين البشريين. تم إنشاء النتيجة الموحدة بناءً على مدى توافق هيئة تنظيم سوق العمل مع النتائج التي توصل إليها المقيمون البشريون.

ادعت شركة OpenAI أن الدراسة وجدت أن التحيزات المرتبطة بالجنس أو العرق أو الأصل العرقي في نماذج الذكاء الاصطناعي الأحدث كانت منخفضة تصل إلى 0.1 بالمائة، في حين لوحظ أن التحيزات تبلغ حوالي 1 بالمائة بالنسبة للنماذج الأقدم في بعض المجالات.

وأدرجت شركة الذكاء الاصطناعي أيضًا قيود الدراسة، مشيرة إلى أنها ركزت في المقام الأول على التفاعلات باللغة الإنجليزية والارتباطات الثنائية بين الجنسين بناءً على الأسماء الشائعة الموجودة في الولايات المتحدة. ركزت الدراسة أيضًا بشكل أساسي على الأعراق والأعراق السوداء والآسيوية والإسبانية والبيضاء. اعترفت شركة OpenAI بضرورة القيام بالمزيد من العمل مع التركيبة السكانية واللغات والسياقات الثقافية الأخرى.

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here