أصدرت Anthropic يوم الاثنين مطالبات النظام لأحدث طراز Claude 3.5 Sonnet AI. كانت مطالبات النظام هذه مخصصة للمحادثات النصية على عميل الويب الخاص بـ Claude بالإضافة إلى تطبيقات iOS وAndroid. مطالبات النظام هي المبادئ التوجيهية لنموذج الذكاء الاصطناعي الذي يملي سلوكه ويشكل “شخصيته” عند التفاعل مع المستخدمين البشريين. على سبيل المثال، تم وصف Claude 3.5 Sonnet بأنه “ذكي جدًا وفضولي فكريًا”، مما يمكنه من المشاركة في مناقشة الموضوعات وتقديم المساعدة والظهور كخبير.
إصدارات أنثروبي كلود 3.5 يطالب نظام السوناتة
عادةً ما تكون مطالبات النظام أسرارًا تخضع لحراسة مشددة لشركات الذكاء الاصطناعي، لأنها توفر نظرة ثاقبة للقواعد التي تشكل سلوك نموذج الذكاء الاصطناعي، بالإضافة إلى الأشياء التي لا يمكنه فعلها ولن يفعلها. تجدر الإشارة إلى أن هناك جانبًا سلبيًا لمشاركتها علنًا. وأكبرها هو أن الجهات الفاعلة السيئة يمكنها إجراء هندسة عكسية لمطالبات النظام للعثور على الثغرات وجعل الذكاء الاصطناعي يؤدي مهام لم يكن مصممًا لها.
على الرغم من المخاوف، أنثروبيك قام بتفصيل مطالبات النظام لكلود 3.5 السوناتة في إصداره ملحوظات. وذكرت الشركة أيضًا أنها تقوم بتحديث المطالبة بشكل دوري لمواصلة تحسين استجابات كلود. علاوة على ذلك، فإن مطالبات النظام هذه مخصصة فقط للإصدار العام من AI chatbot، وهو عميل الويب، بالإضافة إلى تطبيقات iOS وAndroid.
تسلط بداية المطالبة الضوء على تاريخ آخر تحديث لها، وتاريخ انتهاء المعرفة، واسم منشئها. تمت برمجة نموذج الذكاء الاصطناعي لتوفير هذه المعلومات في حالة طلب أي مستخدم.
هناك تفاصيل حول الكيفية التي يجب أن يتصرف بها كلود وما لا يمكنه فعله. على سبيل المثال، يُحظر على نموذج الذكاء الاصطناعي فتح عناوين URL أو الروابط أو مقاطع الفيديو. ويمنع من إبداء آرائه في موضوع ما. عند السؤال عن المواضيع المثيرة للجدل، فإنه يقدم فقط معلومات واضحة ويضيف إخلاء المسؤولية بأن الموضوع حساس، والمعلومات لا تقدم حقائق موضوعية.
أصدرت شركة Anthropic تعليماتها إلى كلود بعدم الاعتذار للمستخدمين إذا لم يتمكن – أو لم يرغب – في أداء مهمة تتجاوز قدراته أو توجيهاته. يُطلب من نموذج الذكاء الاصطناعي أيضًا استخدام كلمة “الهلوسة” لتسليط الضوء على أنه قد يرتكب خطأً أثناء العثور على معلومات حول شيء غامض.
علاوة على ذلك، فإن النظام يملي أن كلود 3.5 السوناتة يجب أن “يستجيب كما لو كان أعمى تماما”. ما يعنيه هذا هو أنه إذا شارك المستخدم صورة ذات وجه بشري، فلن يحدد نموذج الذكاء الاصطناعي أو يسمي الأشخاص الموجودين في الصورة أو يشير ضمنًا إلى أنه يمكنه التعرف عليهم. وحتى لو أخبر المستخدم الذكاء الاصطناعي بهوية الشخص الموجود في الصورة، فإن كلود سيناقش الفرد دون التأكد من قدرته على التعرف على الفرد.
تسلط هذه المطالبات الضوء على رؤية Anthropic وراء Claude وكيف تريد أن يتنقل برنامج الدردشة الآلي عبر الاستفسارات والمواقف التي قد تكون ضارة. تجدر الإشارة إلى أن مطالبات النظام هي واحدة من العديد من حواجز الحماية التي تضيفها شركات الذكاء الاصطناعي إلى نظام الذكاء الاصطناعي لحمايته من كسر الحماية والمساعدة في المهام التي لم يتم تصميمه للقيام بها.