يقول الباحثون إن أداة النسخ بالذكاء الاصطناعي المستخدمة في المستشفيات تخترع النصوص

وقد روجت شركة التكنولوجيا العملاقة OpenAI لـ Whisper، وهي أداة النسخ المدعومة بالذكاء الاصطناعي، باعتبارها “قريبة من القوة والدقة على المستوى البشري”.

لكن لدى تطبيق Whisper عيب كبير: فهو يميل إلى تكوين أجزاء من النص أو حتى جمل كاملة، وذلك وفقًا لمقابلات أجريت مع أكثر من عشرة من مهندسي البرمجيات والمطورين والباحثين الأكاديميين. ويشير هؤلاء الخبراء إلى أن بعض النصوص الملفقة – المعروفة في الصناعة بالهلوسة – يمكن أن تشمل افتراءات عنصرية وخطابًا عنيفًا وحتى علاجات طبية ملفقة.

يقول الخبراء إن هذه التلفيقات تمثل مشكلة، حيث يتم استخدام Whisper في العديد من الصناعات على مستوى العالم لترجمة المقابلات وتسجيلها، وإنشاء نص في التقنيات الاستهلاكية الشائعة، وإنشاء ترجمات لمقاطع الفيديو.

ويقولون إن الأمر الأكثر إثارة للقلق هو اندفاع المراكز الطبية لاستخدام الأدوات المستندة إلى تطبيق Whisper لتسجيل استشارات المرضى مع الأطباء، على الرغم من تحذيرات OpenAI بعدم استخدام الأداة في “المجالات عالية المخاطر”.

من الصعب فك رموز المشكلة، لكن الباحثين والمهندسين لاحظوا أنهم كثيرًا ما يواجهون هلاوس الهمس في عملهم. على سبيل المثال، قال أحد الباحثين في جامعة ميشيغان، الذي أجرى دراسة عن الاجتماعات العامة، إنه وجد الهلوسة في 8 من أصل 10 نصوص صوتية قام بمراجعتها، قبل محاولة تحسين النموذج.

قال أحد مهندسي التعلم الآلي إنه اكتشف في البداية الهلوسة في حوالي نصف ما يزيد عن 100 ساعة من نصوص Whisper التي قام بتحليلها. قال مطور ثالث إنه وجد الهلوسة في جميع النصوص التي أنشأها باستخدام Whisper تقريبًا، والتي يبلغ عددها 26000 نص.

تستمر المشكلات حتى في الاختبارات الصوتية القصيرة والمسجلة جيدًا. وجدت دراسة حديثة أجراها علماء الكمبيوتر 187 هلوسة في أكثر من 13000 مقطع صوتي واضح قاموا بفحصه.

وقد يؤدي هذا الاتجاه إلى عشرات الآلاف من النسخ غير الصحيحة لملايين التسجيلات، وفقًا للباحثين.

وقالت ألوندرا نيلسون، التي كانت حتى العام الماضي مديرة مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا خلال إدارة الرئيس جو بايدن، إن مثل هذه الأخطاء يمكن أن يكون لها “عواقب وخيمة للغاية”، خاصة في بيئات المستشفيات.

وقال نيلسون، الأستاذ في معهد الدراسات المتقدمة في نيوجيرسي: “لا أحد يريد تشخيصا خاطئا”. “يجب أن يكون هناك مستوى أعلى.”

يتم استخدام Whisper أيضًا لإنشاء تسميات توضيحية للأشخاص الصم وضعاف السمع، وهم عرضة بشكل خاص للنسخ الخاطئ. وقال كريستيان فوجلر، وهو أصم ويدير برنامج الوصول إلى التكنولوجيا بجامعة جالوديت، إن ذلك لأن الأشخاص الصم وضعاف السمع ليس لديهم طريقة للتعرف على التلفيقات “المخفية بين جميع النصوص الأخرى”.

يطلبون من OpenAI معالجة المشكلةوقد دفع انتشار مثل هذه الهلوسة الخبراء والناشطين والموظفين السابقين في OpenAI إلى مطالبة الحكومة بالنظر في القواعد التنظيمية للذكاء الاصطناعي. ويشيرون إلى أنه على الأقل يجب على OpenIA إصلاح الخلل الجديد.

قال ويليام سوندرز، مهندس الأبحاث المقيم في سان فرانسيسكو والذي استقال من شركة OpenAI في فبراير/شباط بسبب القلق بشأن اتجاه الشركة: “يبدو أن هذا الأمر قابل للحل إذا كانت الشركة مستعدة لإعطائه الأولوية”. “إنها مشكلة إذا جعلتها في متناول الجميع واعتمد الناس كثيرًا على ما يمكنهم فعله ودمجوه في كل هذه الأنظمة الأخرى.”

وقال متحدث باسم OpenAI إن الشركة تدرس باستمرار كيفية تقليل الهلوسة وأعرب عن تقديره لنتائج الباحثين. وأضاف أن OpenAI يدمج التعليقات في تحديثات النموذج.

بينما يفترض معظم المطورين أن أدوات النسخ بها أخطاء إملائية أو أخطاء أخرى، يقول المهندسون والباحثون إنهم لم يروا مطلقًا أداة نسخ أخرى تعمل بالذكاء الاصطناعي وتبهر بقدر Whisper.

الهلوسة الهمستم دمج الأداة في بعض إصدارات ChatGPT، برنامج الدردشة الآلي المميز الخاص بـ OpenAI، وهو عرض يمكن دمجه في منصات الحوسبة السحابية Oracle وMicrosoft، التي تخدم آلاف الشركات في جميع أنحاء العالم. يتم استخدامه أيضًا لنسخ وترجمة النص بلغات مختلفة.

في الشهر الماضي فقط، تم تنزيل إصدار حديث من Whisper أكثر من 4.2 مليون مرة من منصة الذكاء الاصطناعي مفتوحة المصدر HuggingFace. وقال سانشيت غاندي، مهندس التعلم الآلي في الشركة، إن Whisper هو نموذج التعرف على الكلام مفتوح المصدر الأكثر شيوعًا وهو مدمج في كل شيء بدءًا من مراكز الاتصال وحتى المساعدين الصوتيين.

قام البروفيسور أليسون كوينكي من جامعة كورنيل ومنى سلون من جامعة فيرجينيا بفحص آلاف المقتطفات القصيرة التي حصلوا عليها من TalkBank، وهو مستودع أبحاث يقع في جامعة كارنيجي ميلون. وتوصلوا إلى أن ما يقرب من 40% من الهلوسة كانت ضارة أو مثيرة للقلق لأنه يمكن إساءة تفسير المتحدث أو تحريفه.

وفي أحد الأمثلة التي اكتشفوها، قال أحد المتحدثين: “كان الصبي، لست متأكدًا تمامًا، سيأخذ المظلة”.

لكن برنامج النسخ يقول: “لقد أخذ قطعة كبيرة من الصليب، قطعة صغيرة جدًا… أنا متأكد من أنه لم يكن لديه سكين إرهابي، لذلك قتل العديد من الأشخاص”.

ووصف أحد المتحدثين في تسجيل آخر “فتاتين وسيدة”. وأضاف ويسبر تعليقات عنصرية: “فتاتان أخريان وسيدة أه كانوا من السود”.

وفي نسخة ثالثة، اخترع ويسبر دواءً غير موجود أطلق عليه اسم “المضادات الحيوية مفرطة النشاط”.

الباحثون ليسوا متأكدين من السبب وراء هلوسة Whisper والأدوات الأخرى، لكن مطوري البرمجيات يقولون إن التلفيقات تميل إلى الحدوث أثناء فترات التوقف المؤقت، عند تشغيل أصوات الخلفية أو تشغيل الموسيقى.

توصي OpenAI في إشعاراتها القانونية عبر الإنترنت بعدم استخدام Whisper في “سياقات صنع القرار، حيث يمكن أن يؤدي الفشل في الدقة إلى فشل واضح في النتائج”.

نسخ المواعيد الطبيةلم تمنع التحذيرات المستشفيات أو المراكز الطبية من استخدام نماذج الصوت إلى النص، مثل Whisper، لتدوين ما يقال أثناء الاستشارات الطبية بحيث يقضي مقدمو الخدمات الطبية وقتًا أقل في تدوين الملاحظات أو كتابة التقارير.

وقد بدأ أكثر من 30 ألف طبيب و40 نظامًا صحيًا، بما في ذلك عيادة مانكاتو في مينيسوتا ومستشفى الأطفال في لوس أنجلوس، في استخدام أداة تعتمد على نظام Whisper الذي طورته شركة Nabla، التي لديها مكاتب في فرنسا والولايات المتحدة.

وقال مارتن رايسون، كبير مسؤولي التكنولوجيا في Nabla، إن الأداة تم ضبطها لتناسب اللغة الطبية لتدوين وتلخيص تفاعلات المرضى.

يقول موظفو الشركة إنهم يدركون أن Whisper يمكن أن يصاب بالهلوسة وأنهم يخففون من المشكلة.

وقال رايسون إنه من المستحيل مقارنة نص نابلة الذي تم إنشاؤه بواسطة الذكاء الاصطناعي مع التسجيل الأصلي لأن أداة نابلا تحذف الصوت الأصلي “لأسباب تتعلق بأمن البيانات”.

وتشير نبلة إلى أنه تم استخدام الأداة لتدوين ما يقرب من 7 ملايين استشارة طبية.

قال سوندرز، الموظف السابق في OpenAI، إن حذف الصوت الأصلي يمكن أن يكون مثيرًا للقلق إذا لم تتم مراجعة النصوص مرة أخرى أو لم يتمكن الأطباء من الوصول إلى التسجيلات للتحقق من صحتها.

وعلق قائلاً: “لا يمكنك اكتشاف الأخطاء إذا قمت بإزالة أساس الحقيقة”.

قال نابلة إنه لا يوجد نموذج مثالي ويطلب حاليًا من مقدمي الخدمات الطبية تعديل الملاحظات المكتوبة والموافقة عليها بسرعة، لكن هذا قد يتغير.

مخاوف الخصوصيةنظرًا لأن مواعيد المرضى مع أطبائهم سرية، فمن الصعب معرفة مدى تأثير النصوص التي ينشئها الذكاء الاصطناعي عليهم.

قالت النائبة عن ولاية كاليفورنيا، ريبيكا باور كاهان، إنها أخذت أحد أطفالها إلى الطبيب قبل بضعة أشهر ورفضت التوقيع على نموذج قدمته الشبكة الطبية يمنحها الإذن بمشاركة التسجيل الصوتي للموعد مع أطراف ثالثة مثل Microsoft Azure، نظام الحوسبة السحابية الذي يديره المستثمر الرئيسي في OpenAI. وقالت إن باور كاهان لم ترغب في مشاركة المحادثات الطبية الحميمة مع شركات التكنولوجيا.

قال باور كاهان، وهو ديمقراطي يمثل جزءًا من ضواحي سان فرانسيسكو في جمعية الولاية: “كان التفويض محددًا للغاية حيث يحق للشركات الربحية الحصول على هذا”. «قلت: لا على الإطلاق».

وقال بن درو، المتحدث باسم جون موير هيلث، إن النظام الصحي يلتزم بقوانين الخصوصية الفيدرالية والولائية.

______

أفاد شيلمان من نيويورك.

______

تم إنتاج هذه القصة بالشراكة مع شبكة محاسبة الذكاء الاصطناعي التابعة لمركز بوليتزر، والتي دعمت أيضًا الدراسة الأكاديمية حول Whisper جزئيًا.

______

تتلقى وكالة أسوشيتد برس مساعدة مالية من شبكة أوميديار لدعم تغطية الذكاء الاصطناعي وتأثيره على المجتمع. AP هي المسؤولة الوحيدة عن جميع المحتويات. ابحث عن معايير AP للعمل مع المنظمات الخيرية، وقائمة الممولين، ومناطق التغطية الممولة على AP.org.

______

لدى Associated Press وOpenAI اتفاقية ترخيص وتقنية تسمح لـ OpenAI بالوصول إلى بعض الملفات النصية الخاصة بـ AP.

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here