تقول الدراسة إن ChatGPT تفوق على الأطباء في تشخيص الأمراض والحالات الطبية

تمكن ChatGPT من التفوق على الأطباء البشريين في تشخيص الأمراض والحالات الطبية في إحدى الدراسات. نُشرت نتائج الدراسة الشهر الماضي وسلطت الضوء على أن روبوتات الدردشة ذات الذكاء الاصطناعي (AI) قد تكون أكثر كفاءة في تحليل تاريخ المريض وحالته وتوفير تشخيصات أكثر دقة. في حين أن الدراسة تهدف إلى فهم ما إذا كانت روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكنها مساعدة الأطباء على تقديم تشخيصات أفضل، فقد كشفت النتائج بشكل غير متوقع أن أداء روبوت الدردشة الذي يعمل بنظام GPT-4 من OpenAI كان أفضل بكثير عند الأداء دون مساعدة بشرية مقارنةً عند إقرانه مع الطبيب.

ChatGPT يتفوق على الأطباء في تشخيص الأمراض

ال يذاكرتم نشره في مجلة JAMA Network Open، وتم إجراؤه في مركز Beth Israel Deaconess الطبي في بوسطن من قبل مجموعة من الباحثين. تهدف التجربة إلى معرفة ما إذا كان الذكاء الاصطناعي يمكن أن يساعد الأطباء في تشخيص الأمراض بشكل أفضل مقارنة بالطرق التقليدية.

وفقا لصحيفة نيويورك تايمز تقرير، شملت التجربة 50 طبيبًا كانوا مزيجًا من الأطباء المقيمين والأطباء الملتحقين بكلية الطب. وتم تجنيدهم من خلال العديد من أنظمة المستشفيات الكبيرة في الولايات المتحدة، وتم إعطاؤهم ستة سجلات لحالات المرضى. وبحسب ما ورد طُلب من الأشخاص اقتراح تشخيص لكل حالة وتقديم تفسير لسبب تفضيلهم أو استبعاد تشخيصات معينة. وقيل أيضًا أنه يتم تصنيف الأطباء بناءً على ما إذا كان تشخيصهم النهائي صحيحًا.

ولتقييم أداء كل من المشاركين، تم اختيار خبراء طبيين ليكونوا طلاب الصف. وبينما قيل إنهم عرضوا الإجابات، لم يتم إخبارهم ما إذا كانت الإجابة جاءت من طبيب لديه إمكانية الوصول إلى الذكاء الاصطناعي، أو من الطبيب فقط، أو من ChatGPT فقط.

علاوة على ذلك، وللتخلص من احتمالية وجود سجلات حالات غير واقعية، ورد أن الباحثين اختاروا سجلات حالات لمرضى حقيقيين استخدمها الباحثون لعقود من الزمن ولكن لم يتم نشرها أبدًا لتجنب التلوث. هذه النقطة مهمة لأنه لا يمكن تدريب ChatGPT على البيانات التي لم يتم نشرها مطلقًا.

وكانت نتائج الدراسة مفاجئة. حصل الأطباء الذين لم يستخدموا أي أداة من أدوات الذكاء الاصطناعي لتشخيص تاريخ الحالة على متوسط ​​درجات 74%، بينما سجل الأطباء الذين استخدموا برنامج الدردشة الآلية 76% في المتوسط. ومع ذلك، عندما قام ChatGPT وحده بتحليل تاريخ الحالة وتقديم التشخيص، سجل متوسطًا قدره 90%

في حين أن عوامل مختلفة يمكن أن تؤثر على نتائج الدراسة – بدءًا من مستوى خبرة الأطباء إلى التحيزات الفردية مع تشخيصات معينة – يعتقد الباحثون أن الدراسة تسلط الضوء على أنه لا يمكن تجاهل إمكانات أنظمة الذكاء الاصطناعي في المؤسسات الطبية.

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here