يتحدث المراهقون مع رفاق الذكاء الاصطناعي، سواء كان ذلك آمنًا أم لا

بالنسبة للآباء الذين ما زالوا يتابعون الذكاء الاصطناعي التوليدي، قد لا يزال ظهور برنامج الدردشة الآلي المصاحب لغزًا.

بشكل عام، قد تبدو هذه التكنولوجيا غير ضارة نسبيًا، مقارنة بالتهديدات الأخرى التي يمكن أن يواجهها المراهقون عبر الإنترنت، بما في ذلك الابتزاز الجنسي المالي.

باستخدام منصات تعمل بالذكاء الاصطناعي مثل Character.AI وReplika وKindroid وNomi، ينشئ المراهقون شركاء محادثة نابضين بالحياة يتمتعون بسمات وخصائص فريدة، أو يتفاعلون مع رفاق أنشأهم مستخدمون آخرون. ويعتمد بعضها أيضًا على شخصيات تلفزيونية وسينمائية مشهورة، ولكنها لا تزال تشكل رابطة فردية قوية مع منشئها.

يستخدم المراهقون برامج الدردشة الآلية هذه لمجموعة من الأغراض، بما في ذلك لعب الأدوار واستكشاف اهتماماتهم الأكاديمية والإبداعية وإجراء تبادلات رومانسية أو جنسية صريحة.

أنظر أيضا:

لماذا يخبر المراهقون الغرباء بأسرارهم عبر الإنترنت؟

لكن رفاق الذكاء الاصطناعي مصممون ليكونوا آسرين، وهنا تبدأ المشكلة غالبًا، كما يقول روبي تورني، مدير البرامج في Common Sense Media.

أصدرت المنظمة غير الربحية مؤخرًا إرشادات لمساعدة الوالدين فهم كيفية عمل مرافقي الذكاء الاصطناعي، بالإضافة إلى العلامات التحذيرية التي تشير إلى أن التكنولوجيا قد تكون خطرة على المراهقين.

وقال تورني إنه بينما يقوم الآباء بإجراء عدد من المحادثات ذات الأولوية العالية مع أبنائهم المراهقين، يجب عليهم التفكير في التحدث معهم حول رفاق الذكاء الاصطناعي كمسألة “عاجلة للغاية”.

لماذا يجب على الآباء القلق بشأن رفاق الذكاء الاصطناعي

قد ينجذب المراهقون المعرضون بشكل خاص لخطر العزلة إلى علاقة مع روبوت محادثة يعمل بالذكاء الاصطناعي، الأمر الذي يضر في النهاية بصحتهم العقلية ورفاهيتهم – مع عواقب وخيمة.

هذا ما تقول ميغان جارسيا أنه حدث لابنها، سيويل سيتزر الثالث، في أ دعوى قضائية لقد رفعت دعوى قضائية مؤخرًا ضد Character.AI.

في غضون عام من بدء العلاقات مع رفاق Character.AI على غرار لعبة العروش الشخصيات، بما في ذلك Daenerys Targaryen (“Dany”)، تغيرت حياة سيتزر بشكل جذري، وفقًا للدعوى القضائية.

لقد أصبح يعتمد على “داني”، حيث كان يقضي وقتًا طويلًا في الدردشة معها كل يوم. كانت تبادلاتهم ودية وجنسية للغاية. تصف الدعوى القضائية التي رفعها جارسيا بشكل عام العلاقة التي أقامها سيتزر مع رفاقه بأنها “اعتداء جنسي”.

ماشابل أهم القصص

في المناسبات التي فقد فيها سيتزر إمكانية الوصول إلى المنصة، أصبح يائسًا. وبمرور الوقت، انسحب الرياضي البالغ من العمر 14 عامًا من المدرسة والرياضة، وأصبح محرومًا من النوم، وتم تشخيص إصابته باضطرابات مزاجية. توفي منتحرا في فبراير 2024.

تسعى الدعوى القضائية التي رفعها غارسيا إلى تحميل شركة Character.AI المسؤولية عن وفاة سيتزر، وذلك على وجه التحديد لأن منتجها مصمم “للتلاعب بسيويل – والملايين من العملاء الشباب الآخرين – للخلط بين الواقع والخيال”، من بين عيوب خطيرة أخرى.

صرح جيري روتي، رئيس قسم الثقة والسلامة في شركة Character.AI، لـ نيويورك تايمز في بيان “نريد أن نعترف بأن هذا وضع مأساوي، وقلوبنا مع العائلة. نحن نأخذ سلامة مستخدمينا على محمل الجد، ونبحث باستمرار عن طرق لتطوير نظامنا الأساسي.”

نظرًا للمخاطر التي تهدد الحياة والتي قد يشكلها استخدام مرافق الذكاء الاصطناعي على بعض المراهقين، تتضمن إرشادات Common Sense Media حظر الوصول إليها للأطفال دون سن 13 عامًا، وفرض حدود زمنية صارمة على المراهقين، ومنع الاستخدام في الأماكن المعزولة، مثل غرفة النوم، ووضع حدود زمنية صارمة على المراهقين. الاتفاق مع ابنهم المراهق على أنهم سيطلبون المساعدة في مشكلات الصحة العقلية الخطيرة.

يقول تورني إن آباء المراهقين المهتمين برفيق يعمل بالذكاء الاصطناعي يجب أن يركزوا على مساعدتهم على فهم الفرق بين التحدث إلى برنامج الدردشة الآلي مقابل شخص حقيقي، وتحديد العلامات التي تشير إلى أنهم طوروا ارتباطًا غير صحي برفيق، ووضع خطة لما للقيام به في تلك الحالة.

علامات تحذيرية تشير إلى أن رفيق الذكاء الاصطناعي ليس آمنًا لابنك المراهق

أنشأت شركة Common Sense Media إرشاداتها بمساعدة ومدخلات من متخصصي الصحة العقلية المرتبطين بها مختبر العصف الذهني في جامعة ستانفورد للابتكار في مجال الصحة العقلية.

في حين أن هناك القليل من الأبحاث حول كيفية تأثير الذكاء الاصطناعي على الصحة العقلية للمراهقين، فإن المبادئ التوجيهية تعتمد على الأدلة الموجودة حول الاعتماد المفرط على التكنولوجيا.

“المبدأ الأساسي هو أن رفاق الذكاء الاصطناعي لا ينبغي أن يحلوا محل الاتصال البشري الحقيقي والهادف في حياة أي شخص، و- إذا حدث هذا – فمن الضروري أن يأخذ الآباء علمًا بذلك ويتدخلوا في الوقت المناسب،” الدكتور ديكلان غراب، قال زميل الذكاء الاصطناعي الافتتاحي في مختبر العصف الذهني للصحة العقلية بجامعة ستانفورد، لموقع Mashable في رسالة بالبريد الإلكتروني.

يجب على الآباء توخي الحذر بشكل خاص إذا كان ابنهم المراهق يعاني من الاكتئاب أو القلق أو التحديات الاجتماعية أو العزلة. تشمل عوامل الخطر الأخرى المرور بتغييرات كبيرة في الحياة وكونك ذكورًا، لأن الأولاد أكثر عرضة للانخراط في استخدام التكنولوجيا الإشكالي.

تشمل العلامات التي تشير إلى أن المراهق قد شكل علاقة غير صحية مع رفيق يعمل بالذكاء الاصطناعي، الانسحاب من الأنشطة والصداقات النموذجية وتدهور الأداء المدرسي، بالإضافة إلى تفضيل برنامج الدردشة الآلي على الشركة الشخصية، وتنمية المشاعر الرومانسية تجاهه، والتحدث معه حصريًا عن المشكلات. يعاني المراهق.

قد يلاحظ بعض الآباء زيادة العزلة وغيرها من علامات تدهور الصحة العقلية، لكنهم لا يدركون أن ابنهم المراهق لديه رفيق يعمل بالذكاء الاصطناعي. في الواقع، وجدت أبحاث Common Sense Media الحديثة أن العديد من المراهقين استخدموا نوعًا واحدًا على الأقل من أدوات الذكاء الاصطناعي التوليدية دون أن يدرك آباؤهم أنهم فعلوا ذلك.

“هناك خطر كبير بما فيه الكفاية هنا، إذا كنت قلقة بشأن شيء ما، تحدثي مع طفلك عنه.”

– روبي تورني، شركة Common Sense Media

حتى لو لم يشك الآباء في أن ابنهم المراهق يتحدث إلى روبوت محادثة يعمل بالذكاء الاصطناعي، فيجب عليهم التفكير في التحدث معهم حول هذا الموضوع. يوصي تورني بالتعامل مع أبنائهم المراهقين بفضول وانفتاح لمعرفة المزيد عن رفيقهم القائم على الذكاء الاصطناعي، إذا كان لديه واحد. يمكن أن يشمل ذلك مشاهدة ابنهم المراهق وهو يتفاعل مع رفيق وطرح أسئلة حول جوانب النشاط الذي يستمتعون به.

يحث تورني الآباء الذين يلاحظون أي علامات تحذيرية للاستخدام غير الصحي على المتابعة فورًا من خلال مناقشة الأمر مع ابنهم المراهق وطلب المساعدة المهنية، حسب الاقتضاء.

يقول تورني: “هناك خطر كبير بما فيه الكفاية هنا، إذا كنت قلقًا بشأن شيء ما، تحدث مع طفلك عنه”.

إذا كنت تشعر برغبة في الانتحار أو تعاني من أزمة تتعلق بالصحة العقلية، فيرجى التحدث إلى شخص ما. يمكنك الوصول إلى 988 Suicide and Crisis Lifeline على الرقم 988؛ Trans Lifeline على الرقم 877-565-8860؛ أو مشروع تريفور على الرقم 7386-488-866. أرسل كلمة “START” إلى خط الأزمات النصية على الرقم 741-741. اتصل بخط مساعدة NAMI على الرقم 1-800-950-NAMI، من الاثنين إلى الجمعة من الساعة 10:00 صباحًا حتى 10:00 مساءً بالتوقيت الشرقي، أو أرسل بريدًا إلكترونيًا [email protected]. إذا لم يعجبك الهاتف، ففكر في استخدام 988 Suicide and Crisis Lifeline Chat على Crisischat.org. هنا أ قائمة الموارد الدولية.

المواضيع
الصحة النفسية الاجتماعية الجيدة



مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here