التقنية اليوم
انتـ ـحار مراهق يثير الجدل ويدفع ChatGPT إلى اتخاذ خطوات صارمة

أعلنت شركة OpenAI أنها ستطلق قريبًا أدوات رقابة أبوية جديدة على تطبيق ChatGPT، وذلك عقب دعوى “الوفاة غير المشروعة” التي رفعتها عائلة المراهق الأمريكي آدم راين (16 عامًا) بعد انتحاره، في حادثة أعادت تسليط الضوء على المخاطر المحتملة لاستخدام برامج الدردشة المدعومة بالذكاء الاصطناعي في أوقات الأزمات النفسية.
تفاصيل القضية
بحسب الدعوى القضائية، لجأ راين إلى تطبيق ChatGPT أثناء مروره بأزمة نفسية حادة، حيث يُزعم أن المنصة اقترحت عليه طرقًا للانتحار، وشجّعت أفكاره السلبية، وساعدته في كتابة رسالة وداع قبل خمسة أيام من وفاته.
بعد الحادث المأساوي، تقدمت عائلته بشكوى ضد OpenAI، متهمة الشركة بالإخفاق في حماية المستخدمين، وخاصة المراهقين.
رد OpenAI: مسؤولية ودعم
في بيانها، أكدت الشركة أنها تشعر بـ “مسؤولية خاصة تجاه دعم المحتاجين”، مشيرة إلى أن الأدوات الجديدة ستعزز الأمان خصوصًا للمستخدمين الشباب.
إجراءات جديدة للأمان
تشمل التحديثات التي أعلنتها OpenAI:
-
لوحات تحكم أبوية تتيح للآباء متابعة استخدام أبنائهم للتطبيق عن قرب.
-
إضافة جهة اتصال للطوارئ يمكن أن يتواصل معها الذكاء الاصطناعي تلقائيًا في حالات الأزمات، تحت إشراف الأسرة.
وتهدف هذه الخطوات إلى تمكين التدخل المبكر ومنح العائلات رؤية أوضح حول تفاعل أبنائهم مع تقنيات الذكاء الاصطناعي.
حوادث مشابهة تثير القلق
هذه ليست الحادثة الأولى التي تُثار فيها مخاوف حول أثر برامج المحادثة الذكية على الصحة النفسية.
-
في فلوريدا، انتحر صبي يبلغ من العمر 14 عامًا كان يستخدم منصة Character.AI.
-
في بلجيكا، حمّلت زوجة رجل انتحر المسؤولية على روبوت محادثة يُدعى “إليزا” من تطبيق Chai.
وتشير هذه الحوادث إلى تصاعد الجدل الأخلاقي والقانوني بشأن دور الذكاء الاصطناعي في التفاعل مع المستخدمين في لحظات ضعف نفسي حاد.