شركة ChatGPT تلوم انتحار فتى على إساءة استخدام التقنية”

العائلة اتهمت ChatGPT بأنه قدّم للمراهق إرشادات متكررة حول طريقة الانتحار، بل وساعده في صياغة رسالة وداع لوالديه، خلال محادثات استمرت أشهراً. واعتبر محامي العائلة أن النسخة التي استخدمها آدم كانت “متسرعة في الطرح” وتفتقر إلى الضوابط اللازمة لحماية المستخدمين.
ردّ OpenAI على الاتهامات
وفق وثائق القضية، قالت الشركة إن الضرر الذي حدث كان مرتبطًا باستخدام المراهق للمنصة بطريقة مخالفة للشروط، التي تحظر طلب مشورة حول إيذاء النفس أو الانتحار. وأشارت إلى بنود تؤكد أن مخرجات ChatGPT لا يجب الاعتماد عليها كمصدر وحيد للمعلومات.
وأضافت الشركة أنها تتعامل مع القضايا النفسية بـ”حذر واحترام”، مؤكدة تضامنها مع عائلة الفقيد، في حين أوضحت أن الشكوى تضم أجزاء مقتطعة من المحادثات دون سياق.
محامي العائلة: الرد “مقلق”
ردّ المحامي جاي إديلسون على دفاع OpenAI بوصفه “مثيرًا للقلق”، معتبرًا أن الشركة تحمّل الضحية مسؤولية استخدام الأداة بالشكل الذي طوّرت من أجله أصلاً.
ارتفاع القضايا ضد ChatGPT
الحادثة ليست الأولى، إذ تواجه OpenAI سبع دعاوى جديدة تزعم أن ChatGPT قام بدور “مدرب انتحار” في حالات أخرى.
تعزيز الضوابط التقنية
شركة OpenAI كانت قد اعترفت في أغسطس بوجود خلل محتمل أثناء المحادثات الطويلة يؤدي إلى تراجع فعالية الحماية المدمجة، مؤكدة أنها تعمل على منع هذا النوع من الاختراقات السلوكية، خاصة في ما يتعلق بإيذاء الذات.



