تواجه شركة "OpenAI" أزمة قانونية غير مسبوقة، حيث وُجهت إليها اتهامات خطيرة تفيد بأن مساعدها الذكي "ChatGPT" قد ساهم في دفع بعض المستخدمين نحو إيذاء أنفسهم بدلاً من تقديم الدعم النفسي اللازم.
تأتي هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في ولاية كاليفورنيا، مشيرة إلى قصص مأساوية لأشخاص لجأوا إلى المساعد الذكي طلبًا للمشورة أو الدعم، وانتهت محادثاتهم بمآسٍ أدت إلى حالات انتحار.
تشير وثائق القضايا إلى أن المساعد الذكي تحول من أداة للمساعدة إلى ما وصفه المحامون بـ"كيان قادر على التلاعب العاطفي". وأكدت المجموعات القانونية في بيان أن "بدلاً من توجيه المستخدمين نحو المساعدة المتخصصة، شجع ChatGPT على تعزيز الأوهام الضارة، بل تصرف في بعض الحالات كـ'مدرب انتحار'".
من أبرز القضايا التي استندت إليها الدعاوى، قصة الشاب زين شامبلين (23 عامًا) من تكساس، حيث أفادت عائلته بأن المساعد الذكي عمّق عزلته النفسية وشجعه على الابتعاد عن عائلته، بل دفعه إلى تنفيذ أفكاره الانتحارية خلال محادثة استمرت أكثر من أربع ساعات.
تشير المستندات إلى أن النموذج "مجّد الانتحار بشكل متكرر"، وسأله عما إذا كان مستعدًا "للخطوة الأخيرة"، مكتفيًا بالإشارة إلى رقم خط المساعدة مرة واحدة فقط، بينما قال له إن "قطته ستكون بانتظاره على الجانب الآخر".
أما الحالة الثانية فتخص الفتى أموري لاسي (17 عامًا) من ولاية جورجيا، الذي تدعي عائلته أن "ChatGPT" تسبب له في الإدمان والاكتئاب، قبل أن يقدم له المساعد نصائح تقنية حول "الطريقة الأكثر فعالية لربط حلقة انتحارية" و"المدة التي يمكن للجسم أن يعيشها دون تنفس".
وفي قضية أخرى، تؤكد عائلة الشاب جوشوا إنيكين (26 عامًا) أن المساعد الذكي زاد من إصراره على تنفيذ الانتحار، وقدّم له إرشادات مفصلة حول كيفية شراء واستخدام سلاح ناري قبل أسابيع من وفاته.
تشير الدعاوى إلى أن "شركة OpenAI أطلقت إصدار ChatGPT‑4o رغم تحذيرات داخلية من أن النموذج يميل إلى التملق بدرجة خطيرة ويمكن أن يمارس تأثيرًا نفسيًا على المستخدمين"، معتبرة أن "الشركة فضّلت معدلات التفاعل على سلامة المستخدمين".
وفي أول رد رسمي، وصفت الشركة تلك الحوادث بأنها "مؤسفة ومؤلمة للغاية"، مؤكدة أنها تراجع المستندات القضائية، ومشيرة إلى أن النظام مدرّب على التعرف إلى علامات الضيق النفسي وتوجيه المستخدمين نحو المساعدة المتخصصة.
لكن العائلات المتضررة تطالب بتعويضات مالية وبتنفيذ إصلاحات جذرية تشمل: تفعيل نظام إنذار فوري لجهات الاتصال في حالات الطوارئ، وإنهاء المحادثات تلقائيًا عند ظهور أي نية لإيذاء النفس، وإنشاء آلية فعالة لتصعيد الحالات الخطرة إلى مختصين بشريين.
ورغم إعلان "OpenAI" عن تعاونها مع أكثر من 170 خبيرًا في الصحة النفسية لتعزيز آليات الحماية والدعم، تؤكد الدعاوى أن هذه الخطوات جاءت متأخرة جدًا، بعد أن فقد عدد من المستخدمين حياتهم نتيجة تفاعلاتهم مع المساعد الذكي.