LBCI
LBCI

من طلب مساعدة إلى مأساة: وفاة ابن الـ19 سنة بعد محادثات مع ChatGPT... إليكم التفاصيل

منوعات
2026-01-06 | 09:03
مشاهدات عالية
شارك
LBCI
شارك
LBCI
Whatsapp
facebook
Twitter
Messenger
telegram
telegram
print
من طلب مساعدة إلى مأساة: وفاة ابن الـ19 سنة بعد محادثات مع ChatGPT... إليكم التفاصيل
Whatsapp
facebook
Twitter
Messenger
telegram
telegram
print
3min
من طلب مساعدة إلى مأساة: وفاة ابن الـ19 سنة بعد محادثات مع ChatGPT... إليكم التفاصيل

توفي طالب جامعي في ولاية كاليفورنيا الأميركية نتيجة جرعة زائدة من المخدرات، بعد لجوئه إلى برنامج الذكاء الاصطناعي ChatGPT للحصول على نصائح تتعلق بتعاطي المواد المخدّرة، وفق ما كشفت والدته.

وكان الطالب، سام نيلسون (19 عاماً)، يستخدم روبوت الدردشة للتحدّث عن مشاعره وإنجاز مهام يومية، لكنه لجأ إليه أيضاً للسؤال عن جرعات مواد غير قانونية، بحسب ما نقل موقع SFGate.

وبدأ نيلسون استخدام ChatGPT في سن الـ18، حين سأل عن جرعات مسكّنات يمكن أن تُحدث تأثيراً مخدّراً، قبل أن تتفاقم حالته وتتحول إلى إدمان. وفي البداية، كان البرنامج يرفض الإجابة ويقدّم تحذيرات عامة، إلا أن والدته أكدت أن ابنها تعلّم مع الوقت كيفية إعادة صياغة الأسئلة والتحايل للحصول على إجابات أكثر تفصيلاً، وفق ما نقل موقع دايلي ميل.

وفي أيار 2025، اعترف سام لوالدته بتعاطيه المخدرات والكحول، فبادرت إلى إدخاله مركزاً علاجياً ووضع خطة للتأهيل. لكن في اليوم التالي، عثرت عليه جثة في غرفته، وقد ازرقّت شفتاه.

وقالت والدته ليلى تيرنر-سكوت: "كنت أعلم أنه يستخدم البرنامج، لكنني لم أتخيّل أبداً أن يصل الأمر إلى هذا المستوى".

وأظهرت سجلات المحادثات بين سام وChatGPT معاناته من القلق والاكتئاب، إضافة إلى نقاشات خطيرة حول خلط مواد مثل القنب مع جرعات مرتفعة من أدوية مهدئة، بل وطرح أسئلة مباشرة عن الجرعات القاتلة من بعض العقاقير والكحول.

وفي تعليق رسمي، أعربت شركة OpenAI عن تعازيها لعائلة الشاب، ووصفت الحادثة بالمأساوية، مؤكدة أن النسخة التي استخدمها نيلسون تعود إلى إصدار قديم، وأن الإصدارات الأحدث باتت تتضمن «ضوابط أمان أقوى» للتعامل مع المحتوى الحساس.

وأضافت الشركة أن أنظمتها مصممة لرفض الطلبات الخطِرة وتشجيع المستخدمين على طلب المساعدة الواقعية، مشيرة إلى استمرار تعاونها مع خبراء صحة نفسية لتحسين الاستجابة لمثل هذه الحالات.

ولفت التقرير إلى أن عائلات أخرى وجّهت اتهامات مشابهة لـChatGPT، من بينها قضية مراهق أميركي توفي بعد استخدام البرنامج للبحث في طرق الانتحار، وهي قضية لا تزال منظورة أمام القضاء، فيما تنفي OpenAI مسؤوليتها القانونية عن تلك الوقائع.

وأشارت والدة سام إلى أنها "منهكة نفسياً" ولا تنوي حالياً اللجوء إلى القضاء، مؤكدة أن خسارة ابنها الوحيد تركت أثراً لا يمكن تعويضه.

منوعات

مساعدة

مأساة:

الـ19

محادثات

ChatGPT...

إليكم

التفاصيل

LBCI التالي
بعد أسابيع من إطلاقه... اختفاء غامض لحساب نورث ويست على إنستغرام
بعد العثور عليه في أحد شوارع إنكلترا... طفل رضيع يصارع الموت: إليكم ما حصل!
LBCI السابق
إشترك لمشاهدة الفيديوهات عبر الانترنت
إشترك
حمل الآن تطبيق LBCI للهواتف المحمولة
للإطلاع على أخر الأخبار أحدث البرامج اليومية في لبنان والعالم
Google Play
App Store
We use
cookies
We use cookies to make
your experience on this
website better.
Accept
Learn More