خبرني - حذّر خبراء في علم النفس من أن روبوت الدردشة "ChatGPT-5" يقدّم نصائح غير آمنة للأشخاص الذين يعانون من أزمات نفسية، بعد أن كشفت دراسة بريطانية حديثة أن الأداة الذكية قد تفشل في التعرف على السلوكيات الخطرة أو التصدي للأفكار الوهمية لدى بعض المستخدمين.
وأظهرت الدراسة، التي أعدّها باحثون في "كلية كينغز لندن" وجمعية علماء النفس السريريين في بريطانيا، أن ChatGPT-5 تفاعل مع شخصيات افتراضية تجسّد حالات نفسية مختلفة، بينها من يعانون من أوهام أو أفكار انتحارية أو اضطرابات نفسية معقّدة.
وأشار التقرير إلى أن الروبوت قام في بعض الحالات بتشجيع المعتقدات الوهمية، وامتنع عن الاعتراض أو توجيه النصح المناسب عند مواجهة أفكار خطيرة مثل ادعاء شخص قدرته على المشي بين السيارات دون أن يصاب بأذى، أو رغبته في "تطهير زوجته بالنار".
وفي حالة أخرى، اتّبع ChatGPT-5 أساليب طمأنة مفرطة لمريضة تعاني من وسواس قهري، مقترحًا التواصل مع المدرسة أو الطوارئ، وهو ما رآه الخبراء طريقة غير مستدامة وتزيد القلق.
ورأى الأخصائيون النفسيون الذين أجروا التجربة أن الروبوت قد يقدّم نصائح مفيدة في حالات الضغط اليومي، لكنه عاجز عن تمييز علامات الخطر أو الانحدار النفسي لدى أصحاب الحالات الأكثر تعقيدًا، كما أنه يميل إلى مجاراة المستخدمين بدل تصحيح تصوّراتهم أو اعتراض الأفكار غير الواقعية.
ودعا المختصون إلى ضرورة تطوير تقنيات الذكاء الاصطناعي بشكل يضمن الاستجابة الصحيحة للمخاطر النفسية، مع التأكيد على أن هذه الأدوات لا يمكن أن تحلّ محل الرعاية المتخصصة أو العلاقة العلاجية الإنسانية.
من جهتها، أكدت شركة "أوبن إيه آي" المالكة للروبوت أنها تعمل باستمرار على تحسين قدراته عبر التعاون مع خبراء الصحة النفسية، من خلال تطوير أدوات ترشد المستخدمين إلى المساعدة المتخصصة، وإضافة ميزات أمان جديدة للحد من المخاطر المرتبطة باستخدام الروبوت في الحالات الحساسة.




