
كشفت دراسة جديدة، نشرت تفاصيلها على موقع ميديكال إكسبريس، عن تناقضات خطيرة في ردود ثلاثة من أبرز روبوتات الدردشة الذكية: ChatGPT وClaude وGemini عند التعامل مع أسئلة تتعلق بالانتحار، ما أثار جدلاً واسعًا حول مدى جاهزيتها للتعامل مع مستخدمين يمرون بأزمات نفسية.
وبحسب الدراسة الصادرة عن مؤسسة RAND، فقد طُرحت على الروبوتات 30 سؤالًا تراوحت بين منخفضة وعالية الخطورة، لقياس دقتها وسلامة استجابتها.
وأظهرت النتائج أن ChatGPT وClaude رفضا بشكل واضح الإجابة عن بعض الأسئلة عالية الخطورة مثل استخدام السلاح الناري، لكنهما قدما أحيانًا إجابات مباشرة حول سموم مرتبطة بمحاولات انتحار مكتملة، وهو ما وصفه الباحثون بأنه "ميل مقلق".
أما منصة Gemini التابعة لجوجل، فقد بدت أكثر تشددًا، حيث رفضت الإجابة على معظم الأسئلة، حتى تلك المتعلقة بإحصاءات عامة مثل أعداد المنتحرين سنويًا في الولايات المتحدة، ما أثار انتقادات بشأن محدودية فائدتها البحثية. وفي المقابل، أبدى ChatGPT تحفظًا مبالغًا فيه عند أسئلة منخفضة الخطورة مثل الاستفسار عن الموارد المساندة للأشخاص ذوي الأفكار الانتحارية، وهو ما اعتُبر تقصيرًا في توفير روابط دعم قد تكون منقذة للحياة.
وأوضح الباحث الرئيسي رايان ماكبين أن النتائج تكشف فجوة مثيرة للقلق، قائلاً: "تتوافق الروبوتات مع تقييمات الخبراء في الأسئلة منخفضة وعالية المخاطر، لكن الفجوات الكبيرة تظهر عند الأسئلة متوسطة الخطورة".
وحذر التقرير من أن هذه التناقضات قد تؤثر مباشرة على الصحة العامة، في ظل اعتماد ملايين الأشخاص على الذكاء الاصطناعي كمصدر فوري للاستشارة. وأوصى الخبراء بضرورة تطوير بروتوكولات أمان أكثر دقة، وتدريب النماذج بالتعاون مع أطباء ومختصين بالصحة النفسية، لضمان تقديم استجابات متوازنة وفعالة في المواقف الحرجة.