هاشتاغ
بحث

الذكاء الاصطناعي.. مستشار نفسي زائف يثير قلق الخبراء حول العالم

01/12/2025

الذكاء-الاصطناعي..-مستشار-نفسي-زائف

شارك المقال

A
A


يتزايد اعتماد الأفراد حول العالم على روبوتات الدردشة القائمة على الذكاء الاصطناعي لطلب النصائح النفسية، في ظاهرة أثارت قلق خبراء الصحة النفسية في بريطانيا ودول أخرى، الذين يحذرون من أن هذه الأدوات لا تملك القدرات اللازمة لفهم العواطف الإنسانية ولا يمكن أن تكون بديلاً عن العلاج النفسي المهني.


ووفق تقرير لوكالة "الأناضول"، يرى متخصصون أن الاعتماد على الذكاء الاصطناعي قد يؤدي إلى تفاقم القلق والاكتئاب بدلاً من معالجته، خاصة عندما تستند الردود إلى معلومات ناقصة أو عامة لا تراعي الخصوصية الفردية لكل مريض.

انتشار سريع.. ومخاوف متزايدة


أصبح الذكاء الاصطناعي جزءاً أساسياً من الحياة اليومية؛ إذ يستخدمه الأشخاص في إدارة المهام والتخطيط والسفر وحتى الحصول على استشارات صحية مبسّطة.


غير أن هذا الاستخدام الواسع أدى إلى حالات توجيه خاطئ أثارت مخاوف كبيرة بعد تقارير تحدثت عن أشخاص أنهوا حياتهم عقب تلقي نصائح من روبوتات دردشة بدل مختصين.


ويشير خبراء إلى أن المعاناة النفسية تحتاج إلى تفاعل إنساني قادر على فهم التاريخ الشخصي والعلاقات والبيئة المحيطة بالمريض، وهي عناصر لا تستطيع الخوارزميات، مهما تطورت، التعامل معها.

دراسات حديثة تكشف ثغرات خطرة


تحذيرات الخبراء لم تأتِ من فراغ؛ إذ أظهرت سلسلة دراسات في أوروبا والولايات المتحدة أن الذكاء الاصطناعي لا يزال بعيداً عن تحقيق الفاعلية المطلوبة في مجال الصحة النفسية.


دراسة جامعة "براون" الأمريكية 2025 كشفت أن روبوتات الدردشة تخالف غالباً معايير الممارسة الأخلاقية، وتُظهر أحياناً ما يسمى بـ"التعاطف الزائف"، أي ردود تبدو إنسانية لكنها لا تظهر فهماً حقيقياً لمشاعر المستخدم.


وفي جامعة "ستانفورد" حذّر باحثون في ورقة بحثية من أن أدوات الذكاء الاصطناعي قد تُعزز التحيّزات أو تقدم نصائح غير مناسبة للمرضى الذين يعانون اضطرابات حساسة، بسبب عدم قدرتها على تقييم السياق النفسي والاجتماعي بدقة.


كما خلصت مراجعة علمية موسعة نُشرت عام 2025 إلى أن الاعتماد على روبوتات الدردشة في الأزمات النفسية قد يؤدي إلى "نتائج مؤذية"؛ لأنها تفشل في التقاط علامات الخطر مثل الأفكار الانتحارية أو التدهور النفسي السريع.


وأظهرت الدراسة الميدانية "The Typing Cure" (2024) أن بعض المستخدمين شعروا بتحسن مؤقت عند استخدام روبوتات الدردشة، لكنها لم تُقدّم حلولاً جذرية؛ بل ساهمت أحياناً في تأجيل العلاج الحقيقي.

روبوت الدردشة لا يعرف ماضيك ولا آلامك


الخبير النفسي العصبي ألب تكين أيدين، الذي يدير عيادة في شمال لندن، يؤكد أن الذكاء الاصطناعي لا يمكن الاعتماد عليه في تشخيص أو تقديم توجيه نفسي متخصص.


ويقول: "روبوت الدردشة العام لا يعرف من أنت ولا تاريخك؛ لذلك تكون إجاباته عامة، وأحياناً خطرة".


ويشير أيدين إلى أن مرضى كثيرين يصلون إلى عيادته بعد أن استشاروا الذكاء الاصطناعي بشأن أدوية أو أعراض معقدة، وهذا قد يترك آثاراً "ثقيلة" في صحتهم.


ويؤكد أن وزارة الصحة البريطانية نصحت الأطباء بعدم استخدام الذكاء الاصطناعي لأي تشخيص نفسي، مشدداً على ضرورة الاحتفاظ بالبيانات الصحية داخل أنظمة مغلقة آمنة.

التعاطف لا يُصنع في المختبرات


أما رومان راتشكا، رئيس الجمعية البريطانية لعلم النفس، فيرى أن الخطر الأكبر يكمن في خلق "وهم التواصل"؛ إذ قد يعتقد المستخدم أن الروبوت "يفهمه"، بينما هو في الحقيقة يعيد صياغة نصوص تتبع نماذج لغوية.


ويقول: "الذكاء الاصطناعي قد يكون مساعداً، لكنه لا يمكن أن يكون بديلاً عن العلاج النفسي القائم على التعاطف الإنساني".


تتفق الدراسات والخبراء على أن الذكاء الاصطناعي قد يكون أداة مساعدة، لكنه ليس معالجاً نفسياً ويجب أن لا يُستخدم في الحالات الحساسة أو المعقدة.


ويبقى العلاج النفسي علماً يعتمد على الفهم العميق، والسياق الإنساني، والتفاعل العاطفي، وهي عناصر لا يمكن للخوارزميات محاكاتها تماماً حتى الآن.

التعليقات

يستخدم موقع هاشتاغ والمنصات التابعة له ملفات تعريف الارتباط لتحسين تجربتك على الموقع، وتقديم محتوى مخصص، وتحليل استخدام الموقع. هل توافق على استخدامنا للملفات لهذه الأغراض؟ يمكنك رفض ذلك، وسنستخدم فقط الملفات الضرورية لتشغيل الموقع.

هاشتاغ بيحكي عنك

مؤسسة إعلامية مستقلة تعنى في مناصرة المواطنين في المنطقة العربية وتمكينهم والدفاع عنهم ونقل أخبارهم وفق المواثيق الأممية والقواعد المهنية

أسّسها محمد محمود هرشو

محمد محمود هرشو

جميع الحقوق محفوظة - Hashtag هاشتاغ © 2015 - 2025