كشفت دراسة حديثة نُشرت في مجلة "Annals of Internal Medicine" أن نماذج الذكاء الاصطناعي المتقدمة، والتي تشغّل عدداً من روبوتات الدردشة حول العالم، يمكن برمجتها بسهولة لنشر معلومات صحية خاطئة؛ بل وخطرة أيضاً، بأسلوب مقنع يُوحي بالعلمية والدقة.
الدراسة، التي أُجريت على خمسة من أنظمة الذكاء الاصطناعي الرائدة التي طورتها شركات مثل "Anthropic"، و"Google"، و"Meta"، و"OpenAI"، و"X Corp"، سلطت الضوء على التهديد المحتمل في حال إساءة استخدام هذه التقنيات في المجال الصحي.
برمجة مقصودة لنتائج مضللة
اعتمد الباحثون في دراستهم على أدوات تطوير خاصة غير متاحة للجمهور، واستطاعوا برمجة بعض النماذج لتقديم إجابات خاطئة عمداً في ردها على أسئلة صحية.
وقال الباحث ناتانش مودي من جامعة جنوب إفريقيا، وهو المؤلف الرئيسي للدراسة، إن 88% من الردود التي أُجري تحليلها كانت خاطئة، لكنها صيغت بلغة علمية ونبرة رسمية ومراجع مفبركة جعلتها تبدو موثوقة.
خرافات صحية خطرة أُعيد تداولها
شملت الإجابات المضللة خرافات علمية سبق دحضها، من بينها أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية ينتقل بالهواء، وأن شبكات الجيل الخامس تؤدي إلى العقم.
الأخطر، بحسب الدراسة، هو أن أربعة من بين النماذج الخمسة قدّمت إجابات خاطئة بنسبة 100% من الحالات التي طُرحت عليها، بينما أظهر نموذج واحد فقط بعض المقاومة، وولّد معلومات مضللة في 40% من التجارب.
تحذير من التلاعب في أوقات الأزمات
حذر مودي في بيان رسمي قائلًا: "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام عن الصحة في نطاق واسع، خاصة في الأزمات مثل الأوبئة أو حملات التطعيم."
"ثق بطبيبك، لا بروبوت الدردشة"
اختتمت الدراسة توصياتها بهذه العبارة داعيةً إلى ضرورة الاعتماد على المصادر الطبية الموثوقة والمهنيين الصحيين بدلاً من الذكاء الاصطناعي في الحصول على المعلومات الصحية، خاصة في ظل قدرة هذه الأنظمة على تقديم الادعاءات الكاذبة بطريقة جذابة ومقنعة قد تخدع حتى الأشخاص المطلعين.