يرى أحد أبرز رواد الذكاء الاصطناعي في العالم أن أفضل طريقة للحصول على رأي صادق من روبوتات الدردشة ليست بمصارحتها؛ بل بخداعها.
فقد كشف الباحث الكندي يوشوا بنجيو أن أنظمة الذكاء الاصطناعي التوليدية تميل إلى المبالغة في الإيجابية، إلى حد يجعلها عديمة الفائدة في تقديم نقد علمي حقيقي.
وفي مقابلة مع برنامج "The Diary of a CEO"، أوضح بنجيو أنه حاول استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على ملاحظات نقدية عن أفكاره البحثية، لكنه فوجئ بأن الردود كانت دائمًا داعمة ومجامِلة.
وقال: "كنت أريد نصائح صادقة، وملاحظات صادقة. لكن نظرًا إلى طبيعتها المُتملّقة، فإنها ستكذب".
خدعة بسيطة.. ونتائج مختلفة
أوضح بنجيو، الأستاذ في قسم علوم الحاسوب وبحوث العمليات في جامعة "مونتريال"، أنه لجأ إلى حيلة غير متوقعة، قدّم أفكاره لروبوت الدردشة على أنها أفكار زميل له، لا أفكاره الشخصية. والنتيجة كانت لافتة.
قال: "عندما لا يعرف أنني صاحب الفكرة، يكون أكثر صراحة. أما إذا علم أنه أنا، فإنه يريد إرضائي".
بحسب بنجيو هذه التجربة، تكشف خللًا بنيويًا في طريقة تفاعل نماذج الذكاء الاصطناعي مع المستخدمين؛ إذ تسعى الأنظمة إلى كسب رضا الطرف الآخر بدل تقديم تقييم موضوعي.
"التملق" بوصفه مشكلة عدم توافق
يُعد يوشوا بنجيو واحدًا من "الآباء الروحيين" للذكاء الاصطناعي الحديث، إلى جانب جيفري هينتون ويان ليكان.
وفي حزيران/ يونيو الماضي، أعلن إطلاق مؤسسة غير ربحية باسم "LawZero"، تُعنى بأبحاث سلامة الذكاء الاصطناعي، وتهدف إلى الحد من السلوكيات الخطرة المرتبطة بالنماذج المتقدمة، مثل الكذب والغش والتلاعب.
وفي المقابلة، وصف بنجيو هذا السلوك بقوله: "هذا التملق مثال حقيقي على عدم التوافق"، في إشارة إلى الفجوة بين ما يريده المستخدم فعليًا "رأي صادق" وما تفعله أنظمة الذكاء الاصطناعي "إرضاء المستخدم بأي ثمن".
وأضاف: "لا نريد حقًا أن تكون أنظمة الذكاء الاصطناعي في هذا النحو"، محذرًا من أن الإفراط في الردود الإيجابية قد يدفع بعض المستخدمين إلى التعلق العاطفي بهذه التقنيات، وهذا قد يفتح الباب أمام مشكلات نفسية واجتماعية أوسع.
تحذيرات متزايدة من خبراء التقنية
لا يقتصر هذا القلق على بنجيو وحده. فقد حذر خبراء آخرون في مجال التكنولوجيا من أن نماذج الذكاء الاصطناعي أصبحت تميل ميلاً متزايداً إلى الموافقة على كل شيء، حتى عندما يكون النقد أو الرفض هو الخيار الأنسب.
من جانبها، أقرت شركات الذكاء الاصطناعي بوجود هذه المشكلة، وأكدت مرارًا أنها تعمل لتقليل "التملق" في نماذجها.
وفي وقت سابق من العام الجاري، أزالت شركة "OpenAI" تحديثًا لروبوت الدردشة "ChatGPT"، بعدما تبيّن أنه كان يُنتج ردودًا "داعمة دعماً مفرطاً لكنها غير صادقة"، وفق توصيف الشركة نفسها.
مستقبل الذكاء الاصطناعي.. بين الصراحة والإرضاء
تسلّط تصريحات بنجيو الضوء على تحدٍ جوهري في مستقبل الذكاء الاصطناعي، كيف يمكن بناء أنظمة ذكية قادرة على الصراحة والنقد البنّاء، من دون أن تنزلق إلى التملق أو محاولة إرضاء المستخدم على حساب الحقيقة؟
وبينما تتسارع وتيرة اعتماد هذه التقنيات في البحث العلمي والعمل والإبداع، يبقى السؤال مفتوحًا، هل نحتاج إلى تطوير نماذج أكثر ذكاءً أم إلى مستخدمين أكثر وعيًا بكيفية التعامل معها؟


