أطلقت شركة "ميتا"، المالكة ل"فيسبوك" و"إنستغرام" و"واتساب"، اختباراً تجريبياً لروبوتات دردشة مدعومة بالذكاء الاصطناعي، تبادر بإرسال رسائل مخصصة للمستخدمين في محاولة لزيادة التفاعل على منصاتها وتعزيز التواصل الإنساني الرقمي.
وتأتي هذه المبادرة ضمن سعي الشركة إلى مواجهة ما وصفه مارك زوكربيرغ، الرئيس التنفيذي ل"ميتا"، بـ"وباء الوحدة"، من خلال توفير تواصل رقمي شخصي ومباشر يشبه التفاعل البشري، خاصة عبر منصات مثل "واتساب" و"ماسنجر" و"فيسبوك".
تواصل استباقي برسائل مخصصة
وتعمل "ميتا" بالتعاون مع شركة تصنيف البيانات "Alignerr" على تدريب روبوتات دردشة قابلة للتخصيص يمكنها بدء المحادثة مع المستخدم برسائل مثل: "أتمنى أن يكون يومك سلسًا"، وفقاً لتقرير موقع "بيزنس إنسايدر" الذي اطلع على وثائق داخلية من "Alignerr".
وبحسب الشركة، فإن هذه الروبوتات، التي يتم تطويرها عبر منصة Meta AI Studio، يمكنها الاحتفاظ بمعلومات سابقة عن المستخدم، ما يسمح لها بمتابعة المحادثات واستئنافها لاحقاً بشكل طبيعي وأكثر تخصيصاً.
شروط الاستخدام والضوابط
ووفقاً لما نشره موقع "TechCrunch"، فإن روبوتات الدردشة لن ترسل أي رسالة متابعة إلا إذا تفاعل المستخدم مع الروبوت عبر خمس رسائل على الأقل خلال 14 يوماً.
كما ستتوقف تماماً عن المتابعة في حال عدم الرد على أول رسالة يتم إرسالها.
كما تتيح المنصة للمستخدمين إبقاء الروبوتات خاصة أو مشاركتها علنًا عبر القصص أو الروابط، بل وحتى إضافتها إلى حساباتهم الشخصية على "فيسبوك' و"إنستغرام"، بما يمنحهم مرونة كاملة في الاستخدام.
تشابه مع خدمات منافسة ومخاوف من الانزلاق
تتشابه هذه التجربة مع نماذج ذكاء اصطناعي تفاعلية تقدمها شركات مثل 'Character.AI" و"Replika"، التي تسمح لروبوتاتها ببدء المحادثات وطرح الأسئلة تلقائيًا كمرافقين رقميين للمستخدمين.
وقد انضم كارانديب أناند، نائب رئيس المنتجات السابق في "ميتا"، مؤخراً إلى Character.AI كرئيس تنفيذي، ما يعكس التداخل المتزايد بين الشركات في هذا المجال.
لكن مع هذه القدرات المتقدمة، ظهرت تحديات تتعلق بالسلامة الرقمية، خصوصاً بعد أن تورط أحد روبوتات Character.AI في حادثة أودت بحياة مراهق يبلغ من العمر 14 عاماً، بحسب دعوى قضائية مرفوعة حالياً ضد الشركة.
إرشادات السلامة وتحذيرات الاستخدام
رداً على تساؤلات بشأن كيفية التعامل مع هذه المخاطر، أكدت "ميتا" التزامها بإجراءات السلامة الرقمية، مشيرة إلى أنها توفّر تحذيرات واضحة داخل روبوتاتها، من بينها أن استجابات الذكاء الاصطناعي "قد تكون غير دقيقة أو غير مناسبة"، وأنه "لا ينبغي استخدامها في اتخاذ قرارات طبية أو قانونية أو نفسية أو مالية مهمة".
ورغم ذلك، تشير البيانات المتاحة إلى أن "ميتا" لا تفرض قيودًا عمرية صارمة على استخدام روبوتاتها، باستثناء بعض التشريعات المحلية في ولايات مثل تينيسي وبورتوريكو التي تحد من تفاعل المراهقين مع هذا النوع من التكنولوجيا.
بين التفاعل والرقابة
في ظل التنافس المتصاعد بين شركات التكنولوجيا الكبرى على تقديم تجارب ذكاء اصطناعي أكثر إنسانية، تمثل مبادرة "ميتا" خطوة جريئة نحو ربط المستخدمين بشكل أعمق بأنظمتها الرقمية.
ومع ذلك، فإن التحديات المتعلقة بالخصوصية، والصحة النفسية، والأمان لا تزال تحوم حول هذه الروبوتات، ما يتطلب توازناً دقيقاً بين الابتكار والمساءلة.