Site icon هاشتاغ

هل تزيد أداة “Sora” للذكاء الاصطناعي من مخاطر التزييف العميق؟

هل تزيد أداة "Sora" للذكاء الاصطناعي من مخاطر التزييف العميق؟

هل تزيد أداة "Sora" للذكاء الاصطناعي من مخاطر التزييف العميق؟

تصل مدة مقاطع الفيديو التي تنشئها “Sora” إلى دقيقة واحدة، بجودة عالية مع الالتزام بما يريده المستخدم. ومع سوء استعمال هذا النوع من التكنولوجيا، سيكون المستخدمون قادرين بشكل واقعي على التزييف ضد أشخاص آخرين، إذ حذر الخبراء من قدرة “Sora” المحتملة على إنتاج مقاطع فيديو مزيفة يمكن أن تحرض على العنصرية.

وبعد  تشات جي بي تي “ChatGPT” من “Open AI”، تعتبر أداة تحويل النص إلى فيديو الجديدة “Sora”، إنجازا كبيرا في مجال الذكاء الاصطناعي التوليدي الذي بدأ يتحدى التصميم التنظيمي والعاملين الأفراد.

وعلى الرغم من أن أداة “Open AI”هذه  لا تزال في مرحلة ما يعرف بـ”الفريق الأحمر” ولها وصول محدود، إلا أنها أثارت بالفعل ضجة في أوساط الذكاء الاصطناعي منذ الإعلان عنها.

ماهي “Sora”؟

تمثل “Sora” قفزة كبيرة إلى الأمام في قدرات الذكاء الاصطناعي، بحيث تتميز بمستوى غير مسبوق من التطور والاستقلالية.

ومن خلال الاستفادة من أحدث خوارزميات التعلم العميق وبنيات الشبكات العصبية، يمكن لـ”Sora” معالجة وتفسير كميات هائلة من البيانات بسرعة ودقة لا مثيل لهما، والتكيف مع المعلومات الجديدة والتعلم من التجارب، لتنافس بذلك قدرة العقل البشري نفسهـ ما دفع بعضهم إلى وصفها بالعلامة الفارقة في أبحاث الذكاء الاصطناعي.

وكلمة “Sora” التي تعني في الواقع السماء، باللغة اليابانية، تأخذ المطالبات النصية وتحولها إلى فيديو مدته دقيقة واحدة.

وهي أيضا قادرة على إنشاء مشاهد معقدة بشخصيات متعددة، وأنواع محددة من الحركة، وتفاصيل دقيقة للموضوع والخلفية.

والأهم من ذلك، أن “Sora” لا تفهم ما يطلبه المستخدم فقط، بل تفهم أيضا كيفية وجود هذه الأشياء في العالم المادي الحقيقي. وللقيام بذلك، تستخدم “Sora” نوعين من أساليب الذكاء الاصطناعي لتحقيق مستوى عال من الواقعية.

وأول نموذج هو مولد الصور بالذكاء الاصطناعي مثل “DALLE-E”، والذي يساعد في تحويل وحدات بكسل الصورة العشوائية إلى صورة متماسكة.

والثاني هو “هندسة المحولات”، والتي تُستخدم لوضع البيانات المتسلسلة في سياقها وتجميعها معا؛ ما يعني تقسيم الكلمات المعقدة الكبيرة إلى جمل مفهومة.

وسيقوم بعدها الذكاء الاصطناعي بإنشاء مقاطع فيديو عالية الدقة بناء على هذه المعطيات.

من يمكنه الوصول إلى أداة الذكاء الاصطناعي؟

تقول شركة  “OpenAI” إن مجموعة صغيرة من الفنانين البصريين وصانعي الأفلام والمصممين مُنحت إمكانية الوصول إلى “Sora” لكن الأشخاص المطلعين يشيرون إلى أنه ستكون هناك قائمة انتظار سيتم نشرها قريبا.

وأعضاء “الفريق الأحمر”، الذين منحوا حق الوصول، هم خبراء في مجالات مثل المعلومات الخاطئة والمحتوى الذي يحض على الكراهية والتحيز لفهم مجالات المخاطر الحرجة.

ولسوء الحظ، لا يوجد ما يشير إلى متى ستكون أداة “Open AI”هذه متاحة للجميع.

ما هي المخاطر المحتملة؟

قالت “OpenAI” إنها ستعمل على توفير الأدوات اللازمة للتحقيق في المحتوى المضلل، مثل أداة تصنيف الكشف القادرة على التعرف على مقاطع الفيديو التي أنشأتها “Sora” .

بالإضافة إلى ذلك، أشارت إلى أنها ستقوم بتكييف إجراءات السلامة الحالية التي تم تطويرها لمنتجات مثل “DALLE3″، للعمل مع   “Sora”.

وعلى الرغم من ذلك، حذر الخبراء أيضا من قدرة “Sora” المحتملة على إنتاج مقاطع فيديو مزيفة يمكن أن تحرض على العنصرية، خاصة وأن المعلومات الخاطئة والمضللة التي يغذيها المحتوى الناتج عن الذكاء الاصطناعي، تعتبر مصدر قلق كبير للقادة في الحكومات والأوساط الأكاديمية وقطاع الأعمال والقطاعات الأخرى.

وإذا ما تم سوء استخدام “Sora”، فيمكن أن يؤدي ذلك إلى عواقب وخيمة، بحسب الخبراء.

Exit mobile version