الخميس, أكتوبر 3, 2024
- إعلان -spot_img

الأكثر قراءة

الرئيسيةمنوعاتكيف يجعل الذكاء الاصطناعي عالم الجريمة أكثر خطراً؟

كيف يجعل الذكاء الاصطناعي عالم الجريمة أكثر خطراً؟

سلّطت شبكة “سكاي نيوز” البريطانية في تقرير لها، الضوء على الذكاء الاصطناعي، وكيف يمكن أن يغيّر مستقبل الجريمة في العالم.

ومن الهجمات الإرهابية وإساءة معاملة الأطفال إلى مؤامرات الابتزاز والخطف والاحتيال والتجسس على الشركات، تأتي ثورة الذكاء الاصطناعي بخطر كبير، تماماً كما هو الحال مع الفوائد العظيمة التي تقدمها هذه التقنية.

وفيما يلي، استعراض للطرق التي يتم بها استغلال الذكاء الاصطناعي في عالم الجريمة، والتي يحذر خبراء حول العالم منها ويدعون إلى اتخاذ الحيطة بشأنها.

• التزييف العميق ومؤامرات الابتزاز

يتم استغلال تقنيات الذكاء الاصطناعي في “التزييف العميق” للصور أو مقاطع الفيديو، والتي يمكن أن تُظهر شخصاً ما يفعل شيئاً لم يفعله، مما يؤدي إلى تنفيذ مؤامرات ابتزاز.

ويمكن تركيب وجه شخص في مقطع مزيف، بما في ذلك القدرة على وضع وجه جديد على فيديو إباحي.

وقال البروفيسور لويس غريفين، أحد مؤلفي ورقة بحثية نشرها مركز “داوس” للجريمة المستقبلية بجامعة “يونيفيرسيتي كوليدج” لندن عام 2020، والتي صنفت الاستخدامات غير القانونية المحتملة للذكاء الاصطناعي، “إنه أمر مزعج للغاية”.

وحذّر من أنه يتم استخدام هذه التقنية “لاستغلال الأطفال”، موضحاً: “إساءة معاملة الأطفال باستخدام الذكاء الاصطناعي مرعبة، ويمكنهم فعل ذلك الآن”.

وأضاف: “يمكنك تخيل أن يرسل شخص ما مقطع فيديو إلى أحد الوالدين، يظهر طفلهما بوضع مخل، ويهدد بنشره”.

• سرقة الأموال الكبيرة

وقد يكون من الممكن قريباً ظهور “مجموعة جديدة من الجرائم” مع ظهور نماذج لغة كبيرة من برامج الذكاء الاصطناعي، يمكنها الانتقال إلى مواقع الويب والتصرف “كشخص ذكي” بناء على أوامر من المستخدم، من خلال إنشاء حسابات وملىء النماذج وشراء أشياء، حسبما يقول غريفين.

وتابع: “بمجرد أن يكون لديك نظام للقيام بذلك، بمجرد أن تقول هذا ما أريدك أن تفعله، فهناك كل أنواع الأشياء الاحتيالية التي يمكن القيام بها على هذا النحو”.

وأشار إلى أن سوء الاستخدام قد يدفع البعض للتقدم بطلب للحصول على قروض احتيالية. والتلاعب بالأسعار من خلال الظهور بمظهر “مستثمرين صغار”.

• حيل الخطف وانتحال الهوية

وباستخدام هذه التقنية أيضاً، يمكن للمحتالين أن يستغلوا تقنية تركيب الأصوات لانتحال هوية شخص آخر، لاستخدامها في عمليات خطف وهمية.

على سبيل المثال، قد يستغل المجرمون تركيب بصمة الصوت لشخص ما.. للاتصال بذويه وإبلاغهم بأنه مخطوف، مطالبا بدفع مبلغ معين كفدية لإطلاق سراحه.

وبعد الجدل الذي أثاره الذكاء الاصطناعي على مستوى العالم.. بدأت هيئات تشريعية بتمرير قوانين في محاولة منها لمواجهة الخطر القادم من التكنولوجيا المتطورة.

وأشار غريفين إلى أن انتحال الهوية الصوتية أو المرئية لشخص، “زادت بشكل أسرع بكثير مما كان متوقعاً”.

وفي عام 2019، قام الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة.. بتحويل 220 ألف يورو “241.2 ألف دولار أميركي” إلى محتالين يستخدمون الذكاء الاصطناعي لانتحال شخصية رئيسه، وفقاً للتقارير.

وقال غريفين إن مثل هذه الحيل “يمكن أن تكون أكثر فاعلية إذا تم دعمها بالفيديو.. ويمكن استخدام التكنولوجيا للتجسس على الشركات، مع ظهور موظف مخادع في في اجتماع عبر “زوم” للحصول على معلومات.. دون الحاجة إلى قول الكثير.

وأضاف أن عمليات الاحتيال هذه يمكن أن تزداد على نطاق واسع.. مع احتمال أن تكون الروبوتات التي تستخدم لهجة محلية أكثر فاعلية في خداع الناس من المحتالين الذين يديرون حاليا المؤسسات الإجرامية التي تعمل من دول آسيوية.

محتوى إرهابي

تتيح بعض تطبيقات الذكاء الاصطناعي النقاش مع الأشخاص حتى في المحتوى المتطرف من خلال البرامج التي تتعلم أساليب المستخدمين لتقليدهم.. مما يؤدي إلى تبادل الأفكار والنقاشات التي يمكن أن تؤدي إلى أعمال إرهابية.

وتمثل برامج الدردشة باستخدام الذكاء الاصطناعي “المرحلة التالية” بالنسبة للأشخاص الذين يجدون متطرفين متشابهين في التفكير عبر الإنترنت.. كما قال المراجع الحكومي المستقل لقانون الإرهاب، جوناثان هول كيه في تصريح للشبكة.

وحذّر من أن التشريع الحكومي الرئيسي للسلامة على الإنترنت – مشروع قانون الأمان على الإنترنت – سيجد أنه “من المستحيل” التعامل مع محتوى الإرهاب الناتج عن الذكاء الاصطناعي.

وسيضع القانون المسؤولية على الشركات لإزالة المحتوى الإرهابي.. لكن عملياتها تعتمد عموماً على قواعد بيانات المواد المعروفة.. والتي لن تلتقط الخطاب الجديد الذي تم إنشاؤه بواسطة روبوت محادثة للذكاء الاصطناعي.

لتصلك أحدث الأخبار يمكنك متابعة قناتنا على التلغرام
مقالات ذات صلة