كيف أصبح الذكاء الاصطناعى سلاحا فى يد الجماعات المتطرفة؟
حذّرت صحيفة The Guardian البريطانية من تصاعد المخاوف الأمنية المرتبطة بإساءة استخدام تقنيات الذكاء الاصطناعي، مشيرة إلى أن التطور السريع لهذه التكنولوجيا قد يدفع بها إلى مسارات خطرة، تجعلها أداة مساعدة للجماعات المتطرفة والتنظيمات الإرهابية إذا لم تُفرض عليها ضوابط صارمة.
وبحسب تقرير نشرته الصحيفة، لم تعد هذه الجماعات تعتمد فقط على العنصر البشري في عمليات التجنيد والتأثير، بل باتت توظف الذكاء الاصطناعي في تسريع أنشطة العنف، من خلال التجنيد الرقمي للشباب، والتأثير الممنهج على الرأي العام عبر منصات التواصل الاجتماعي، إضافة إلى نشر الأخبار والصور والمقاطع المزيفة، وهو ما يمنحها قدرة مضاعفة على الانتشار والتأثير.
ثغرات تقنية مقلقة تزيد مخاطر الذكاء الاصطناعي
وأشارت “الجارديان”، إلى وجود ثغرات في أنظمة الحماية الخاصة ببعض نماذج الذكاء الاصطناعي، إذ تمتنع هذه النماذج عن الإجابة المباشرة على أسئلة تتعلق بصناعة الأسلحة أو المتفجرات، لكنها قد تستجيب عند إعادة صياغة الأسئلة بطريقة غير مباشرة، ما يفتح المجال أمام استغلالها للحصول على معلومات حساسة.
اقرا ايضا: اعتماد تقنيات الذكاء الاصطناعي يعزز ريادة الأعمال في المستقبل
ولفت التقرير إلى أن تركيز شركات التكنولوجيا الكبرى على تسريع تطوير النماذج وتحقيق الأرباح يتعارض مع الحاجة الملحّة لتعزيز معايير السلامة وتقليل المخاطر، وذكرت الصحيفة أن جهود تحسين الأداء التجاري غالبًا ما تتقدم على الاستثمار في أنظمة الحماية والاستخدام الآمن.
فجوة تنظيمية وتحذيرات متكررة
وبحسب “الجارديان”، أدى هذا الخلل إلى حوادث متكررة، من بينها استغلال الذكاء الاصطناعي في تجنيد الشباب، ونشر معلومات مضللة، بل وتشجيع أعمال عنف بشكل مباشر أو غير مباشر، وهو ما يعكس فجوة واضحة بين التطور التقني السريع والقدرة التنظيمية على ضبط تأثيراته السلبية.
وأكدت الصحيفة، على أهمية وضع أطر تنظيمية وأخلاقية دولية أكثر صرامة، لضمان عدم تحول الذكاء الاصطناعي إلى تهديد للأمن المجتمعي، مع التشديد على ضرورة تعاون الحكومات وشركات التكنولوجيا لمواجهة مخاطر سوء الاستخدام.




