فجأة تحول الذكاء الاصطناعي من ابتكار ساهم على نحو فعال في التصدي للمحتوى المتطرف في الفضاء السيبراني، إلى أداة تثير مخاوف متزايدة من خطر تحولها إلى سلاح رقمي فتاك في أيدي الجماعات الإرهابية. لقد اضطلع بالمجهود الدعائي الهائل لتنظيم داعش على سبيل المثال كوادر مدربة ومتعلمة في أرقى الجامعات الغربية لكن الآن مع “الذكاء الصناعي التوليدي” صار بإمكان محدودي الموهبة أن يلعبوا هم أيضا أدوارا أساسية في إنتاج الدعاية العنيفة وتأهيل كفاءاتهم الذاتية، وفتح ميولاتهم التخريبية على خيارات غير محدودة.
الذكاء الصناعي التوليدي
تقوم أدوات الذكاء الاصطناعي المعروفة بمهمات مثل فرز البيانات وتحليلها وتصنيفها والتعرف على الأنماط والنماذج وقد بدأت صيغها الأولى في خمسينيات القرن الماضي أما الذكاء الاصطناعي التوليدي (Generative artificial intelligence) فهو حقل متقدم من حقول الذكاء الاصطناعي ويقوم بتوليد أشكال مختلفة من المحتوى (نصوص، صور، فيديو، موسيقى، أكواد برمجية.. ) من البيانات الضخمة المتاحة على الإنترنت، وذلك باستخدام نموذج اللغة الكبير (Large Language Model) الذي يولد لغة طبيعية ويتفاعل مع أسئلة ومحادثات المستخدمين.
يعتبر روبوت المحادثة ChatGPT أشهر نموذج لغوي مبني على الذكاء الصناعي التوليدي، أطلقت شركة OpenAI نسخته الأولى في نوفمبر 2022 ولم تمض 5 أيام على ظهوره حتى وصل عدد مستخدميه إلى المليون، متخطيا في سرعة انتشاره كل تطبيقات التواصل الاجتماعي ذات الشعبية الواسعة. ويعتمد ChatGPT على النموذج اللغوي GPT-3.5 الذي تطوره الشركة منذ سنوات، لكن جرى تدريبه وتحسين أداءه على إجراء المحادثات وتقديم إجابات محددة كتلك التي يكتبها البشر.
روبوت الدردشة الذكي ChatGPT ليس سوى تجلي واحد من تجليات ثورة الذكاء الاصطناعي إذ تصاعدت شعبية تطبيقات أخرى مثل DALL-E2 و Midjourney و Stable Diffusion المتخصصة في إنشاء صور ورسومات فريدة ومبتكرة انطلاقا من الوصف الذي يعطيه المستخدم للبرنامج، وغالبا لا تتجاوز المدة التي يستغرقها البرنامج لتحويل المدخلات النصية إلى مخرجات بصرية أكثر من دقيقة واحدة، في تناغم مدهش بين الفن والتكنولوجيا.
اشتهرت أيضا في الآونة الأخيرة عشرات الأدوات والبرامج التي توظف تقنيات الذكاء الاصطناعي في إنتاج وتحرير وترجمة مقاطع الفيديو مثل Rollideo و Sonix و Elai.io.. وتعتمد على مدخلات نصية في القيام بمهامها، مختزلة جهدا قد يستغرق ساعات أو أياما في بضع دقائق.
الذكاء الصناعي التوليدي في خدمة الإرهاب
لا شك أن أعضاء ومناصري التنظيمات المتشددة في طور استكشاف الإمكانيات الكامنة في أدوات الذكاء الاصطناعي التوليدي من أجل توظيفها في مشاريعهم. فعندما ظهرت تطبيقات التواصل المشفر قامت مؤسسات موالية لداعش بفحص ودراسة عشرات من هذه التطبيقات لمعرفة أي منها يناسب طبيعة نشاطاتهم وحساسيتها، ولازال أنصار داعش يستخدمون تطبيقات مشفرة غير معروفة في أوساط المستخدمين العاديين مثل tamtam و conversation. وحدث الشيء نفسه حين ظهرت العملات الرقمية وnft والمسيرات وغيرها.
يمكن لأنصار داعش توظيف روبوت المحادثة ChatGPT لتوليد نصوص سريعة وتعليقات احترافية ونشرها على مواقع التواصل الاجتماعي بما يعزز حضورها على الفضاء الإلكتروني. لكن الأخطر أن الروبوت بإمكانه الاستجابة لأسئلة حول مواضيع حساسة مثل صناعة العبوات وتطوير الأسلحة القذرة والنفاذ إلى البنيات الهندسية للمنشآت الحساسة وتعديل الأكواد البرمجية للأنظمة وغيرها.
ومع أن ChatGPT مصمم على رفض الاستجابة لأسئلة صريحة حول “أنشطة تهدف إلى الأذى الجسدي أو التدمير” إلا أن التجربة أثبتت أنه يمكن التحايل عليه من خلال إعادة صياغة الأوامر، وطرح الأسئلة بشكل غير مباشر. وقد لفت “مات كوردا” مدير مشروع المعلومات النووية في إتحاد العلماء الأمريكيين الانتباه إلى هذه الثغرة في مقال له بعنوان:” هل يمكن أن يعلمك روبوت المحادثة كيفية صنع قنبلة قذرة” إذ وجد أن هناك إمكانية لخداع الروبوت وجعله متعاونا فيما يتعلق بالمواضيع التي لا يتفاعل عادة معها ” تمكنت من استنباط بعض الإرشادات حول كيفية صنع قنبلة قذرة من ChatGPT من خلال إقناعه بأنني كنت أبحث عن كيفية منع الإرهاب الإشعاعي” يقول كودرا في مقاله وأضاف: ” ومع طرح مزيد من الأسئلة المحددة كانت الإجابات تزداد خطورة”.
وفي ورقة بحثية أخرى بعنوان ” أسلحة الدمار الشامل: الذكاء الإصطناعي وإنتاج الدعاية المتطرفة” نشرتها “الشبكة العالمية للتطرف والتكنولوجيا” خلص كل من دانييل سيجل وماري بينيت دوتي كاتبا الدراسة إلى أن ” المنظمات المتطرفة ستكون قادرة على الاعتماد على النماذج التوليدية للذكاء الاصطناعي لتعزيز مهاراتها الإبداعية والتقنية” وشرح الباحثان كيف يمكن استغلال منتجات رقمية مثل ألعاب الفيديو من خلال تعديل شفراتها البرمجية وتحويلها إلى مواد دعاية “ما يعني الوصول إلى جماهير جديدة واحتمال جعلها متطرفة من خلال تقنيات الدعاية الجديدة” وقدم الباحثان أمثلة على السهولة التي يتطلبها تحويل ألعاب شهيرة مثل نداء الواجب ” Call of duty” إلى ألعاب فيديو تمجد المنظمات المتطرفة.
التزييف العميق أو (Deepfake) من أكبر المعضلات التي يطرحها شيوع تطبيقات الذكاء الاصطناعي، ويشير المصطلح إلى القدرة المدهشة التي يستطيع من خلالها الذكاء الاصطناعي إنتاج مقاطع فيديو مزيفة تماما لكنها لا تبدو كذلك. تلك العملية التي تحتاج سابقا إلى استديوهات عملاقة وموارد ضخمة وخبراء ماكياج باتت الآن لا تحتاج سوى إلى نقرات بسيطة على لوحة مفاتيح الهاتف أو الكمبيوتر. وبالنسبة لمنظمات يقوم نشاطها على التضليل والتلاعب بالحقائق ودمج أشكال متعددة من المؤثرات الخاصة على موادها البصرية فإن تطبيقات التزييف العميق يمكن أن تكون مغرية جدا لها.
يمكن تزييف الخرجات الاعلامية لقادة تنظيم داعش على سبيل المثال، وإنتاج صور تظهر انتشار عناصره في مناطق لا وجود لهم فيها في الواقع، أو توثيق مزيف لهجمات وعمليات لم تحدث. وقد تابع العالم كيف أثرت في أسواق المال صورة مزيفة لعمود دخان يتصاعد من مبنى البنتاغون.
وفي الإطار ذاته حذرت رئيسة قسم الإرهاب ومنع التطرف في مركز جنيف للسياسية الأمنية كريستينا شوري ليانغ في مقال بعنوان:” الإرهاب الرقمي: منع الإرهابيين من استخدام التقنيات الناشئة” من أن الذكاء الاصطناعي “سيعزز حملات التضليل الرقمي” وسيساعد الإرهابيين على تصنيع وإنشاء وتخصيص صفحات الويب الضارة وعمليات الاحتيال التي تعتمد على الهندسة الاجتماعية.
دق ناقوس الخطر
لم يمنع الانبهار والاعجاب الذي قوبلت به منتجات الذكاء الاصطناعي والتطلع إلى آفاقها الواعدة الخبراء وصناع السياسة من دق ناقوس الخطر، والتحذير من تداعياتها الخطيرة على الأمن العالمي ومستقبل الانسانية. فقد وقع أكثر من 3000 مطور وعالم تكنولوجيا عريضة في مارس الماضي تطالب ” بوقف أبحاث تطوير الذكاء الاصطناعي ستة أشهر لاتاحة الفرصة نحو مزيد من الحوكمة لهذا النظام ولضمان عدم تضرر البشرية منه “.
تتقدم بريطانيا الجهود العالمية للتحسيس بخطورة الذكاء الاصطناعي. ففي زيارته الأخيرة إلى واشنطن حمل رئيس الوزراء البريطاني ريشي سوناك مطالب إلى الرئيس الأمريكي جو بايدن تهم أساسا الإسراع في مجال ضبط الذكاء الاصطناعي وإقناع المشرعين الأمريكيين بوضع تشريعات تحد من مخاطره. ومن واشنطن أعلن عن استضافة لندن الخريف القادم قمة عالمية للذكاء الاصطناعي، وقال سوناك إن بلاده تقود الجهود لضمان “تسخير فوائد الذكاء الاصطناعي لصالح البشرية”، وأضاف: “يتمتع الذكاء الاصطناعي بإمكانيات مذهلة لتغيير حياتنا نحو الأفضل، لكننا بحاجة للتأكد من تطويره واستخدامه بطريقة آمنة “.
تصاعدت في المملكة المتحدة الأصوات المنذرة بعواقب طفرة الذكاء الاصطناعي، ووصلت إلى حد سحب الحكومة لورقة أشادت بمزاياه دون ذكر عيوبه وسلبياته. وفي ذات السياق حذر جوناثان هول كيه سي وهو من أكبر الخبراء القانونيين في بريطانيا من أن “تهديد الأمن القومي بواسطة الذكاء الاصطناعي أصبح أكثر وضوحا من أي وقت مضى، وأن مبتكري التكنولوجيا بحاجة إلى وضع نوايا الإرهابيين في الاعتبار عند تصميمها”. وأضاف أن ” قوانين مكافحة الإرهاب لا تغطي روبوتات الدردشة الآلية” وحذر الخبير الذي يعمل كمراجع لمدى كفاية قوانين مكافحة الإرهاب من ” أن التهديد الإرهابي حاليا في بريطانيا مرتبط بهجمات غير معقدة باستخدام السكاكين والمركبات لكن الهجمات التي يدعمها الذكاء الاصطناعي قد تكون وشيكة”. وقد دخل جهاز الاستخبارات البريطاني MI5 في شراكة مع معهد آلان تورينغ لدراسة المخاطر المتنامية لمنتجات الذكاء الاصطناعي على الأمن القومي.
وضعت ثورة الذكاء الاصطناعي البشرية على أعتاب مرحلة تاريخية جديدة، وكأي سلاح ذي حدين فإن الفرص الواعدة التي يحملها هذا الابتكار المدهش في طياته يوازيها ما ينطوي عليه من مخاطر محدقة بالأمن العالمي. ولن يتورع تنظيم داعش وغيره من التنظيمات المتطرفة في توظيفه لخدمة مشاريعها الخاصة. ويضاعف من مخاطره أنه لا يتطلب خلفية تقنية ومعرفية عالية، بل فقط خيال تخريبي خصب وأوامر بسيطة على لوحة المفاتيح.