التزييف العميق أصبح أداة قوية لحرب المعلومات

بقلم أ.د. غادة محمد عامر
عميد كلية الهندسة – جامعة مصر للعلوم والتكنولوجيا
زميل ومحاضر كلية الدفاع – الأكاديمية العسكرية للدراسات العليا والاستراتيجية


في شهر مايو من عام 2023م تمت مشاركة صورة مزيفة تظهر انفجارًا بالقرب من البنتاغون -مقر وزارة الدفاع الأمريكية- على نطاق واسع وخاصة على حسابات وسائل التواصل الاجتماعي. وتم بث الصورة، مصحوبة بتقرير مفصل عن الحادث، على العديد من القنوات الإخبارية الرئيسية في العديد من دول العالم. تم الكشف لاحقًا أن الصورة ربما تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي (genAI) والذي يمكنه إنتاج محتوى واقعي مثل النصوص والصور والصوت والبيانات الاصطناعية. ومع ذلك، فهذه ليست المرة الأولى التي يُحدث فيها الذكاء الاصطناعي التوليدي ضجة كبيرة في مجال التزييف العميق.  ففي عام 2019م أثار مقطع فيديو مزيف لرئيس الغابون “علي بونغو” مخاوف بشأن أهليته للحكم وأقنع جيش الدولة الإفريقية بشن انقلاب، ورغم فشل الانقلاب، لكن الفيديو المزيف العميق أظهر قدرة الذكاء الاصطناعي على نشر المعلومات المضللة وآثارها الخطيرة على الأمن القومي وإنفاذ القانون. كذلك كان الصراع بين روسيا وأوكرانيا أرضًا نشطة لاستخدام تقنية التزييف العميق في الصراع، ففي مارس 2022م انتشر مقطع فيديو مزيف للرئيس الأوكراني “فولوديمير زيلينسكي” وهو يطلب من قواته الاستسلام. وعلى نحو مماثل، انتشر على موقع تويتر مقطع فيديو مزيف عميق للرئيس الروسي فلاديمير بوتين وهو يحث قواته على إلقاء أسلحتهم والعودة إلى الوطن. وفي ظل غياب تقارير موثوقة من الأرض، تسببت مثل هذه الفيديوهات المعتمدة على التزييف العميق في حدوث فوضى وإرباك للمواطنين من الجانبين، كذلك يمكنها أن تنشر الارتباك والشكوك حول العمليات العسكرية.  

صورة مزيفة تظهر انفجارًا بالقرب من البنتاغون

يعتمد مصطلح “التزييف العميق” على استخدام التعلم العميق (Deep Learning) لإعادة إنشاء إصدارات جديدة، ولكن مزيفة من الصور أو مقاطع الفيديو أو المواد الصوتية الموجودة. يمكن أن تبدو هذه الأشياء واقعية جدًا لدرجة أن اكتشافها على أنها مزيفة قد يكون أمرًا صعبًا للغاية بالنسبة للبشر. يمكن لهذه الوسائط التي ينشئها الذكاء الاصطناعي أن تصور بشكل مقنع أفرادًا حقيقيين (ومؤثرين في كثير من الأحيان) يقولون أو يفعلون أشياء لم يفعلوها قط، مما يؤدي إلى محتوى مضلل يمكن أن يؤثر بشكل عميق على الرأي العام. إن هذه التقنية لها إيجابيات كثيرة مثل إنها يمكن  أن تقدم فوائد عظيمة في صناعة الترفيه، ولكن عند إساءة استخدامها للتلاعب السياسي مثلا، فإن قدرة التزييف العميق على اختلاق معلومات مضللة مقنعة -لأنها تكون مزيفة بإتقان شديد- والتي يمكن أن تؤدي إلى امتناع الناخبين عن التصويت، أو التأثير على الانتخابات، أو الاستقطاب المجتمعي، أو تشويه سمعة الشخصيات العامة، أو حتى التحريض على التوترات الجيوسياسية. ولشدة خطورتها، صنفها المنتدى الاقتصادي العالمي كواحدة من أكبر المخاطر في عام 2024م. وتم تصنيف التزييف العميق كواحد من أكثر استخدامات الذكاء الاصطناعي إثارة للقلق.

إن تقنية التزييف العميق يمكن استخدامها كأداة مهمه في حرب المعلومات مثل: تزييف الأوامر حيث يمكن للجهات المعادية استخدام التزييف العميق لإنشاء مقاطع فيديو مقنعة تظهر أوامرًا عسكرية زائفة. وهذا يمكن أن يؤدي مثل هذا التضليل إلى الارتباك بين الجمهور والقوات المسلحة في الدولة المعتدى عليها. كذلك يمكن استخدامه في التضليل الاستراتيجي -خاصة في النزاعات المستقبلية- حيث يمكن للقادة استخدام التزييف العميق للتخفيف من الارتباك بين الخصوم، وكذلك حماية القوات المتحركة نحو أهداف محددة. ومن الممكن استخدامه لإضفاء الشرعية على الحروب والانتفاضات من خلال إنشاء سرديات مزيفة أو دليل بصري (كما فعلت إسرائيل بتزييف الصور في حربها على غزة). كذلك يمكن أن يساعد الدول التي تنتجه في التنافس في بيئة المعلومات، على سبيل المثال، ما قدمه “نتنياهو” للرئيس الأمريكي “بايدن” من فيديوهات وصور مزيفة لأطفال تم حرقهم  كذريعة للغزو لغزة. في المجمل، يمتلك التزييف العميق تأثيرًا كبيرًا في تشكيل السرديات والتصورات والنتائج الاستراتيجية، مما يجعله أداة قوية من أدوات حرب المعلومات.

ومع زيادة إمكانية الوصول إلى أدوات الذكاء الاصطناعي التوليدي، أصبح منشئو التزييف العميق لا يحتاجوا اليوم إلى معرفة تقنية أو أن يكون لديهم موارد مالية كبيرة لإنشاء إصدارات فيديو أو صوت أو صور اصطناعية شديدة الواقعية لأشخاص حقيقيين. على سبيل المثال، استخدم الباحثون الذي يقفون وراء نظام CounterCloud ( هو نظام ذكاء اصطناعي مستقل مصمم لتوليد ونشر المعلومات المضللة دون تدخل بشري) والذي يستخدم أدوات الذكاء الاصطناعي المتاحة على نطاق واسع لإنشاء مشروع بحث معلومات مضللة مؤتمتة بالكامل بتكلفة أقل من 400 دولار شهريًا، والذي كان يهدف إلى توضيح كيف يمكن للذكاء الاصطناعي التلاعب بالنظم البيئية للمعلومات من خلال إنشاء محتوى مزيف ونشره. يستخدم هذا النظام  نماذج لغوية كبيرة (LLMs)، تشبه  الذكاء الاصطناعي التوليدي ChatGPT لكنها تتفوق في فهم اللغة. والأخطر إنها على عكس حملات التضليل التقليدية التي تتطلب توجيهًا بشريًا، تعمل CounterCloud بشكل مستقل تماما. كذلك يقوم بإلغاء المحتوى الموجود من الإنترنت وإنشاء مقالات مضادة باستخدام الذكاء الاصطناعي. ويمكن للنظام إنتاج 20 مقالًا إخباريًا و50 تغريدة يوميًا، كل ذلك دون توجيه بشري. وهذا أنشئ تحدي في  التمييز بين المحتوى الأصلي والمحتوى الذي تم التلاعب به. باختصار، يعد CounterCloud بمثابة تنبيه صارخ للمشهد المتطور للمعلومات المضللة، حيث يمكن للذكاء الاصطناعي أن يمارس تأثيرًا كبيرًا في تشكيل وتوجيه الرأي العام. كذلك تؤدي التكلفة المنخفضة والسهولة والحجم إلى تفاقم مشكلة التضليل الحالية، خاصة عند استخدامها للتلاعب السياسي والاستقطاب المجتمعي.

كل ذلك يؤكد على الحاجة إلى اليقظة والتفكير النقدي في عصر يمكن فيه استخدام المعلومات كسلاح خطير، فلا يمكن الاستهانة بإمكانية التزييف العميق الذي يقود المعلومات المضللة إلى تعطيل العمليات الديمقراطية وتشويه السمعة والتحريض على الاضطرابات العامة، لا سيما في ضوء التكامل المتزايد لوسائل الإعلام الرقمية ومنصات التواصل الاجتماعي في الحملات السياسية وبث الأخبار. إن الطبيعة اللامركزية للإنترنت، والاختلافات في قوانين الخصوصية الدولية، والتطور المستمر للذكاء الاصطناعي تعني أنه من الصعب جدًا، إن لم يكن من المستحيل، إعاقة استخدام التزييف العميق الخبيث. ولإن القدرة على تشكيل قصة الصراع، والتأثير على العدو والرأي العام، كانت دائمًا حاسمة لضمان تحقيق نصر حاسم.  يمكن أن يتخذ التلاعب بالمعلومات أساليب مختلفة، تندرج جميعها تحت مظلة مصطلح “حرب المعلومات”. وفي عصر الذكاء الاصطناعي اليوم، وجدت هذه الظاهرة ساحة معركة جديدة وخطيرة وخبيثة. فلقد أدى ظهور تقنيات مثل التزييف العميق القائم على الذكاء الاصطناعي التوليدي إلى تهديد غير مسبوق لمصداقية وسائل الإعلام، مما أدى إلى نشر معلومات مضللة مما أدى في نهاية المطاف ليس إلى تضليل المستخدمين فقط، ولكن أيضًا أجهزة الاستخبارات التي هي مصدر المعلومات الرئيسي لمتخذي القرار في القطاعين العسكري والسياسي.