امن المعلوماتذكاء اصطناعي

مستقبل المحتوى المزيّف في الأزمات: كيف يهدد الذكاء الاصطناعي الحقيقة؟

تطورت تقنيات التزييف في الآونة الأخيرة بشكل كبير للغاية، إذ أصبح من الصعب التفرقة بين المحتوى المزيف والمنشور باستخدام تقنيات التزييف العميق والمحتوى الحقيقي والأصلي.

ويعود الفضل في هذا التطور إلى الذكاء الاصطناعي ونماذجه التي أصبحت الآن قادرة على توليد عوالم متكاملة حقيقية للغاية وأقرب إلى الواقع.

وتجسد تقنيات التزييف العميق المعنى الحرفي لمفهوم السلاح ذي الحدين، إذ يمكن استخدامها لبناء تصورات خيالية مضحكة وممتعة أحيانا كثيرة لمشاهد اعتدنا عليها من السينما أو التلفاز، أو يمكن أن تصبح أداة في يد الأعداء لزعزعة الاستقرار وبث الرعب في قلوب الآمنين.

وبينما يبدو هذا المفهوم نظريا بشكل كبير، إلا أن الفترة الماضية شهدت العديد من الاستخدامات لأدوات التزييف العميق لنشر الأخبار المزيفة والتأثير على الحالة النفسية للجنود والشعب على حد سواء.

التزييف العميق كأداة عسكرية

انتشرت يوم الأحد 1 آذار مجموعة من الصور عبر حسابات متعددة غربية وإسرائيلية على منصات التواصل الاجتماعي وتحديدا منصة “إكس”، تزعم أنها توثق جثمان المرشد الأعلى الإيراني علي خامنئي، رغم أن إيران أقرت لاحقا بمقتله.

ولكن بعد تحقيق “فريق المصادر المفتوحة بالجزيرة نت”، تبين أنها مولدة باستخدام الذكاء الاصطناعي ولا تستند إلى حدث حقيقي أو مصدر موثوق حسبما كشف تقرير منفصل.

ويتزامن ظهور هذه المنشورات مع هجوم سيبراني متعدد على الشبكات والتطبيقات الإيرانية ومن بينها تطبيق “بادي سابا كاليندر” (Badisaba Calendar) الذي أرسل تنبيهات تحث أفراد الجيش الإيراني على الانشقاق وتسليم أسلحتهم، مما يوحي بارتباط الأمرين ببعضهما كأداة لخفض عزيمة الجيش الإيراني. 

ويكشف تقرير آخر نشره موقع “ذا ستراتيجست” عن مجموعة من الفيديوهات المزيفة لنشطاء هونغ كونغ المنفيين خارج البلاد حيث يتحدثون عن مخاوفهم من الاتفاقيات بين بريطانيا والصين مما قد يتسبب في تسليمهم مباشرة إلى السلطات الصينية.

ويخدم كل واحد من هذه المقاطع غرضا مختلفا عن الآخر، فبينما يكون للبعض أغراض سياسية وعسكرية بحتة مثل صور مقتل خامنئي، فإن البعض الآخر يدعم أهدافا وأجندات خفية.

بزوغ أمن المعلومات المضللة

تكشف مدونة شركة “سبلانك” (Splunk) التابعة لشركة “سيسكو” الشهيرة عن مفهوم جديد في الأمن السيبراني يدعى أمن المعلومات المضللة، وهو يشير إلى تخصص ناشئ في علوم الأمن السيبراني يهتم المختصون به في اكتشاف ومنع والرد على المعلومات المولدة باستخدام التزييف العميق في محاولة لمنع انتشارها وتأثيرها على الشركات أو العمليات أو الاقتصاد سواء كان للدول أو للشركات.

ويعكس ظهور مثل هذا التخصص في عالم الأمن السيبراني الاهتمام العالمي والمحلي بمعلومات التزييف العميق وأثرها على المجتمعات والشركات.

ويشير التقرير إلى أن المنتدى الاقتصادي العالمي اعتبر المعلومات المضللة إحدى أكبر المخاطر على الأسهم والاقتصاد وحتى الاستقرار العام للشركات والمجتمعات.

ويعتمد هذا التخصص الناشئ على استخدام الأدوات الجنائية الرقمية للتحقق من حقيقة المحتوى وإن كان أصليا أم لا، ويتقاطع أيضا مع الاستخبارات السردية التي تتضمن مراقبة مستمرة للمنصات الإلكترونية ووسائل التواصل الاجتماعي.

لمَ الخوف من التزييف العميق؟

يميل العامة إلى تصديق ما يمكنهم رؤيته وسماعه، لذلك إن استطاعت أي جهة خارجية توليد مجموعة من المقاطع الصوتية والمرئية التي تنقل أي نوع من المعلومات، فإن عموم المستخدمين والشعب يميل إلى تصديقهم، خاصة مع غياب التثقيف والوعي بالتطور الحادث في الذكاء الاصطناعي وكيف يمكن مقاومته.

لذلك، فإن نقل معلومات كاذبة باستخدام مقاطع مزيفة يمثل خطرا واسع المدى، وربما كان بيان المنتدى العالمي الاقتصادي الذي نقله موقع “سبلانك” مثالا حيا على هذا الأمر.

Deep fake. Deepfake AI fraud video or theft. Face recognition or swap. Photo edit with artificial intelligence. Personality and identity scam. Impersonating technology.

كما تدرك الحكومات هذه المخاطر بشكل أكبر من غيرها، ودفع هذا حلف شمال الأطلسي (ناتوللتعاون مع شركة “ريالتي ديفندرز” (Realty Defenders) المختصة في اكتشاف ومكافحة مقاطع التزييف العميق.

ويهدف هذا التعاون لتدريب الجهات المختصة على اكتشاف والتعامل مع المحتوى المزيف في حالات الحرب والاستنفار العام، مما يعني انتقال المخاوف من التزييف العميق إلى مرحلة التأثير على كبار الدول.

اكتشاف المحتوى المزيف

على غرار شركة “ريالتي ديفندرز” وتخصص أمن المعلومات المضللة، بدأت العديد من الشركات والخبراء على حد سواء بالتركيز على جهود وأدوات اكتشاف المحتوى المزيف. 

وتكثف أيضا المنصات الإخبارية جهودها لاكتشاف المقاطع والصور المزيفة المولدة بالذكاء الاصطناعي عبر العديد من الأدوات وعبر تقديم غرف وفرق مخصصة لفحص المحتوى على غرار “فريق المصادر المفتوحة بالجزيرة نت”.

المصدر: الجزيرة + مواقع إلكترونية

مقالات ذات صلة

زر الذهاب إلى الأعلى