1. تخطي إلى المحتوى
  2. تخطي إلى القائمة الرئيسية
  3. تخطي إلى المزيد من صفحات DW

DW تتحقق: استغلال الذكاء الاصطناعي لتزييف صراع الشرق الأوسط

١٤ نوفمبر ٢٠٢٣

تم استغلال الذكاء الاصطناعي في فبركة صور وفيديوهات عن الحرب بين إسرائيل وحماس، فريق DW الاستقصائي يفرز الغث من السمين ويوضح طرق اكتشاف هذا التزييف.

https://p.dw.com/p/4YkLc
انتشرت صور كثير عن الصراع بين حماس وإسرائيل عن طريق تطبيقات الذكاء الاصطناعي
انتشرت صور كثير عن الصراع بين حماس وإسرائيل عن طريق تطبيقات الذكاء الاصطناعي

منذ اندلاع الحرب بين حماس وإسرائيل في السابع من أكتوبر / تشرين الأول الماضي، انتشرت العديد من الصور والفيديوهات المفبركة باستخدام تطبيقات الذكاء الاصطناعي. وإزاء ذلك، يسلط فريق DW الاستقصائي الضوء على الهدف من نشر هذه الروايات المزيفة ومدى خطورتها.

كيف يساهم الذكاء الاصطناعي في فبركة الصور؟

يتغلغل  الذكاء الاصطناعي تدريجياً في كل مناحي الحياة. ولا يقتصر على أوقات السلم وإنما يمتد للحروب خاصة مع تحسن تطبيقاته بشكل كبير في السنة الماضية، ما مكن أي شخص من استخدام تقنيات توليد الصور بالذكاء الاصطناعي لإنشاء صور تبدو حقيقية، على الأقل للوهلة الأولى.

ومن أجل القيام بذلك، يتعين على المستخدم "تغذية" أدوات مثل Midjourney أو Dall-E بمعلومات وتوجيهات وخصائص من أجل تحويل السمات المكتوبة إلى صور. وتقوم تطبيقات أخرى بإنشاء رسوم توضيحية ذات درجة فنية جيدة.

وتعمل تطبيقات أخرى على إنشاء صور واقعية فيما تعتمد عملية التوليد على ما يعرف تقنيات التعلم الآلي والتعلم العميق.

وللتوضيح نضرب المثال التالي: في حالة ما إذا طُلب من مولدات الذكاء الاصطناعي إنشاء صورة لرجل يبلغ من العمر 70 عاماً يركب دراجة، فتقوم هذه التقنية بالبحث في قاعدة البيانات الخاصة بها لإقران هذا الأمر بالصور. واستناداً على المعلومات المتاحة، تقوم مولدات الذكاء الاصطناعي بإنشاء صورة لرجل طاعن في السن وهو يستقل دراجة. وقد تطورت هذه التقنية بشكل كبير بفضل التحديثات الفنية.

وينطبق ذلك على الصور المتعلقة بالصراع بين حماس وإسرائيل، إذ يمكن استخدام هذه التقنية في خلق صور ومقاطع مصورة تتسم بواقعية أقل، أو أكثر، فضلاً عن أنها تخاطب العاطفة في الغالب.

وفي مقابلة مع DW، يقول هاني فريد، خبير الطب الشرعي الرقمي والأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي، إنه خلال الصراعات التي تتسم بمستوى عالٍ من العاطفة والمشاعر، فإن المعلومات المضللة تنتشر بشكل كبير.

كيف يمكن تنظيم عمل الذكاء الاصطناعي؟

كم عدد الصور المفبركة عن طريق الذكاء الاصطناعي للصراع بين إسرائيل وحماس؟

أدت الصور والمقاطع المصورة التي جرى فبركتها عن طريق الذكاء الاصطناعي في الحرب الروسية- الأوكرانية، وما زالت، إلى نشر معلومات مضللة عن الصراع.

ومع تطور أدوات الذكاء الاصطناعي بسرعة منذ الغزو الروسي لأوكرانيا أواخر العام الماضي، توقع مراقبون أن يلعب الذكاء الاصطناعي دوراً أكبر في الحرب بين إسرائيل وحماس، لكن خبراء قالوا إن الأمر لم يتحقق حتى الآن.

وفي ذلك، قال توماسو كانيتا، الخبير في "مرصد الوسائط الرقمية الأوروبية"، إنه لم يتم رصد استخدام مكثف للصور التي جرى إنشاؤها بالذكاء الاصطناعي خلال الصراع بين إسرائيل وحماس مقارنة بحجم الأشكال الأخرى من التضليل الإعلامي كنشر صور وفيديوهات قديمة.

وبدوره، قال هاني فريد إن مقدار التزييف عن طريق الذكاء الاصطناعي ليس العامل الحاسم، شارحاً: "يمكن أن يكون هناك صورتين فقط، لكنهما تنتشران بسرعة كبيرة، ويشاهدهما مئات الملايين من الناس مما يخلق تأثيراً كبيراً". وأشار إلى أن الأمر "لا يتعلق بكم التزييف، وإنما في حجم تلوث النظام البيئي للمعلومات".

صورة غير حقيقة تُظهر أب مع أطفاله الخمسة وهم يقفون وسط الحطام
صورة غير حقيقة تُظهر أب مع أطفاله الخمسة وهم يقفون وسط الحطام

ما هي سرديات الصور والمقاطع المفبركة عن طريق الذكاء الاصطناعي؟

يقول الخبراء إن الصور المفبركة عن طريق الذكاء الاصطناعي المتداولة على منصات التواصل الاجتماعي دائماً ما تخاطب المشاعر.

وفي ذلك، يحدد توماسو كانيتا فئتين رئيسيتين هنا؛ إذ تتعلق الفئة الأولى بالصور التي تركز على معاناة المدنيين وتثير التعاطف معهم، فيما تتمثل الفئة الأخرى في قيام الصور المفبركة عن طريق الذكاء الاصطناعي في تقديم مبالغات عن الدعم الذي تتلقاه إسرائيل أو مثيله الذي يقدم لحماس أو الفلسطينيين بما يثير المشاعر الوطنية.

وضرب مثالاً على الفئة الأولى بصورة أب مع أطفاله الخمسة وهم يقفون وسط الحطام. وقد جرى مشاركة الصورة بشكل كبير على موقعي إكس (تويتر) وانستغرام للدلالة على حجم الخسائر التي تسبب فيه القصف الإسرائيلي على قطاع غزة.

ولاحقاً، جرى تبيان أن الصورة مزيفة وذلك عن طريق الوقوف على العديد من الأخطاء والتناقضات التي دائماً ما توجد في الصور المفبركة عن طريق الذكاء الاصطناعي؛ إذ يمكن ملاحظة أن الكتف الأيمن للأب مرتفع بشكل غير متناسب مع كتفه الأيسر، فضلاً عن غرابة وضعية أيدي الطفلين حول رقبة والدهما، كما يوجد عدد أكثر أو أقل من الأصابع سواء في الأيدي أو الأقدام.

صورة غير حقيقة تُظهر عوائل تأكل معا وسط الحطام
صورة غير حقيقة تُظهر عوائل تأكل معا وسط الحطام

وينطبق الأمر أيضاً على صورة مفبركة جرى إنشاؤه عن طريق الذكاء الاصطناعي ونُشرت على نطاق واسع على موقع إكس تزعم أنها تخص عوائل فلسطينية تأكل معاً وسط الأنقاض، مما يثير التعاطف مع المدنيين في قطاع غزة.

صورة غير حقيقة تظهر جنودا يلوحون بالأعلام الإسرائيلية أثناء سيرهم في مستوطنة وسط ركام منازل مدمرة
صورة غير حقيقة تظهر جنودا يلوحون بالأعلام الإسرائيلية أثناء سيرهم في مستوطنة وسط ركام منازل مدمرةصورة من: X

ويدخل في هذا الفئة الثانية، صورة تظهر جنوداً وهم يلوحون بالأعلام الإسرائيلية أثناء سيرهم في منطقة بغزة وسط ركام منازل مدمرة. وتبين أن الحسابات التي نشرت الصورة على موقعي إكس وانستغرام مؤيدة لإسرائيل. وجرى العثور على الصورة في مقال لصحيفة بلغارية دون التصريح بأنها صورة مزيفة.

ويمكن الوقوف على فبركة هذه الصورة عن طريق رصد الطريقة التي ترفرف بها الأعلام الإسرائيلية. كما يبدو الشارع الذي يظهر في منتصف الصورة نظيفاً، بعكس جانبيه، فضلاً عن أن الركام في شكل متجانس للغاية. ويظهر الانطباع البصري للصورة أنها غير واقعية لدرجة أن الصورة تبدو وكأنها مرسومة وهو يعد دلالة على استخدام الذكاء الاصطناعي.

زعم الإعلامي الأمريكي، جاكسون هينكل، الذي يُعرف بمواقفة المناهضة لإسرائيل، أن صورة نشرها رئيس الوزراء الإسرائيلي لجثة طفل إسرائيل جرى إنشاؤها بواسطة الذكاء الاصطناعي
زعم الإعلامي الأمريكي، جاكسون هينكل، الذي يُعرف بمواقفة المناهضة لإسرائيل، أن صورة نشرها رئيس الوزراء الإسرائيلي لجثة طفل إسرائيل جرى إنشاؤها بواسطة الذكاء الاصطناعي

الحسابات التي وراء هذه الصور المفبركة عن طريق الذكاء الاصطناعي؟

يقف وراء هذه الصور حسابات خاصة على وسائل التواصل الاجتماعي سواء من خلال شخصيات حقيقية أو مزيفة فيما يتم استخدام بعض الصور التي يتم إنشاؤها بمساعدة تطبيقات الذكاء الاصطناعي لأغراض صحافية وهو الأمر الذي بات محور نقاش في المؤسسات الإعلامية.

فقد أثارت شركة البرمجيات الأمريكية "أدوبي" ضجة عندما أضافت صوراً تم إنشاؤها بواسطة الذكاء الاصطناعي إلى مجموعة صور تعود لنهاية عام 2022. وعرضت الشركة للبيع صوراً تم إنشاؤها بواسطة الذكاء الاصطناعي عن الحرب بين حماس وإسرائيل كصور عن وقوع انفجارات أو احتجاجات أو ظهور سحب دخان خلف المسجد الأقصى.

ورغم الشكوك في مدى صحة هذه الصور، إلا أن بعض وسائل الإعلام وقعت في فخ استخدامها دون الإشارة إلى أنه تم إنشاؤها بواسطة الذكاء الاصطناعي.

وعلى وقع ذلك، يشدد كانيتا على ضرورة توخي الحذر الشديد عند استخدام صور الذكاء الاصطناعي، فيما ينصح بعدم استخدامها خاصة عندما يتعلق الأمر بأحداث حقيقية مثل الحرب في غزة.

الضرر الذي تسببت فيه الصور المفبركة عن طريق الذكاء الاصطناعي؟

ويحذر الخبراء من تداعيات وتأثير الصور المفبركة عن طريق الذكاء الاصطناعي على ثقة العامة لما يتداول على شبكة الإنترنت ومنصات التواصل الاجتماعي. وفي ذلك، يقول هاني فريد، خبير الطب الشرعي الرقمي والأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي: "إنه في حالة الولوج إلى عالم يمكن فيه التلاعب بالصور والصوت والفيديو، فإن كل شيء سيكون محل شك. لذلك يمكن رؤية أشياء حقيقية، لكن يُقدم البعض على الزعم أنها مزيفة".

وقد أنطبق الأمر على صورة تُظهر جثة طفل إسرائيلي متفحمة قام بنشرها رئيس الوزراء الإسرائيلي، بنيامين نتنياهو، والمحلل السياسي الأمريكي المحافظ، بن شابيرو، وأخرين على موقع إكس، لكن الممثل والإعلامي الأمريكي، جاكسون هينكل، الذي يُعرف بمواقفة المناهضة لإسرائيل، زعم أن الصورة تم إنشاؤها باستخدام الذكاء الاصطناعي.

وللتأكيد على زعمه، أرفق هينكل لقطة شاشة لتقنية تتيح إمكانية الكشف عن استخدام الذكاء الاصطناعي تُعرف باسم AI or not التي صنفت الصورة على أنها نتجت عن الذكاء الاصطناعي. وحظيت تغريدة هينكل بأكثر من 20 مليون مشاهدة مما أدى إلى إثارة نقاش ساخن. وقال كثيرون إن الصورة تبدو على الأرجح حقيقية، ما يعني أن هينكل لم يحالفه الصواب فيما طرحه.

بدوره قال هاني فريد إنه لم يتمكن من العثور على أي تناقضات في الصورة تؤكد أنها مفبركة عن طريق الذكاء الاصطناعي.

ويقول خبراء إن التقنيات الخاصة بالكشف عن استخدام الذكاء الاصطناعي في إنشاء صور أو نصوص، معرضة للأخطاء وذلك اعتماداً على الصور أو النصوص التي يتم فحصها، لذا فإن استنتاجات تلك التقنيات تستند على احتمالات لا تصل إلى الجزم القاطع بنسبة مئة بالمئة.

وعلى وقع ذلك، ينصح الخبراء باستخدام تقنيات أو أدوات إضافية للوقوف على حقيقة الأمر، فيما يؤكد الخبراء على أنه لا يوجد أداة كفيلة لوحدها من التحقق من أي صورة أو فيديو.

ولم يتمكن فريق DW الاستقصائي من الكشف عن أي علامات واضحة في الصورة التي نشرها بنيامين نتيناهو تشير إلى حدوث تلاعب عن طريق الذكاء الاصطناعي، لذا يمكن القول إنها صورة لجثة طفل.

إينس إيزيل و يوتا شتاينوير /م.ع

ساهمت مينا كيركوفا في إعداد التقرير

تخطي إلى الجزء التالي اكتشاف المزيد