تشكل منصات التواصل الاجتماعي بيئة مثالية لانتشار المحتوى المولد بالذكاء الاصطناعي، بما في ذلك المحتوى المتعلق بالسياق السوري، والذي يلقى رواجاً كبيراً في ظل وجود جمهور متلقٍ واسع وجهات مرتبطة لديها الحافز لاستخدام هذه التقنيات، ما يشكل خطورة متزايدة على المشهد الإعلامي.
وآخر ما رصدته (تأكد) ضمن هذا السياق مقطع فيديو نُشر بتاريخ 27 تشرين الثاني/ نوفمبر 2025، على موقعي إكس وفيسبوك، لمراسلة إعلامية تزعم "انهيار جزء كبير من الجدار العازل بين سوريا والعراق، بعد انفجار وقصف عنيف في المنطقة، دون معرفة الجهة المسؤولة".
تظهر لقطة الشاشة عدد المشاهدات التي حصدها المقطع
وبتحليل المقطع تظهر علامات تؤكد توليده عبر الذكاء الاصطناعي، منها ظهور اسم "مويا" بدل "سوريا" على الخريطة الواردة في الفيديو موضع الادعاء، إضافة لكلمة "الحدك" بدل "الحدث" على المايكروفون الذي تحمله المذيعة.
مويا بدل سوريا
الحدك بدل الحدث
كما بيّن التحقق عبر أداة Sightengine باستخدام صورة ثابتة من المقطع، أن الفيديو مولّد بالذكاء الاصطناعي بنسبة 96%، ما يشكل دليلاً إضافياً على زيفه.
تحليل لقطة من المقطع
يأتي هذا الادعاء ضمن قائمة من المزاعم التي تحققت (تأكد) مؤخراً من زيفها، آخرها صورة مفبركة تجمع وزير الخارجية السوري أسعد الشيباني مع نظيره الإيراني عباس عراقجي، تضمنت ثغرات بارزة بينها الاختلاف في ملامح وزير الخارجية السوري، ووجود ستة أصابع في يد الوزير عراقجي.
سبقه مقطع مفبرك يزعم اعتقال مقاتلات من قسد في الحسكة من قبل عناصر بلباس عسكري ويضعون العلم السوري، احتوى كذلك على علامات واضحة تؤكد توليده عبر الذكاء الاصطناعي.
أثر التضليل بالفيديوهات المولدة بالذكاء الاصطناعي
تتجلى خطورة هذا المحتوى في سياقات النزاع الحساسة مثل سوريا، في قدرتها على ترويج صور أو تصريحات أو وقائع مزورة، يصعب على بعض المتلقين تمييزها عن الحقيقة، ورغم جهود منصات التحقق ووسائل الإعلام في كشف زيفها إلا أن أثرها الأولي لدى الجمهور المستهدف بالغ، وانتشارها أوسع في منصات التواصل الاجتماعي.
وتهدف الفبركة عامةً لدعم رواية أحد الأطراف المتنازعة، أو إظهار تعاطف شعبي وهمي مع طرف معين، ما يرفع من منسوب التحريض ويعمق الانقسام والتوتر لدى الجمهور، ويدفع الرأي العام نحو التعصب والغضب وبث خطاب الكراهية، وربما القيام بأعمال عدائية.
كيف يمكن للمتابعين حماية أنفسهم؟
من سلسلة "تربية إعلامية"
مع تطور أدوات الذكاء الاصطناعي، ومعالجة الثغرات الواردة ضمنه مع مرور الوقت، بما يجعل كشف التضليل بالمحتوى بصرياً أصعب فأصعب، يبقى الحل الوحيد هو توعية المتابعين حول التحقق الذاتي عبر عدة خطوات أهمها:
التشكيك الدائم في صحة المحتويات المرئية، خاصة الصادمة منها.
التحقق من مصدر نشر الفيديو وموثوقيته.
استخدام أدوات التحقق من المحتوى المولد بالذكاء الاصطناعي، مثل موقع sightengine المتخصص بكشف الصور، وأداة Hiya Deepfake Voice Detector المتخصص بالكشف عن الصوت.
البحث عن المحتوى نفسه في وسائل إعلامية أخرى.
الملاحظة البصرية، كأسماء المدن والبلدان، والخلفيات والإضاءة والظلال، إضافة لحركة الشفاه وتناسقها مع الصوت.
التواصل مع منصة (تأكد) عبر معرفاتها وخاصة في فيسبوك وإنستغرام.