لم تعد صناعة الفيديوهات الواقعية حكرًا على صناع السينما أو غرف الأخبار، فقد فتحت أدوات الذكاء الاصطناعي، مثل Veo 3 من Google، أبوابًا جديدة أمام الجميع. لكن مع هذه القدرة، يظهر سؤال خطير: ماذا يحدث عندما يساء استخدام هذه القوة البصرية الفائقة لإنشاء أكاذيب مقنعة؟
كيف تعمل Veo 3؟ ولماذا تثير هذا الجدل؟
أداة Veo 3 هي النسخة الأحدث من نظام توليد الفيديوهات بالذكاء الاصطناعي الذي أطلقته غوغل خلال مؤتمر المطورين الأخير. بفضل قدرتها على فهم التعليمات النصية وتحويلها إلى مشاهد فيديو واقعية، أصبحت الأداة محط أنظار العالم، وموضوعًا للكثير من الإعجاب، وأيضًا القلق.
فبينما استعرض جوش وودوارد، نائب رئيس قسم Gemini في غوغل، ميزات الأداة الجديدة، كانت المقاطع المنتشرة على منصات مثل X وReddit تكشف وجهًا آخر: استخدامات مشكوك فيها، وأحيانًا خطيرة.
أمثلة مقلقة على الاستخدام السيئ
رغم القيود التي وضعتها غوغل – مثل الحد من طول الفيديوهات – فإن الإبداع المظلم لبعض المستخدمين كسر هذه الحواجز. إليك بعض الأمثلة:
- نشرة أخبار مزيفة: مقطع متداول عبر Threads يظهر مذيعًا يتحدث عن وفاة وزير الدفاع الأمريكي إثر تحدي شرب الكحول. المقطع يبدو حقيقيًا جدًا رغم أنه ملفق بالكامل.
- مشاهد كارثية غير حقيقية: انفجارات بركانية في مواقع شهيرة مثل جبل فوجي أو براكين هاواي، تم توليدها بالكامل باستخدام Veo 3، مما يثير الذعر والخوف عند مشاركتها دون توضيح أنها مزيفة.
- سيناريوهات سينمائية وهمية: مقاطع تظهر شخصيات تكتشف أنها محاصرة في عالم افتراضي، بأسلوب يبدو مستوحى من أفلام الخيال العلمي، لكنها في الحقيقة مجرد نتاج ذكاء اصطناعي.
I did more tests with Google’s #Veo3. Imagine if AI characters became aware they were living in a simulation! pic.twitter.com/nhbrNQMtqv
إعلان— Hashem Al-Ghaili (@HashemGhaili) May 21, 2025
إيجابيات محدودة وسلبيات محتملة
صحيح أن أدوات مثل Veo 3 قد تكون ثورية للمبدعين في صناعة السينما والإعلانات، فهي تتيح توليد محتوى بصري متقدم دون الحاجة لمعدات ضخمة. لكنها في الوقت نفسه تشكل تهديدًا مباشرًا على مصداقية المحتوى الرقمي، خاصة في بيئة تعتمد بشكل متزايد على الوسائط البصرية كمصدر للمعلومات.
محاولات غوغل لفرض الرقابة
غوغل لم تغض الطرف عن هذه التجاوزات. فقد وضعت مجموعة من الضوابط مثل:
- تحديد مدة الفيديو بعدد ثوانٍ فقط.
- منع استخدام الأداة في مواضيع سياسية أو عسكرية.
- اعتماد فلترة محتوى تعتمد على الذكاء الاصطناعي ذاته.
لكن هذه التدابير ليست مانعة بالكامل، إذ أن الأخطاء، كما يحدث دومًا مع تقنيات الذكاء الاصطناعي، تبقى واردة.
الختام: عصر الحقيقة الزائفة بدأ؟
إن دخول Veo 3 وغيره من أدوات توليد الفيديوهات بالذكاء الاصطناعي إلى حياة المستخدم العادي، يعني أننا على مشارف مرحلة جديدة من الإعلام البصري، حيث يمكن لأي شخص توليد “حقيقة بصرية” تبدو حقيقية لكنها زائفة بالكامل. يبقى على الحكومات، والمنصات، والمستخدمين أنفسهم، تطوير آليات رقابة وتوعية تمنع تحول هذه التقنية من أداة إبداع إلى سلاح تضليل.
المصدر:
The Verge
أسئلة متعلقة بتوليد الفيديوهات بالذكاء الاصطناعي:
ما هي أداة Veo 3 من غوغل؟
Veo 3 هي أداة ذكاء اصطناعي تولد مقاطع فيديو واقعية بناءً على أوامر نصية.
هل يمكن استخدام Veo 3 في الأخبار المزيفة؟
نعم، تم بالفعل استخدام الأداة لتوليد مقاطع تبدو كأنها نشرات أخبار حقيقية لكنها مزيفة تمامًا.
ما أبرز القيود المفروضة على Veo 3؟
غوغل حددت طول الفيديو بعدد ثوانٍ قليلة، وتمنع المواضيع السياسية والعنيفة.
هل المقاطع المنتشرة باستخدام Veo 3 حقيقية؟
لا، معظم هذه المقاطع ملفقة باستخدام الذكاء الاصطناعي ولكنها واقعية المظهر.



