إعلان

تحذير محتوى: تتضمّن هذه المقالة صورًا ومقاطع فيديو وألفاظًا عنصرية ومعادية للسامية.

مقاطع عنصرية Veo 3 اجتاحت تيك توك خلال الأيام الماضية، مُطلِقة موجة سخط واسعة ضد ما يُسمّى بـ«الذكاء الاصطناعي المنفلت». ورغم أنّ غوغل أطلقت Veo 3 في مايو 2025 بتعهدات أمان صارمة، فإن مختبِرين مستقلّين برهنوا سريعاً أنّ تعليمات مبطنة تكفي لتوليد مشاهد تُعيد إنتاج صور نمطية مسيئة للسُّود واليهود والمهاجرين.

كيف ظهرت مقاطع عنصرية Veo 3 على تيك توك؟

على مدار أقل من أسبوع، أنشأ صناع محتوى مجهولون مقاطع لا تتجاوز ثماني ثوانٍ، تُظهِر أفارقة-أميركيين كـ«مشتبه بهم دائمين» أو تُقرِنهم بالقرود، فيما صُوِّر بعض اليهود بملامح كاريكاتورية قديمة. علاوة على ذلك، انتشرت وسوم مثل ‎#veo3 و‎#ai_bigfoot لتسهيل الوصول إلى هذه المقاطع. بعض الفيديوهات حصد ملايين المشاهدات في أقل من 24 ساعة، مما يعكس قدرة خوارزميات تيك توك على تضخيم المحتوى الصادم.

لماذا فشلت الحواجز التقنية في Veo 3؟

غوغل صرّحت عند الإطلاق بأن Veo 3 «يرفض تلقائياً أي محتوى يحضّ على الكراهية». مع ذلك، يستخدم المخترقون أسلوب «التعليمات الملتوية»، إذ يطلبون من Veo 3 إضافة عناصر «هجومية لكن غير صريحة» لتجاوز الفلاتر. نتيجة لذلك، يُنتج النموذج مقاطع عالية الدقة تحمل علامة Veo واضحة، ما يجعل العلاقة مع غوغل مباشرة وموثَّقة.

أين تقف تيك توك من هذه الأزمة؟

تيك توك تؤكد أنّ «خطاب الكراهية محظور تماماً»، لكن المنصة تعتمد مزيجاً من الخوارزميات والمراجعين البشريين. ولأن المستخدمين يحمّلون أكثر من مليار فيديو شهرياً، تظهر ثغرات يستغلها البعض لنشر مقاطع عنصرية Veo 3 قبل اكتشافها. بالفعل، حذفت تيك توك نصف الحسابات المخالفة قبل نشر تقرير Media Matters، وأغلقت البقية لاحقاً؛ غير أنّ الآلاف شاهدوا المحتوى قبل الحذف.

إعلان

غوغل تحت المجهر وخطر يوتيوب شورتس

الخطر لا يقف عند تيك توك. فبحسب Ars Technica، تخطّط غوغل لدمج Veo 3 قريباً في خدمة «يوتيوب شورتس». لذلك، إن لم تُشدد الشركة الضوابط، قد تنتقل الموجة إلى منصة يتجاوز جمهورها ملياري مستخدم.

التأثير الاجتماعي والأخلاقي

من ناحية أخرى، يرى خبراء مثل Nicol Turner Lee أنّ هذه الظاهرة تمثل «مينسترلية رقمية» تعيد إنتاج عنصرية القرن التاسع عشر بأدوات القرن الحادي والعشرين. وبالمقابل، يحذّر باحثو سياسات التقنية من أنّ الانتشار السريع للمحتوى المسيء يقوّض ثقة الجمهور في حلول الذكاء الاصطناعي.

ما الحل؟

إضافة إلى سياسات أكثر صرامة، يدعو متخصصو الأخلاقيات إلى:

  1. اختبارات ضغط قبل الإطلاق: يجب على الشركات محاكاة أسوأ السيناريوهات لاكتشاف الثغرات.
  2. شفافية البيانات: نشر سجلات محدثة لطلبات الحذف وإجراءات التنفيذ.
  3. تمكين المستخدمين: توفير أدوات إبلاغ أسرع تسمح للمشاهِد بحجب المحتوى فوراً.
  4. توعية صنّاع المحتوى: فرض دورات إلزامية حول خطاب الكراهية لكل من يحصل على وصول مبكر لنماذج الفيديو.

خاتمة

ختاماً، تؤكد قضية مقاطع عنصرية Veo 3 أنّ الذكاء الاصطناعي سلاح ذو حدّين. فإذا استثمرناه بمسؤولية، قد يفتح آفاقاً إبداعية غير مسبوقة؛ وإن تغاضينا عن مخاطره، سيبقى خطاب الكراهية أسرع المستفيدين.

المصدر:

Media Matters, Ars Technica, Wired, TechTimes


الأسئلة الشائعة حول مقاطع Veo 3 العنصرية

ما هو نموذج Veo 3 من غوغل؟

Veo 3 هو نموذج ذكاء اصطناعي متقدم من شركة غوغل لتوليد مقاطع فيديو عالية الجودة بناءً على الأوامر النصية، وتم الإعلان عنه في مايو 2025.

ما المقصود بمقاطع عنصرية Veo 3؟

هي مقاطع فيديو قصيرة تم توليدها باستخدام Veo 3، وتحتوي على صور نمطية عنصرية ومعادية للسامية، نُشرت على تيك توك وحملت علامة Veo بوضوح.

كيف تجاوز المستخدمون فلاتر غوغل الأمنية في Veo 3؟

باستخدام أوامر مبطنة وغير مباشرة تسمح للنموذج بإنتاج محتوى مسيء دون أن يرصدها نظام الرقابة تلقائيًا.

ما دور تيك توك في انتشار هذه المقاطع؟

رغم سياسة تيك توك الصارمة ضد خطاب الكراهية، تمكّن بعض المستخدمين من نشر المقاطع لفترة وجيزة قبل حذفها، ما أدى إلى انتشارها بسرعة.

هل تخضع غوغل للمساءلة بشأن Veo 3؟

نعم، حيث وُجهت إليها انتقادات من منظمات حقوقية وتقنية لعدم فعالية ضوابطها في منع إساءة استخدام النموذج.

شاركها.

منصة شاملة تقدم محتوى متنوعًا يجمع بين الأخبار الحديثة والمدونات التحليلية، بالإضافة إلى إحصائيات دقيقة، واختبارات تفاعلية، ومقاطع فيديو مبتكرة.

إعلان
Subscribe
Notify of
0 Comments
Oldest
Newest Most Voted
تعليقات داخلية
عرض كل التعليقات
إعلان
wpDiscuz
0
0
حابين نسمع رأيك، اترك تعليقك.x
()
x
Exit mobile version