لم تعد تحذيرات خبراء التقنية من مخاطر الذكاء الاصطناعي التوليدي مجرد تكهنات مستقبلية، بل أصبحت واقعًا مقلقًا نعيشه اليوم. ففي واحدة من أكبر أزمات المحتوى الرقمي مؤخرًا، وجد روبوت الدردشة “غروك” (Grok)، التابع لشركة “إكس إيه آي” (xAI) المملوكة للملياردير إيلون ماسك، نفسه في قلب عاصفة من الانتقادات والتحقيقات القانونية. السبب؟ تحوله إلى “مصنع” لإنتاج الصور الإباحية والمزيفة على نطاق صناعي غير مسبوق.
أرقام صادمة: 3 ملايين صورة في 11 يومًا
كشف تحقيق موسع ومشترك بين صحيفة “نيويورك تايمز” و”مركز مكافحة الكراهية الرقمية” (CCDH) عن حجم الكارثة الرقمية التي ضربت منصة “إكس”. تُشير البيانات إلى أن المستخدمين تمكنوا من توليد ما يقرب من 3 ملايين صورة جنسية صريحة باستخدام غروك في فترة قصيرة جدًا، امتدت فقط من 29 ديسمبر إلى 8 يناير.
علاوة على ذلك، لم يقتصر الأمر على صور البالغين أو المشاهير، بل تجاوز الخطوط الحمراء بشكل مرعب. فقد تضمنت هذه الموجة حوالي 23,000 صورة يُحتمل أنها تصور استغلالًا جنسيًا للأطفال (CSAM)، مما يضع الشركة أمام مساءلة قانونية وأخلاقية خطيرة.
تحليل البيانات: ماذا تقول الإحصائيات؟
لتقريب الصورة أكثر، إليكم تفصيلًا لما وجده المحققون عند تحليل عينة ضخمة من الصور على المنصة:
- إجمالي الصور المحللة: 4.4 مليون صورة.
- الصور ذات الطابع الجنسي: 1.8 مليون صورة (حوالي 40% من المحتوى!).
- المحتوى المتعلق بالقاصرين: عشرات الآلاف من الصور المخالفة للقوانين الدولية.
لماذا حدث هذا الانهيار في معايير الأمان؟
في حين تفرض شركات مثل “OpenAI” و”Google” قيودًا صارمة (Guardrails) على أدوات توليد الصور الخاصة بها لمنع المحتوى الإباحي، يبدو أن فلسفة “حرية التعبير المطلقة” التي ينتهجها إيلون ماسك قد فتحت الباب على مصراعيه لإساءة الاستخدام.
أشار تقرير لموقع “ماشابل” التقني إلى أن مركز مكافحة الكراهية الرقمية أجرى اختبارات عملية على أداة “التحرير بنقرة واحدة” المتاحة في غروك. النتيجة كانت صادمة: أكثر من نصف الردود التي قدمها الروبوت تضمنت محتوى جنسيًا صريحًا دون أي فلترة فعالة.
دور إيلون ماسك في الأزمة
من ناحية أخرى، لا يمكن تجاهل الدور الذي لعبه إيلون ماسك شخصيًا في الترويج لهذه الميزات. ربطت “نيويورك تايمز” الارتفاع الجنوني في استخدام غروك لهذه الأغراض بمنشورات ماسك نفسه، حيث ظهر في صور مولدة بالذكاء الاصطناعي بملابس غير لائقة، مما أعطى ضوءًا أخضر غير مباشر للمستخدمين لتجربة حدود الأداة.
يقول عمران أحمد، الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية: “هذا ليس مجرد خطأ تقني، بل هو إساءة استخدام ممنهجة ضد النساء والفتيات على مستوى الصناعة. أدوات إزالة الملابس كانت موجودة سابقًا، لكنها لم تكن أبدًا بهذه السهولة أو مدمجة في منصة عالمية ضخمة كما فعل ماسك مع غروك”.
ردود الفعل: غضب حقوقي وتحرك حكومي
لم تمر هذه الأزمة مرور الكرام؛ فقد أثارت موجة من الغضب والاستنكار عالميًا، مما أدى إلى تحركات سريعة على عدة أصعدة:
- التحقيقات الحكومية: باشرت ولاية كاليفورنيا وعدة حكومات أوروبية تحقيقات موسعة مع شركة “xAI” حول دورها في نشر صور مفبركة وعارية، خاصة تلك التي تمس القاصرين.
- الحظر المؤقت: لجأت بعض الدول إلى حظر المنصة مؤقتًا كإجراء احترازي لحين تقديم ضمانات أمنية واضحة.
- اعتراف المنصة: في المقابل، اضطرت منصة “إكس” للاعتراف بالمشكلة، مُعلنة عن وجود “ثغرات في إجراءات الحماية”، ووعدت بالعمل بشكل عاجل على “تفكيك” الصور المزيفة وإصلاح الخلل.
التزييف العميق: خطر يهدد الجميع
تُسلط أزمة غروك الضوء على قضية أوسع تُعرف بـ “الصور الحميمة غير الرضائية” (NCII). سهولة الوصول لهذه الأدوات تعني أن أي شخص – وليس المشاهير فقط – قد يكون عرضة لتزييف صوره واستخدامها في الابتزاز أو التشويه.
سابقًا، كانت عملية التزييف العميق (Deepfake) تتطلب خبرة تقنية وأجهزة قوية. اليوم، وبفضل أدوات مثل غروك، أصبح الأمر يتطلب مجرد وصف نصي بسيط ونقرة زر واحدة، مما يفاقم من صعوبة السيطرة على المحتوى الرقمي.
بينما يعد الذكاء الاصطناعي بثورة تقنية هائلة، تُثبت حادثة غروك أن التطور بدون ضوابط أخلاقية صارمة قد يؤدي إلى كوارث مجتمعية. الكرة الآن في ملعب المشرعين وشركات التقنية لفرض قوانين ملزمة تحمي المستخدمين، وخاصة الفئات المستضعفة، من هذا الطوفان الرقمي.
المصدر:
- تقارير نيويورك تايمز
- مركز مكافحة الكراهية الرقمية (CCDH)
- موقع ماشابل
