في الأسابيع الأخيرة، تصاعدت شكاوى مستخدمين من أنحاء مختلفة حول مشاكل في Gemini: تعثّر أو نتائج غير دقيقة في توليد الصور (خصوصًا عندما تتضمّن أشخاصًا أو سياقات تاريخية)، تباطؤ واستجابات متحفظة أكثر من اللازم، وأحيانًا رفض طلبات عادية بدعوى الحساسية. هذا الجدل دفع غوغل إلى التعليق رسميًا وشرح بعض ما حدث، مع وعود بتحسينات واسعة. في هذا التقرير نعرض أبرز الشكاوى، ملخص ردود غوغل، ونحلّل الأسباب التقنية والسياسية-المنتجية المحتملة، ثم نناقش التأثير على المستخدم العربي.
أولًا: ماذا يقول المستخدمون؟
- فشل/تذبذب في توليد الصور: يتكرر وصف حالات لا يُنتج فيها Gemini الصورة المطلوبة أو يُنتجها بنتائج “خاطئة سياقيًا”؛ مثل تمثيل شخصيات تاريخية بأعراق أو أزياء لا تتطابق مع الواقع، أو ظهور تفاصيل غير منطقية عند طلب لقطات دقيقة.
- محدودية أو قيود حسب المنطقة: اشتكى بعض المستخدمين من أن ميزات تحرير/توليد الصور غير متاحة في دول معينة أو لا تعمل باستقرار، رغم تفعيل الاشتراك.
- ردود مفرطة الحذر: يرفض Gemini أحيانًا استفسارات غير حساسة، أو يقدّم إجابات عامة جدًا، الأمر الذي يوصف بأنه “فلترة زائدة” تُفسد تجربة الاستخدام.
- مشكلات أداء: تباطؤ ملحوظ، وانقطاعات متقطّعة، ورسائل خطأ عامة بدون تفسير تقني واضح.
- انحياز لغوي/سياسي: لوحظ اختلاف في نبرة الاستجابة أو دقتها تبعًا للّغة (مثل العربية) أو الموضوع (سياسي/تاريخي/اجتماعي)، ما يُشعر البعض بوجود تحيز أو تدريب غير متوازن عبر اللغات.
الخلاصة: صورة الشكاوى ترسم مزيجًا من أعطال تقنية، وضبط سياساتي/أخلاقي مُشدّد، وتحديات خاصة بتوليد صور الأشخاص والسياقات التاريخية.
ثانيًا: ماذا قالت غوغل؟
- إيقاف مؤقت لتوليد صور الأشخاص: أعلنت غوغل وقف الميزة مؤقتًا لضمان دقة أعلى وتخفيف الأخطاء المرتبطة بالهوية والتاريخ.
- اعتذار واعتراف بالأخطاء: وصفت الشركة بعض النتائج بأنها “غير دقيقة” أو “غير مقبولة”، وأقرّت بأن الاختبارات لم تلتقط بدرجة كافية جوانب حسّاسة ظهرت لاحقًا على نطاق الاستخدام العام.
- تشخيص أولي للمشكلة: أشارت غوغل إلى ضبط مفرط للتنوع في المخرجات (Over-tuning for diversity) جعل النموذج يولّد تمثيلات غير ملائمة سياقيًا، وإلى حذر زائد دفع إلى رفض طلبات ليست حسّاسة أصلًا.
- تعهد بتحسينات: وعدت بإعادة إطلاق ميزة الصور بعد تحسين خوارزميات التصفية والضبط، وتوسيع الاختبارات، خصوصًا للسياقات التاريخية واللغات المختلفة.
ثالثًا: لماذا حدث هذا؟
-
التوازن الصعب بين الدقة والتنوع
- لتجنّب التحيّز، يُدرَّب النموذج على إظهار تنوّع واسع في تمثيل الأشخاص. لكن عندما يُطبَّق ذلك بشكل ميكانيكي في سياقات تاريخية أو محدّدة الهوية، تنشأ أخطاء واقعية/ثقافية.
-
فلترة السلامة (Safety) المُشدّدة
- أنظمة الحماية من المحتوى المسيء أو الحسّاس أصبحت متشدّدة لدرجة رفض طلبات عادية. السبب غالبًا سياسات عامة تُطبّق بلا ما يكفي من إدراك للسياق المحلي أو اللغوي.
-
تفاوت الجودة عبر اللغات
- بيانات التدريب، وأدوات التقييم، وأطر الاختبار غالبًا تكون أقوى بالإنجليزية. النتيجة: فجوات أداء في العربية أو لغات أخرى، تظهر كتحفّظ زائد أو “تردد” أو أخطاء فهم.
-
ضغط السوق والإطلاق السريع
- سباق الميزات قد يُقلّص دورة الاختبار الواقعي قبل التعميم. بعض العيوب لا تظهر إلا عندما يتوسّع الاستخدام ويزداد تنوّع الطلبات بشكل هائل.
-
تعقيد توليد صور الأشخاص
- الأشخاص أصعب فئة في التوليد: تتداخل فيها قضايا الهوية، الدقة التاريخية، الرموز الثقافية، وحساسيات أخلاقية—أي خطأ يبدو فاقعًا، وأي فلترة زائدة تُفسد التجربة.
رابعًا: كيف ينعكس ذلك على المستخدم العربي؟
- سياقات تاريخية/سياسية حسّاسة: العالم العربي مليء بموضوعات مُحمّلة بالمعاني؛ أي خطأ تمثيلي قد يُفهم انحيازًا أو تجهيلًا، فيضاعف الحساسية.
- اختلاف اللهجات والنُظم الكتابية: العربية متعددة اللهجات وغنية بالاستعارات؛ ما يتطلب تدريبًا وفهمًا دلاليًا أعمق لتجنّب سوء الفهم أو الردود العامة.
- توفر الميزات إقليميًا: قد تتأخر ميزات أو تتعطّل بخلاف مناطق أخرى، ما يزيد فجوة الانطباع عن “عدم التكافؤ”.
خامسًا: كيف تتعامل كصانع محتوى عربي؟
- اختبر وحرّر يدويًا: راجع المخرجات—خصوصًا الصور—في التفاصيل التاريخية والرموز. لا تنشر صور أشخاص مولّدة دون تدقيق بصري صارم.
- كن محددًا في التعليمات: حدّد الزمن/المكان/الزي/الهوية المطلوبة في الطلبات. كلما زادت الدقة، قلّ هامش التأويل الخاطئ.
- قدّم سياقات مرجعية: أرفق وصفًا تحريريًا يوضح الخلفية التاريخية/الثقافية للصورة؛ لتقليل سوء الفهم عند القارئ.
- خطط بدائل: عند تعذّر/تعثّر التوليد، استخدم صور أرشيفية مرخّصة أو رسوم توضيحية بسيطة غير حسّاسة للهوية.
سادسًا: إلى أين تتجه البوصلة؟
غوغل أعلنت عن مسار إصلاحي يعالج التنوع المفرط غير الدقيق والفلترة المُبالغ فيها، مع تعهّد بتوسيع الاختبارات عبر اللغات والسياقات. إذا نُفّذت هذه الوعود بصرامة، نتوقّع عودة ميزة توليد الصور بأداء أكثر واقعية وأقل تحفّظًا غير مبرّر—على أن تظل بعض الحدود الأخلاقية قائمة (وهذا طبيعي). بالنسبة للمستخدم العربي، جودة التجربة ستتحسّن بقدر ما تُعالج فجوات اللغة والسياق.
المصادر:
- مدونة Google الرسمية حول إيقاف توليد صور الأشخاص في Gemini وشرح الأخطاء.
- تصريحات لمسؤولين في غوغل تصف بعض المخرجات بـ“غير المقبولة”، مع وعود بإصلاحات.
- تقارير تقنية وإعلامية دولية شرحت أسباب الخلل: الضبط المفرط للتنوع، والحذر الزائد في السياسات.
- نقاشات مجتمع المطوّرين ومستخدمين يشكون بطء الأداء، ورفض الطلبات، وتعذّر الميزات حسب المنطقة.
- مقالات عربية تناولت ملف صور Gemini والجدل حول الدقة التاريخية والتمثيل.
