الأربعاء, أكتوبر 8, 2025
إعلان

في عالمٍ أصبحت فيه الشاشات واجهة أساسية لحياة الأطفال، يطالب الآباء والمشرّعون بمنصات إلكترونية أكثر أمانًا. لكن في أكتوبر 2025، أظهرت تجربة ميدانية أن «أدوات حماية الأطفال» في تيك توك ربما تكون أقل فاعلية مما نعتقد. كيف حصل ذلك؟ وما الذي كشفت عنه الخوارزميات؟ وما خلصت إليه الأبحاث الحديثة؟ في هذا المقال، أقدّم إعادة بناء للقصة بأسلوب سهل ومفيد، مضافًا إليه تحليلاً جديدًا ورؤية مستقبلية.

تجربة Global Witness: كيف انهارت الحماية

إنشاء الحسابات التجريبية

قامت مجموعة Global Witness بإنشاء عدة حسابات وهمية تحمل تاريخ ميلاد 13 سنة، مستخدمة هواتف وأجهزة جديدة “نظيفة” بلا سجل استخدام. الهدف؟ اختبار نظام الحماية في الظروف المثالية، حيث لا يوجد نشاط سابق قد يشوّش الخوارزميات.

ما الذي وجدوه؟

  • بمجرد تسجيل الدخول وتفعيل الوضع المقيد “Restricted Mode” (الذي يُفترض أن يحظر المحتوى الجنسي) وفتح شريط البحث، بدأت منصة تيك توك تقترح مصطلحات بحث مثيرة جنسيًا مثل “very rude babes” و”hardcore clips”.
  • في قسم “ربما تعجبك أيضًا” (You May Like)، ظهرت مقاطع تحتوي على إيحاءات جنسية واضحة، مع أوصاف صريحة.
  • بعد “نقرات قليلة”، تمكن الباحثون من الوصول إلى مقاطع إباحية كاملة، رغم سياسة تيك توك التي تمنع مثل هذا المحتوى وتقول إن مرتكبيه يُعرضون للحظر.
  • في بعض الحالات، تم إخفاء المحتوى الإباحي داخل مقاطع تبدو بريئة جزئيًا، أو عبر تقسيم الشاشة بحيث تُعرض صورة “مألوفة” في جزء والمقطع الجنسي في جزء آخر.

رد فعل تيك توك

عندما تواصلت “غارديان” مع تيك توك، أكّدت أن بعض المقاطع التي تم الإشارة إليها أُزيلت. كما أُدخلت تعديلات على آلية اقتراح البحث لمنع ظهور المصطلحات “السيئة”. وأضافت أنها تعمل على تحسين الخوارزمية وآليات الفلترة.

ما الذي يكشفه هذا عن خوارزميات تيك توك؟

الفجوة بين النية والتنفيذ

حتى إن كانت سياسات تيك توك واضحة في منع المحتوى الجنسي أو الإباحي. يبدو أن التنفيذ العملي أقل دقة من الإعلان. الفشل لا يكمن في غياب سياسة، بل في ضعف السيطرة على ما تقدّمه الخوارزميات على أرض الواقع.

الخوارزمية تستجيب للاهتمام لا للنوايا

الخوارزميات لا تفهم “مفهوم الحماية” كما نريده؛ بل تترجم نشاط المستخدم إلى توصيات. إذا بدأ المستخدم (أو التجربة) بالبحث أو النقر على مصطلحات مثيرة، تُصعد الخوارزمية توصيات أكثر إثارة لمزيد من التفاعل، لتُبقِي المستخدم داخل المنصة.

إعلان

حدود التحقق العمري

من السهل للمستخدم أن يزوّر عمره، ومن الصعب التحقق بدقة. الأبحاث الأكاديمية تشير إلى أن حسابات الأطفال التجريبية كثيرًا ما تتعرض لنفس المحتوى الذي يُعرض لحسابات البالغين. أي أن التمييز يعمل بشكل شبه متساوٍ بين الفئات العمرية.

في دراسة واسعة النطاق، وجد الباحثون أن مقاطع “ضارة” (إباحية أو مقلقة نفسيًا) تظهر بسرعة أكبر للحسابات التي تم تصنيفها كـ 13 سنة مقارنة بحسابات عمر 18 سنة، في عدة منصّات فيديو، بما في ذلك تيك توك.

التعقيد في الكشف الآلي

في ورقة حديثة، تم تصميم نماذج مثل TikGuard التي تستخدم التعلم العميق (Transformer) لتصنيف المحتوى غير المناسب بدقة تصل إلى ~86.7٪. لكنها لا تزال تواجه صعوبة في اكتشاف الحالات التي تُخفي المحتوى أو تُخفيه ضمن سياقات تبدو “آمنة”.

كما أن تحليلًا موضوعيًا أظهر أن المقاطع التي تُوصى بها للأطفال غالبًا ما تحمل “إشارات بصرية مظلمة” أو موضوعات ضمنية تهدف للتأثير النفسي، وليس دائمًا الإيحاء الجنسي المباشر.

أمثلة وردود فعل عامة

  • في وسائل التواصل، نشر بعض المستخدمين لقطات شاشة لمقترحات بحث غير مناسبة، مع تعليقات مثل: “لم أبحث عن هذا، فلماذا يظهر لي؟”
  • في المملكة المتحدة، بدأ تطبيق قانون “السلامة على الإنترنت” (Online Safety Act) يُلزم المنصات بمنع المحتوى الضار للقُصَّر، ويُشكّك البعض في مدى التزام تيك توك بالقانون بعد نتائج التجربة.
  • خبراء الأمان الرقمي ينددون بأن هذه النتيجة ليست مفاجئة، بل تأكيد على أن المنصات التقنية ما زالت متأخرة في التصدي للتحديات الحقيقية لحماية الأطفال.

تحليلي الشخصي: لماذا حدث هذا؟

  1. صراع الربحية مقابل الأمان
    تيك توك – مثل معظم المنصات – يصمم خوارزمياته للحفاظ على أقصى وقت تفاعل من المستخدم. المحتوى الجريء أو المثير غالبًا ما يُولّد تفاعلًا أعلى، فتُرجّح الخوارزميات هذا النوع، حتى إن كان خطرًا.
  2. نقص الشفافية والمراجعة المستقلة
    حتى اليوم، لا يزال الوصول إلى خوارزمية تيك توك محدودًا أمام الباحثين المستقلين، ما يخلق فجوة في المحاسبة.
  3. حدود الذكاء الاصطناعي
    التعرف على الإيحاءات، المزاح أو التورية، أو المقاطع المدمجة – كلها تحديات يصعب على الأنظمة الذكية الفصل بينها وبين المحتوى البريء.
  4. قوانين جديدة لا تكفي وحدها
    القوانين ضرورية، لكن التنفيذ والمراقبة المستمرة هما العامل الحاسم. لا يكفي وجود تشريع إذا لم تُفرض عقوبات حقيقية أو مراجعة مستقلة دورية.

ماذا يعني هذا لتيك توك والمستخدمين؟

  • قد تُفرض على تيك توك غرامات أو لوائح جديدة في دول مثل المملكة المتحدة أو الاتحاد الأوروبي إذا ثبت أنها تنتهك قانون السلامة على الإنترنت.
  • من المرجح أن تزيد الضغوط على المنصات لتفعيل آليات تحقق عمري مؤمنة (مثل التحقق باستخدام الهوية أو التعرف البيومتري).
  • قد تشهد السنوات المقبلة ابتكارات في الكشف التلقائي باستخدام نماذج متعددة الوسائط (فيديو + صوت + نص) لتحديد المحتوى الضار بدقة أعلى، مستفادة من أبحاث مثل تلك المذكورة أعلاه.
  • المستخدمون، لا سيما الآباء والمربين، سيُطالبون بالمزيد من الشفافية وتقارير سنوية حول مدى تعرض القُصَّر للمحتوى الضار.
  • بالنسبة لتيك توك: إذا لم تُصحّح المسار بسرعة، قد تواجه تراجعًا في الثقة، وربما حتى خسارة مستخدمين أو قيودًا قانونية في أسواق رئيسية.

المصدر:

تقرير مجموعة Global Witness المنشور في “غارديان”


قسم الأسئلة الشائعة

هل الوضع المقيد (Restricted Mode) غير فعال كليًا؟
لا، لكنه ليس كافيًا؛ التجربة أثبتت أن بعض المحتوى الإباحي يُمرّر عبر خوارزمية الاقتراح.
كيف تصنع الحسابات التجريبية الفرق؟
لأنها تبدأ من “صفحة نظيفة” مما يُنقّي عوامل التشويش، لذا يُكشف أوجه الضعف في الخوارزمية مباشرة.
هل ستتم معاقبة تيك توك؟
قد تخضع لغرامات أو متطلبات امتثال بموجب قوانين مثل قانون السلامة على الإنترنت (Online Safety Act) في المملكة المتحدة.
هل الأبحاث الجديدة تظهر أن كل المنصات مهددة؟
نعم، الدراسات أظهرت أن حتى يوتيوب وإنستغرام قد تقدّم محتوى ضارًا بمعدل أكبر للحسابات الصغيرة عمرًا.
ما الخطوة الأكثر فاعلية الآن؟
تكامل التقنيات (الذكاء الاصطناعي متعدد الوسائط)، والتحقق العمري الموثوق، والمراجعة الخارجية المستقلة مع سياسات شفافة.

شاركها.

أكتب بشغف عن التكنولوجيا والعلوم وكل ما هو جديد ومثير في عالم الابتكار. أشارك مقالات تهدف إلى تبسيط المفاهيم الحديثة وجعل المعرفة في متناول الجميع.

إعلان
Subscribe
Notify of
0 Comments
Oldest
Newest Most Voted
تعليقات داخلية
عرض كل التعليقات
إعلان
wpDiscuz
0
0
حابين نسمع رأيك، اترك تعليقك.x
()
x
Exit mobile version