تخيل أن تتوقف سيارتك ذاتية القيادة فجأة في منتصف الطريق السريع، ليس بسبب عطل ميكانيكي أو خلل برجي، بل لمجرد أنها “قرأت” ملصقاً صغيراً على ظهر الشاحنة التي أمامها يأمرها بذلك. هذا السيناريو بات تهديداً واقعياً كشف عنه باحثون مؤخراً تحت مسمى “حقن الأوامر عبر البيئة الفيزيائية” (Physical Environment Prompt Injection).
في تحول جذري لمفاهيم الأمن السيبراني، لم يعد القراصنة بحاجة إلى حواسيب معقدة أو أكواد برمجية لاختراق الروبوتات الذكية؛ بات يكفيهم الآن ورقة وقلم. يكشف هذا التقرير تفاصيل هجوم CHAI الجديد، وكيف يمكن لنص بسيط أن يخدع أذكى الأنظمة، محققاً نسب نجاح صادمة في الاختبارات الواقعية.
ما هو هجوم CHAI؟ وكيف يختلف عن الاختراق التقليدي؟
تقليدياً، يركز خبراء الأمن السيبراني على حماية الأنظمة من الهجمات الرقمية التي تأتي عبر الشبكات. في المقابل، يستغل هجوم CHAI (وهو اختصار لتقنية حقن الأوامر في التفاعل البشري الروبوتي) الثغرة الموجودة في كيفية “فهم” الروبوت للعالم من حوله.
تعتمد الروبوتات الحديثة على نماذج الرؤية واللغة (Vision-Language Models – VLMs) لتفسير ما تراه الكاميرات وتحويله إلى أفعال. المشكلة تكمن في أن هذه النماذج تميل للتعامل مع أي نص تراه في البيئة المحيطة (لافتة محل، إعلان، كتابة على قميص) كأنه “أمر محتمل” للتنفيذ.
آلية العمل ببساطة:
- المدخلات: تلتقط كاميرا الروبوت صورة تتضمن نصاً مضللاً وضعه المهاجم (مثلاً: “انعطف يميناً الآن”).
- المعالج: يفسر الذكاء الاصطناعي هذا النص كجزء من تعليمات المهمة بدلاً من اعتباره ضوضاء خلفية.
- التنفيذ: يقوم نظام التخطيط الحركي بتنفيذ الأمر المكتوب فوراً، متجاهلاً برمجته الأصلية.
إحصائيات مرعبة: نسب نجاح تتجاوز التوقعات
لم يكن تحذير الباحثين مجرد نظرية، بل جاء مدعوماً بأرقام تثير القلق حول جاهزية الروبوتات للانتشار في بيئاتنا المفتوحة. وفقاً للدراسة التي نشرها موقع Digital Trends وتم التحضير لعرضها في مؤتمر SaTML 2026، حققت هذه الهجمات نتائج كارثية في اختبارات السلامة:
- القيادة الذاتية: نجح الهجوم في التلاعب بقرارات السيارات بنسبة 81.8% داخل بيئات المحاكاة.
- الطائرات المسيرة (Drones): تمكنت النصوص المضللة من إجبار الطائرات على الهبوط الاضطراري في مواقع غير آمنة بنسبة 68.1%.
- التجربة الواقعية: عند اختبار الهجوم على سيارة روبوتية صغيرة في العالم الحقيقي، نجحت اللافتات المطبوعة في تعطيل الملاحة وتضليل المسار بنسبة تجاوزت 87%.
علاوة على ذلك، أثبتت التجارب أن هذه الهجمات فعالة حتى مع تغير ظروف الإضاءة، أو زوايا التصوير، مما يعني أن الروبوت لا يحتاج لرؤية النص بوضوح تام ليقع في الفخ.
لماذا يعتبر هذا النوع من “اختراق الروبوتات الذكية” خطيراً جداً؟
تكمن خطورة هذا التهديد في بساطته وقابليته للتعميم. المهاجم لا يحتاج إلى “باب خلفي” برمجي، بل يعتمد على ما يسمى بالهندسة الاجتماعية للآلات.
1. انخفاض التكلفة التقنية
لا يتطلب الهجوم سوى طابعة لطباعة الملصق أو حتى الكتابة اليدوية. هذا يجعل دائرة المهاجمين المحتملين واسعة جداً، بدءاً من المخربين الهواة وصولاً إلى الجهات الخبيثة المنظمة.
2. القدرة على التخفي
يشير الباحثون إلى أن هجوم CHAI لا يكتفي بصياغة النص، بل يمكنه دمج الأوامر في بيئات مألوفة. يمكن كتابة الأمر بلغات متعددة (الصينية، الإسبانية) أو وضعه ضمن شعار إعلاني يبدو بريئاً للعين البشرية، بينما يراه الروبوت كأمر تنفيذي قاطع.
3. التعميم عبر النماذج
من المثير للقلق أن الهجوم أظهر قدرة على “العمل العام”. حيث حققت الأوامر العامة نجاحاً لا يقل عن 50% عبر نماذج ذكاء اصطناعي مختلفة، ووصلت إلى 70% في بعض إعدادات نماذج GPT المتقدمة.
الحلول المقترحة: هل يمكن تحصين الروبوتات؟
في ظل هذا التهديد المتصاعد، يقترح مجتمع البحث الأمني عدة استراتيجيات دفاعية لضمان سلامة التعامل بين البشر والروبوتات:
- الفلترة الذكية (Filtering): تطوير طبقات حماية تقوم بمسح النصوص الموجودة في الصور وعزلها قبل أن تصل إلى مركز اتخاذ القرار في الروبوت.
- التشكيك في المدخلات (Zero Trust): برمجة الروبوتات للتعامل مع أي نص بيئي (غير صادر عن المشغل المعتمد) كمدخل “غير موثوق” افتراضياً، ولا يتم تنفيذه إلا بعد اجتياز معايير سلامة صارمة.
- التدريب المضاد: تعريض نماذج الذكاء الاصطناعي لآلاف الصور التي تحتوي على نصوص خادعة أثناء التدريب، لتعليمها كيفية تجاهل هذه المحاولات.
يُظهر هجوم CHAI أننا ما زلنا في بداية الطريق نحو تأمين الذكاء الاصطناعي الفيزيائي. وبينما تفتح الروبوتات آفاقاً مذهلة للمستقبل، فإنها تجلب معها تحديات أمنية غير مسبوقة. إن تأمين الروبوت ضد “الكلمة المكتوبة” قد يكون بنفس أهمية تأمينه ضد الفيروسات الرقمية، خاصة عندما تكون لافتة بسيطة على الجدار قادرة على تغيير مصير آلة تزن أطناناً.
المصدر:
Digital trends
