ميتا تتخذ موقفًا حذرًا من الذكاء الاصطناعي المتقدم
أعلنت شركة ميتا عن سياسة جديدة تتعلق بتطوير أنظمة الذكاء الاصطناعي المتقدم، حيث أشارت إلى أنها قد تتوقف عن إطلاق هذه الأنظمة إذا رأت أنها تشكل خطرًا كبيرًا على الأمن العالمي أو الاجتماعي. جاء هذا الإعلان ضمن وثيقة بعنوان “إطار عمل الذكاء الاصطناعي المتقدم” (Frontier AI Framework)، التي حددت فيها ميتا معاييرها الخاصة لتصنيف أنظمة الذكاء الاصطناعي من حيث درجة خطورتها.
ما هي المخاطر التي تخشاها ميتا؟
وفقًا للوثيقة، تصنّف ميتا أنظمة الذكاء الاصطناعي إلى فئتين رئيسيتين:
🔹 الأنظمة عالية الخطورة – قد تساعد في تنفيذ هجمات إلكترونية أو بيولوجية ولكنها قابلة للسيطرة.
🔹 الأنظمة فائقة الخطورة – قد تؤدي إلى كوارث لا يمكن السيطرة عليها.
ومن بين السيناريوهات التي تراها ميتا خطيرة:
✅ اختراق أنظمة التشفير المتقدمة مثل تلك المستخدمة في واتساب.
✅ انتشار أسلحة بيولوجية معقدة يمكنها التأثير على الأمن العالمي.
✅ استخدام الذكاء الاصطناعي في هجمات سيبرانية واسعة النطاق.
تؤكد ميتا أن هذه القائمة ليست شاملة، ولكنها تمثل أكثر السيناريوهات المحتملة التي قد تنتج عن تطوير أنظمة ذكاء اصطناعي متقدمة.

هل ستوقف ميتا تطوير الذكاء الاصطناعي؟
إذا اعتبرت ميتا أن نظامًا معينًا يمثل خطرًا كبيرًا، فستتخذ إحدى الخطوتين:
✔️ تقييد الوصول إلى هذا النظام داخليًا حتى يتم تقليل المخاطر إلى مستوى مقبول.
✔️ إيقاف تطوير النظام بالكامل إذا كان ينتمي لفئة “فائقة الخطورة”.
كما أوضحت الشركة أنها تعتمد على اختبارات متعددة يقوم بها باحثون من داخل وخارج ميتا، إلى جانب مراجعات من صناع قرار رفيعي المستوى، لتحديد مستوى خطورة أي نظام ذكاء اصطناعي يتم تطويره.
التحديات التي تواجه ميتا في تطوير الذكاء الاصطناعي
1. نهج “المصدر المفتوح” بين الأمان والمخاطر
لطالما تبنت ميتا نهج “المصدر المفتوح” في تطوير الذكاء الاصطناعي، مما يعني أنها تجعل تقنياتها متاحة للعامة، ولكنها ليست مفتوحة بالكامل كما هو الحال مع بعض الشركات الأخرى. وعلى الرغم من أن هذه الاستراتيجية ساهمت في انتشار نماذج “لاما” (Llama) بشكل واسع، إلا أنها جلبت أيضًا مخاطر أمنية.
حيث أفادت تقارير أن أحد خصوم الولايات المتحدة استخدم نموذج “لاما” لإنشاء روبوت دردشة دفاعي يُستخدم في الأمن السيبراني، مما أثار مخاوف بشأن استخدام الذكاء الاصطناعي لأغراض غير مشروعة.
2. مقارنة مع شركات الذكاء الاصطناعي الأخرى
في الوقت الذي تسعى فيه ميتا إلى تحقيق توازن بين إمكانية الوصول والأمان، تتخذ شركات مثل أوبن إيه آي نهجًا أكثر تحفظًا، حيث تحتفظ بأنظمتها خلف واجهات برمجة التطبيقات (API)، مما يقلل من خطر إساءة استخدامها.
على الجانب الآخر، تواجه الصين تحديات مماثلة، حيث أن شركات الذكاء الاصطناعي مثل “ديب سيك” تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك الضمانات الكافية لمنع إساءة استخدامها.

ما هو مستقبل الذكاء الاصطناعي في ميتا؟
تقول ميتا إن إطار عمل الذكاء الاصطناعي المتقدم سيتطور باستمرار استجابةً للمخاطر المحتملة وتغيرات المشهد التقني، مؤكدة أنها تسعى إلى تقديم هذه التكنولوجيا للمجتمع بطريقة تحقق أكبر فائدة بأقل ضرر.
في النهاية، قد يشكل هذا الإطار خطوة مهمة لضمان التطوير الآمن لأنظمة الذكاء الاصطناعي، خاصة في ظل تزايد المخاوف حول التلاعب بالمعلومات والهجمات السيبرانية التي قد تنجم عن هذه التقنيات المتقدمة.