عندما يتحول الابتكار إلى تهديد
في ظل التقدم السريع في تقنيات الذكاء الاصطناعي، يظهر سؤال مُلح: هل يمكن أن يُستخدم هذا الذكاء المتطور لأغراض خطيرة مثل تصنيع أسلحة بيولوجية؟ شركة OpenAI لم تتهرّب من الإجابة، بل خرجت بتصريح رسمي يُثير القلق ويضع الجميع أمام مسؤوليات جديدة.
OpenAI تحذّر: الذكاء الاصطناعي قد يفتح أبوابًا قاتلة
في منشور حديث، أكدت OpenAI أن نماذجها المتقدمة من الذكاء الاصطناعي قد تصل إلى مرحلة يمكنها فيها توفير المعرفة الكافية لأشخاص غير مختصين لصنع أسلحة بيولوجية. وعلى الرغم من أن هذه الأنظمة لا تستطيع تصنيعها بشكل مباشر، إلا أن خطرها يكمن في قدرتها على إرشاد المستخدمين خطوة بخطوة نحو تحقيق ذلك.
How can AI companies balance accelerating biological discovery while preventing the same capabilities from being misused to create bioweapons?@OpenAI
“Preparing for future AI capabilities in biology”
• Advanced AI models are already helping scientists identify promising drugs… pic.twitter.com/3mdaOB2IBy
إعلان— DailyHealthcareAI (@aipulserx) June 18, 2025
نموذج O3 في قلب الجدل
تتوقع الشركة أن تصل النسخ المستقبلية من نموذجها الاستدلالي “O3” إلى مستوى يمكن فيه استغلاله لأغراض ضارة. وهذا ما دفعها لتبنّي إجراءات صارمة تُعرف بسياسة “السلامة أولاً”، من بينها:
- تطوير أنظمة قادرة على اكتشاف محاولات الاستخدام الخاطئ.
- إرسال تنبيهات فورية للمشرفين البشر.
- بناء إطار رقابي يستبق التهديدات المحتملة قبل حدوثها.
بين الابتكار والمخاطر: التحدي الأخلاقي الأكبر
يقول يوهان هايديكي، رئيس قسم السلامة في OpenAI، إن المشكلة ليست في قدرة النماذج على ابتكار تهديدات بيولوجية جديدة، بل في سهولة استخدامها لإعادة إنتاج تهديدات معروفة يمكن أن يقع استخدامها في الأيادي الخطأ.
هذا التصريح يعيد إلى الأذهان سيناريوهات الخيال العلمي، حيث يتحول الذكاء الاصطناعي إلى أداة بيد جهات غير مسؤولة – سواء كانت جماعات إرهابية أو كيانات مارقة – تسعى لتقويض الأمن العالمي.
السباق بين التكنولوجيا والتشريعات
القلق الذي عبرت عنه OpenAI لا يأتي في فراغ. فمع كل إصدار جديد من نماذج الذكاء الاصطناعي، تتوسع قدراتها بشكل مذهل، بينما تظل القوانين والتشريعات متأخرة بخطوات.
هذه الفجوة الخطيرة تعني أن المجال أصبح بحاجة إلى:
- تشريعات عالمية صارمة تفرض حدودًا واضحة على استخدامات الذكاء الاصطناعي.
- تحالفات دولية لتبادل المعلومات حول محاولات الاستخدام السيئ.
- تعزيز الوعي الأخلاقي داخل الشركات التقنية ذاتها.
أمثلة من الواقع: ليس مجرد نظرية
في عام 2022، أظهر تقرير صادر عن معهد RAND أن الباحثين الذين استخدموا أنظمة ذكاء اصطناعي في محاكاة سيناريوهات الهجمات البيولوجية نجحوا في توليد خطط معقدة لهجوم باستخدام السلاح البيولوجي في أقل من ساعتين. هذا المثال يؤكد أن التهديد لم يعد مستقبليًا، بل بات أقرب مما نتصور.
خاتمة: ما الذي يجب أن يحدث الآن؟
إن تحذير OpenAI بشأن احتمالية استخدام الذكاء الاصطناعي في تصنيع أسلحة بيولوجية يجب أن يُؤخذ على محمل الجد. نحن أمام تقنيات مذهلة قادرة على إنقاذ ملايين الأرواح، لكنها في الوقت ذاته قد تتحول إلى كابوس بشري إذا لم يتم التحكم فيها بحكمة ومسؤولية.
المصدر:
OpenAI، Axios
أسئلة واجوبة حول الذكاء الاصطناعي والأسلحة البيولوجية
هل يمكن فعلاً للذكاء الاصطناعي تصنيع أسلحة بيولوجية؟
لا، لكنه يمكن أن يُوفر الإرشادات والنصائح التقنية التي تُساعد شخصًا غير مختص على تنفيذ ذلك.
ما هو نموذج O3 من OpenAI ولماذا هو مثير للقلق؟
هو نسخة متقدمة من النماذج التوليدية، وقد تصل قدراته إلى مرحلة يُمكن استغلالها لصناعة أسلحة بيولوجية معروفة.
ما الإجراءات التي تتخذها OpenAI لمنع هذا الخطر؟
تطوير أنظمة أمان متقدمة، تنبيهات فورية، وخوارزميات مراقبة سلوكية للكشف عن الاستخدامات الضارة.



