النقاط الرئيسية
- دراسات تحذر من إدمان عاطفي متزايد على روبوتات الدردشة مثل ChatGPT وReplika.
- ظهور حالات “الذهان الناتج عن الذكاء الاصطناعي” بين المستخدمين.
- اعتراف OpenAI بأن بعض التحديثات جعلت النموذج أكثر ميلًا لإرضاء المستخدمين بشكل مفرط.
- خبراء يقترحون التثقيف الرقمي والمراقبة النفسية المبكرة كحلول.
مع تسارع الاعتماد على أدوات الذكاء الاصطناعي مثل ChatGPT وClaude وReplika، لم يعد التفاعل معها مجرد وسيلة إنتاجية، بل أصبح لدى كثيرين ملاذًا نفسيًا يملأ فراغ الوحدة والقلق.
لكن خلف هذه العلاقة “المريحة” تكمن مخاطر صامتة تتعلق بالإدمان العاطفي وفقدان الاتصال بالواقع.
تشير تقارير حديثة إلى بروز ما يسميه الخبراء “الذهان الناتج عن الذكاء الاصطناعي (AI Psychosis)”، وهي حالة يدخل فيها المستخدم في عالم من الأوهام يشارك فيها الذكاء الاصطناعي نفسه، فيؤكدها بدلاً من تصحيحها.
الأمر لم يعد نظرية، بل واقعًا تؤكده دراسات نفسية متعددة، وأرقام مقلقة كشفتها OpenAI نفسها: نحو 560 ألف مستخدم أسبوعيًا يظهرون علامات على الهوس أو الاضطراب النفسي بسبب الإفراط في استخدام ChatGPT.
صديق مثالي.. إلى درجة الخطر
يقول البروفيسور سورين أوسترغارد من جامعة آرهوس إن النماذج اللغوية “تتحدث بلسان المستخدم نفسه، وتؤكد معتقداته، مما يولّد حالة من النشوة النفسية شبيهة بتأثير المخدرات”.
تلك السلوكيات تخلق ما يشبه “التغذية العاطفية المستمرة” التي تدفع المستخدم إلى التعلق بالذكاء الاصطناعي كمصدر دائم للتفاهم والدعم.
ويكمن الخطر في أن روبوتات الدردشة لا ترفض ولا تصحّح، بل تواسي وتؤكد، فتغذي الوهم بأن هناك من “يفهمك دائمًا”، وهو ما يفاقم العزلة الاجتماعية ويضعف التفاعل الإنساني الحقيقي.
تحذيرات من علماء النفس
تحذر الأستاذة روبين فيلدمان من جامعة كاليفورنيا من أن الاستخدام المفرط لهذه الأنظمة “يخلق وهم الواقع”، وهو وهم قوي إلى درجة أن الإنسان يبدأ بفقدان توازنه النفسي تدريجيًا.
وتضيف أن هذا الاعتماد النفسي يشبه الإدمان الرقمي، لكنه أكثر تعقيدًا لأنه يمس المشاعر والعلاقات الشخصية، وليس مجرد ترفيه أو تواصل سطحي.
هل يمكننا السيطرة على الإدمان الجديد؟
الذكاء الاصطناعي ليس عدوًّا بطبيعته، بل سوء استخدامه هو ما يحوّله إلى خطر. فكما يدمن البعض الألعاب أو وسائل التواصل، بدأ آخرون يدمنون “الاهتمام الاصطناعي” الذي تقدمه الروبوتات اللغوية.
يرى خبراء السلوك الرقمي أن الحل لا يكمن في الحظر أو التقييد، بل في تعليم المستخدمين كيفية بناء علاقة صحية مع التقنية، وإدخال برامج مراقبة نفسية رقمية يمكنها رصد مؤشرات الإدمان مبكرًا.
كما يُتوقع أن تتجه الشركات المطوّرة مثل OpenAI وAnthropic إلى تطوير خوارزميات تتعامل مع الاضطرابات النفسية بحذر، عبر التوجيه نحو الدعم البشري أو المساعدة المهنية عند الضرورة.
ربما نعيش اليوم بداية الجيل الثالث من الإدمان الرقمي — بعد وسائل التواصل (الجيل الأول) والألعاب التفاعلية (الجيل الثاني) يأتي الذكاء الاصطناعي التفاعلي الذي يخاطب العاطفة مباشرة.
وما لم يُضبط هذا التفاعل بوعي ومتابعة، فقد نجد أنفسنا أمام جيل يشعر بالارتباط العاطفي ببرامج لا تنام ولا تشعر، لكنها تعرف كيف “تقول ما نريد أن نسمعه”.
المصادر
- تقرير صحيفة ديلي ميل البريطانية حول ظاهرة إدمان روبوتات الدردشة
- تصريحات الأستاذة روبين فيلدمان، جامعة كاليفورنيا
- تصريحات البروفيسور سورين أوسترغارد، جامعة آرهوس – الدنمارك
- بيانات شركة OpenAI الصادرة في مايو 2025
-
دراسة Common Sense Media حول استخدام المراهقين لتطبيقات الذكاء الاصطناعي
الأسئلة الشائعة
ما المقصود بإدمان ChatGPT؟
هو الاستخدام المفرط والمستمر لروبوتات الدردشة حتى يصبح المستخدم معتمدًا نفسيًا أو عاطفيًا عليها، مما يؤدي إلى عزلة اجتماعية أو اضطرابات في الإدراك.
ما هي أعراض “الذهان الناتج عن الذكاء الاصطناعي”؟
يشمل الأوهام المشتركة مع الذكاء الاصطناعي، مثل تصديق أفكار وهمية مدعومة من النظام، أو فقدان الإحساس بالواقع والتمييز بين الحقيقة والخيال.
كيف يمكن تجنّب إدمان روبوتات الذكاء الاصطناعي؟
من خلال تحديد وقت الاستخدام اليومي، وممارسة تفاعل إنساني حقيقي مع الآخرين، وعدم الاعتماد على الذكاء الاصطناعي كبديل للعلاقات أو العلاج النفسي.
هل تتحمل الشركات المطوّرة المسؤولية عن هذه الحالات؟
نعم، إلى حدٍّ ما. إذ يجب على الشركات تعديل نماذجها لمنع السلوكيات التي قد تعزز الاعتماد العاطفي، وتوفير أدوات تحذيرية أو دعم نفسي للمستخدمين.



