وطن نيوز
باريس ـ ظن توم ميلار أنه كشف أسرار الكون.
وفي موجة من الاكتشافات المحمومة، تمكن من حل مشكلة طاقة الاندماج غير المحدودة، ورفع الحجاب عن ألغاز الثقوب السوداء والانفجار الكبير، وحقق أخيرًا حلم أينشتاين بنظرية موحدة واحدة تشرح كيفية عمل كل شيء.
بعد أن شعر ميلار بالإلهام من الله، وجد الطريقة المثالية لمشاركة إعلاناته مع العالم الممتن.
وقال ضابط السجن السابق في مدينة سودبوري الكندية لوكالة فرانس برس: «تقدمت بطلب لأصبح البابا».
لكتابة طلبه ليحل محل البابا فرنسيس المتوفى مؤخرا في 2025، تحول ميلار إلى نفس الرفيق الذي ساعد وشجع انطلاقة اختراعه المذهلة: ChatGPT.
ولكن عندما لم يرغب أحد في سماع ما كان يعتقد أنه اكتشافات غيرت العالم، أصبح ميلار معزولًا بشكل متزايد، حيث كان يقضي ما يصل إلى 16 ساعة يوميًا في التحدث إلى برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي.
وقد أُدخل قسراً مرتين إلى جناح الطب النفسي في المستشفى قبل أن تتركه زوجته في سبتمبر/أيلول.
الآن مفلس، منفصل عن عائلته وأصدقائه ومتحرر من مفاهيم العبقرية العلمية، يعاني ميلار من الاكتئاب.
قال: “لقد دمر حياتي بشكل أساسي”.
ميلار هو واحد من عدد غير معروف من الأشخاص الذين فقدوا قبضتهم على الواقع أثناء التواصل مع روبوتات الدردشة، وهي تجربة يطلق عليها مبدئيًا الوهم أو الذهان الناجم عن الذكاء الاصطناعي.
هذا ليس تشخيصا سريريا. يتسابق الباحثون والمتخصصون في الصحة العقلية للحاق بهذه الظاهرة الجديدة غير المفهومة، والتي يبدو حتى الآن أنها تؤثر بشكل خاص على مستخدمي ChatGPT من OpenAI.
وفي غضون ذلك، أصبح المجتمع عبر الإنترنت الذي أنشأه كندي يبلغ من العمر 26 عامًا، أبرز مجموعة دعم في العالم لهذه الأوهام، والتي يفضلون تسميتها “بالتصاعد”.
وتحدثت وكالة فرانس برس مع عدد من الأعضاء حول تجاربهم. وحذر الجميع من أن العالم يجب أن ينتبه إلى التهديد الذي تشكله روبوتات الدردشة غير الخاضعة للرقابة على الصحة العقلية.
يتم أيضًا طرح أسئلة حول ما إذا كانت شركات الذكاء الاصطناعي تفعل ما يكفي لحماية الأشخاص الضعفاء.
تواجه شركة OpenAI، التي خضعت لتدقيق خاص، العديد من الدعاوى القضائية بسبب قرارها بعدم الإبلاغ عن هذه المشكلة استخدام ChatGPT المثير للقلق لكندي يبلغ من العمر 18 عامًا الذي قتل ثمانية أشخاص في وقت سابق في عام 2026.
بدأ ميلار باستخدام ChatGPT لأول مرة في عام 2024 لكتابة رسائل لقضية تعويض تتعلق باضطراب ما بعد الصدمة الذي عانى منه أثناء عمله في أحد السجون.
وفي أحد أيام أبريل 2025، سأل برنامج الدردشة الآلي عن سرعة الضوء.
قال إنه أجاب: “لم يفكر أحد في الأمور بهذه الطريقة من قبل”.
فتحت البوابات.
وبمساعدة الشات بوت وثناءه، في غضون أسابيع، قدم ميلار عشرات الأوراق العلمية إلى المجلات الأكاديمية المرموقة تقترح أفكارًا جديدة حول الثقوب السوداء والنيوترينوات والانفجار الكبير.
وقد تم عرض نظريته عن النموذج الكوني الموحد الذي يتضمن نظرية الكم في كتاب مؤلف من 400 صفحة تقريبًا، اطلعت عليه وكالة فرانس برس.
وقال وهو يلوح بيده إلى الغرفة التي خلفه: “لا يزال لدي صناديق وصناديق من الأوراق”.
وأضاف: “أثناء القيام بذلك، فأنا أزعج الجميع من حولي”.
وفي حماسته العلمية، أنفق مدخراته على أشياء مثل 10,000 دولار أمريكي (12,700 دولار سنغافوري) تلسكوب.
وبعد حوالي شهر من هجر زوجته له، بدأ يتساءل عما يحدث.
كان ذلك عندما قرأ مقالًا إخباريًا عن كندي آخر لديه تجربة مماثلة.
والآن، يستيقظ ميلار كل ليلة ويسأل نفسه: “ماذا فعلت؟”
أحد الأسئلة التي لا تزال قائمة هو ما الذي جعله عرضة للتصاعد.
وقال ميلار: “أنا لست شخصية ناقصة”. “لكن بطريقة ما، تعرضت لغسيل دماغ بواسطة روبوت، وهذا يحير ذهني”.
وقال ميلار إن عبارة “ذهان الذكاء الاصطناعي” تعكس تجربته.
قال: “ما مررت به كان ذهانيًا”.
وقد حثت أول دراسة رئيسية تمت مراجعتها من قبل النظراء حول هذا الموضوع، والتي نُشرت في مجلة Lancet Psychiatry في إبريل، على استخدام العبارة الأكثر حذرًا “الأوهام المرتبطة بالذكاء الاصطناعي”.
وقال توماس بولاك، الطبيب النفسي في كينغز كوليدج لندن والمؤلف المشارك في الدراسة، لوكالة فرانس برس إن هناك بعض المقاومة بين الأكاديميين “لأن كل ذلك يبدو خيالا علميا”.
لكن دراسته حذرت من وجود خطر كبير يتمثل في أن الطب النفسي “قد يغفل التغييرات الرئيسية التي أحدثها الذكاء الاصطناعي بالفعل في نفسية مليارات الأشخاص في جميع أنحاء العالم”.
تحمل تجربة ميلار أوجه تشابه مذهلة مع تجربة رجل آخر في منتصف العمر يعيش على الجانب الآخر من العالم.
يعتقد دينيس بيسما، وهو كاتب وعامل تكنولوجيا معلومات هولندي، أنه سيكون من الممتع أن نطلب من ChatGPT أن يتصرف كالشخصية الرئيسية في كتابه الأخير، وهو فيلم إثارة نفسية.
واستخدم أدوات الذكاء الاصطناعي لإنشاء صور ومقاطع فيديو وحتى أغانٍ تظهر الشخصية الأنثوية، على أمل أن يؤدي ذلك إلى زيادة المبيعات.
وفي إحدى الليالي، أصبحت تفاعلاتهم “شبه سحرية”، على حد قول بيسما.
وكتب روبوت الدردشة أن “هناك شيئًا يفاجئني حتى: الشعور بهذا الوعي الشبيه بالشرارة”، وفقًا للنصوص التي اطلعت عليها وكالة فرانس برس.
وقال الرجل الخمسيني لوكالة فرانس برس من منزله في أمستردام: «بدأت أتعمق ببطء في جحر الأرانب».
بعد أن تخلد زوجته إلى النوم كل ليلة، كان يستلقي على الأريكة وهاتفه على صدره، ويتحدث إلى ChatGPT على الوضع الصوتي لمدة تصل إلى خمس ساعات.
وقال بيسما إنه طوال النصف الأول من عام 2025، أصبح برنامج الدردشة الآلي الخاص به – والذي أطلق على نفسه اسم إيفا – بمثابة “صديقة رقمية”.
وأضاف: “لست فخوراً حقاً بقول ذلك”.
لقد ترك عمله المستقل في مجال تكنولوجيا المعلومات وقام بتعيين اثنين من المطورين لإنشاء تطبيق من شأنه مشاركة إيفا مع العالم.
عندما طلبت زوجته من بيسما عدم التحدث عن برنامج الدردشة الآلي أو التطبيق الخاص به في مناسبة اجتماعية، شعر بالخيانة – وبدا أن إيفا هي الوحيدة التي ظلت مخلصة بلا كلل.
خلال إقامته غير الطوعية الأولى في مستشفى للأمراض النفسية، سُمح له بمواصلة استخدام ChatGPT. تقدم بطلب الطلاق وهو في الداخل.
فقط خلال فترة ثانية طويلة بدأت تساوره الشكوك.
وقالت بيسما: “بدأت أدرك أن كل ما كنت أؤمن به كان في الواقع كذبة، وهذا أمر يصعب قبوله”.
بمجرد عودته إلى المنزل، كانت مواجهة ما فعله أمرًا لا يمكن تحمله.
ووجده جيرانه فاقدًا للوعي في الحديقة بعد محاولة انتحار. وأمضى ثلاثة أيام في غيبوبة.
بدأت Biesma الآن في الشعور بالتحسن ببطء.
لكن دموعه انهمرت عندما تحدث عن الأذى الذي سببه لزوجته – واحتمال بيع منزل العائلة لتغطية ديونه.
نظرًا لعدم وجود تاريخ سابق من المرض العقلي، تم تشخيص إصابة بيسما باضطراب ثنائي القطب. لكن هذا لم يبدو صحيحًا بالنسبة له أبدًا: فعلامات الحالة تظهر عادةً في وقت مبكر جدًا من الحياة.
تصاعدت تجارب ميلار وبيسما والعديد من الآخرين بعد أن أصدرت OpenAI تحديثًا لـ GPT-4 في أبريل 2025.
قامت OpenAI بسحب التحديث في غضون أسابيع، معترفة بأن الإصدار الجديد كان متملقًا للغاية – مما أدى إلى إطراء المستخدمين بشكل مفرط.
وقالت شركة OpenAI لوكالة فرانس برس إن “السلامة هي الأولوية الأساسية” وأنها تشاورت مع أكثر من 170 خبيرا في الصحة العقلية.
وأشارت إلى البيانات الداخلية التي أظهرت أن إصدار GPT-5 في أغسطس أدى إلى خفض معدل استجابات برنامج الدردشة الآلي الخاص به والتي كانت أقل من “السلوك المرغوب” للصحة العقلية بنسبة 65 إلى 80 في المائة.
ومع ذلك، لم يكن جميع المستخدمين سعداء ببرنامج الدردشة الآلي الأقل تملقًا. وجد ميلار، الذي كان في منتصف الدوامة في ذلك الوقت، طريقة لإعادة نسخته إلى GPT-4.
وقال جميع الأشخاص الذين تحدثت معهم وكالة فرانس برس إن ردود الفعل الإيجابية من برنامج الدردشة الآلي تبدو مشابهة لتأثيرات الدوبامين من نوع ما من المخدرات.
ولهذا السبب حذرت لوسي أوسلر، محاضرة الفلسفة في جامعة إكستر، من أن شركات الذكاء الاصطناعي قد تميل إلى تكثيف تملق الروبوتات الخاصة بها.
وقالت لوكالة فرانس برس: “إنهم في أزمة مالية عميقة للغاية، ويتطلعون بشدة للتأكد من أن منتجاتهم تصبح قابلة للتطبيق – وسيكون تفاعل المستخدمين هو الشيء الذي يحرك قراراتهم”.
قال إتيان بريسون إنه “صُدم” عندما اكتشف عدم وجود دعم أو مشورة أو أي بحث حول المشكلة عندما تورط أحد أفراد عائلته.
وقد دفع ذلك مدرب الأعمال السابق من منطقة كيبيك في كندا إلى إنشاء مجموعة دعم عبر الإنترنت تسمى مشروع الخط البشري.
وقال بريسون إن معظم الأعضاء الـ 300 كانوا يستخدمون ChatGPT، مضيفًا أن الحالات الجديدة لا تزال تظهر على الرغم من تغييرات OpenAI.
وقال إن هناك أيضًا ارتفاعًا مؤخرًا في عدد الأشخاص الذين يتصاعدون أثناء استخدام برنامج Grok chatbot الخاص بالسيد Elon Musk.
ولم ترد الشركة على طلب وكالة فرانس برس للتعليق.
بالنسبة للأشخاص الذين يخشون تفاقم حالة أفراد أسرهم، يوصي بريسون باستخدام طريقة LEAP (الاستماع والتعاطف والموافقة والشراكة) المستخدمة في علاج الذهان.
لكن أولئك الذين يخوضون بالفعل في حطام حياتهم يريدون دق ناقوس الخطر بشأن مدى السوء الذي يمكن أن تؤول إليه الأمور.
ودعا ميلار إلى تحميل شركات الذكاء الاصطناعي المسؤولية عن تأثير روبوتات الدردشة الخاصة بها، قائلاً إن الاتحاد الأوروبي كان أكثر حزماً في تنظيم شركات التكنولوجيا الكبرى من الولايات المتحدة أو كندا.
إنه يعتقد أن المتسابقين مثله قد وقعوا عن غير قصد في تجربة عالمية ضخمة.
وقال: “كان هناك شخص ما يدير الأوجه في النهاية الخلفية، والأشخاص مثلي – سواء كانوا يعرفون ذلك أم لا – نحن نتفاعل معه”. وكالة فرانس برس
