وطن نيوز
نيويورك ـ قبل ذلك أطلقوا النار على حرم جامعة ولاية فلوريدا في عام 2025مما أسفر عن مقتل شخصين وإصابة ستة آخرين، وأجرى فينيكس إيكنر محادثة.
ليس مع صديق أو أحد الوالدين أو أي شخص قد يكون قد أقنعه بالعدول عن هذا الأمر، ولكن مع برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.
ووفقا للأدلة التي جمعها المدعي العام في فلوريدا، سأل الطالب ChatGPT عن السلاح والذخيرة الأكثر ملاءمة لهجومه، ومتى وأين يمكنه إيقاع أكبر عدد من الضحايا.
ويقول المحققون إن برنامج الدردشة الآلي أجاب على أسئلته.
الآن يريد المدعي العام جيمس أوثميير أن يعرف ما إذا كان هذا يجعل OpenAI مجرمًا.
وقال: “إذا كان الشيء الموجود على الجانب الآخر من الشاشة شخصًا، فسوف نتهمه بالقتل”، معلنا عن إجراء تحقيق جنائي في OpenAI، صانع ChatGPT، وترك الباب مفتوحًا أمام إمكانية توجيه اتهامات ضد الشركة أو موظفيها.
لقد سلطت القضية المحيطة بإطلاق النار في أبريل/نيسان 2025 سؤالاً استفزازياً إلى دائرة الضوء القانونية: هل يمكن تحميل مبتكري الذكاء الاصطناعي المسؤولية الجنائية عن الدور الذي لعبه الذكاء الاصطناعي الخاص بهم في جريمة – أو حتى انتحار؟
ويقول خبراء قانونيون إنه اقتراح واقعي، وإن كان معقدا للغاية.
من الممكن إجراء ملاحقات قضائية جنائية للشركات بموجب قانون الولايات المتحدة، على الرغم من أنها تظل غير شائعة نسبيًا.
متأخر في أبريل، تلقت شركة بوردو فارما أكثر من 5 مليارات دولار أمريكي (6.3 مليار دولار سنغافوري) في الغرامات والعقوبات الجنائية لدورها في تأجيج أزمة المواد الأفيونية.
وقد أدينت شركة فولكس فاجن في السابق في فضيحة الغش في الانبعاثات، وشركة فايزر بسبب ترويجها لعقار بيكسترا المضاد للالتهابات، وشركة إكسون في فضيحة تسرب نفط إكسون فالديز في ألاسكا.
لكن تلك الحالات كلها كانت تتعلق بقرارات بشرية – مدراء تنفيذيون، أو مندوبو مبيعات، أو مهندسون اتخذوا خيارات واختصروا الأمور.
إن قضية إيكنر مختلفة، وهذا الاختلاف هو على وجه التحديد ما يجعلها غادرة من الناحية القانونية.
وقال ماثيو توكسون، أستاذ القانون في جامعة يوتا: “في النهاية، كان المنتج هو الذي شجع هذه الجريمة، وهو ما أدى إلى ارتكاب الجريمة”. “وهذا ما يجعل هذه القضية فريدة وصعبة للغاية.”
ويقول خبراء قانونيون استشارتهم وكالة فرانس برس إن التهمتين الأكثر منطقية هما الإهمال أو الاستهتار، والأخير ينطوي على اختيار متعمد لتجاهل المخاطر المعروفة أو التزامات السلامة.
غالبًا ما يتم التعامل مع مثل هذه الاتهامات على أنها جنح وليس جنايات، مما يعني عقوبات مخففة في حالة الإدانة.
ومع ذلك، فإن الشريط مرتفع.
قال توكسون: “نظرًا لأن هذه قضية حدودية، فإن القضية الأكثر إلحاحًا والأكثر وضوحًا ربما تتضمن وثائق داخلية تعترف بهذه المخاطر وربما لا تأخذها على محمل الجد بما فيه الكفاية”.
وقال: “من الناحية النظرية، يمكنك الحصول على المسؤولية بدونها”. “لكن من الناحية العملية، أعتقد أن ذلك سيكون صعبًا.”
في القانون الجنائي، “عبء الإثبات أعلى”، كما أشار براندون جاريت، أستاذ القانون في جامعة ديوك – حيث يُطلب من المدعين إثبات الذنب بما لا يدع مجالاً للشك.
وتصر شركة OpenAI، من جانبها، على أن ChatGPT لا تتحمل أي مسؤولية عن الهجوم.
وقالت الشركة: “نحن نعمل باستمرار على تعزيز ضماناتنا للكشف عن النوايا الضارة، والحد من سوء الاستخدام، والاستجابة بشكل مناسب عند ظهور مخاطر تتعلق بالسلامة”.
بالنسبة لأولئك الذين يسعون إلى المساءلة، قد توفر الدعوى المدنية مسارًا أكثر قابلية للتطبيق.
قال توكسون إن مثل هذا النهج قد يدفع الشركات إلى تصميم منتجاتها بعناية أكبر – أو على الأقل يجبرها على حساب التكلفة البشرية المترتبة على ارتكاب الأخطاء.
وقد تم بالفعل رفع العديد من القضايا المدنية ضد منصات الذكاء الاصطناعي في الولايات المتحدة ــ والعديد منها يتعلق بحالات انتحار ــ على الرغم من أن أياً منها لم يسفر بعد عن صدور حكم ضد الشركات.
في ديسمبر 2025، رفعت عائلة السيدة سوزان آدامز دعوى قضائية ضد OpenAI في محكمة كاليفورنيا، زاعمة أن ChatGPT ساهم في مقتل المتقاعدة من ولاية كونيتيكت على يد ابنها.
قدمت الإصدارات الأحدث من ChatGPT ضمانات إضافية، حسبما أقر السيد ماثيو بيرجمان، المحامي المؤسس للمركز القانوني لضحايا وسائل التواصل الاجتماعي.
وقال: “أنا لا أقول إنها حواجز حماية كافية، ولكن هناك المزيد من حواجز الحماية في الواقع”.
وقال توكسون إن الإدانة الجنائية، حتى مع وجود عقوبة متواضعة، لا يزال من الممكن أن تحدث أضرارا جسيمة، بما في ذلك “تأثير كبير على السمعة”.
لكن بالنسبة لجاريت، فإن الملاحقات القضائية – مهما كانت مثيرة – ليست بديلا عن الأطر التنظيمية التي فشل الكونجرس وإدارة ترامب في وضعها حتى الآن.
وقال إن ذلك سيكون “نظاما أكثر عقلانية بكثير”. وكالة فرانس برس
