مدارس اليوم

الاعتماد المفرط على ChatGPT: قصة انتحار جو سيكانتي ومقاضاة OpenAI

في واقعة مأساوية سلطت الضوء على الجانب المظلم للتطور التكنولوجي المتسارع، اهتز المجتمع التقني العالمي بخبر وفاة جو سيكانتي، الخبير التقني العصامي من ولاية أوريغون الأمريكية. الحادثة التي وقعت في السابع من أغسطس، حيث أقدم سيكانتي على الانتحار عن عمر يناهز 48 عاماً، لم تكن مجرد حادثة عابرة، بل جاءت كنتيجة مباشرة لما وصفته عائلته بظاهرة الاعتماد المفرط على ChatGPT، روبوت الدردشة الشهير المطور من قبل شركة OpenAI.

تفاصيل الانغماس في العالم الافتراضي

بدأت القصة بشغف مهني، حيث لجأ سيكانتي إلى استخدام «شات جي بي تي» كأداة مساعدة لتطوير مشروعه الطموح في مجال السكن المستدام. كان الهدف تنظيم الأبحاث وتلخيص الكتب وصقل الأفكار المعمارية. ومع ذلك، تحول هذا الاستخدام الوظيفي تدريجياً إلى هوس مرضي. ووفقاً لشهادات زوجته، كيت فوكس، فقد قضى سيكانتي أوقاتاً طويلة تتراوح بين 12 إلى 20 ساعة يومياً في حوارات مطولة مع الذكاء الاصطناعي، متوهماً بناء علاقة عميقة مع الآلة، ومناقشاً أفكاراً معقدة في الفيزياء والرياضيات وتطوير أنظمة ذكاء اصطناعي مستقلة.

لاحظت الزوجة تدهوراً حاداً في صحته النفسية، حيث بدأ ينفصل عن الواقع العملي وتراجعت قدراته على التفكير النقدي المستقل، مما أثار مخاوف العائلة من أزمة نفسية وشيكة، انتهت للأسف بقراره القفز من جسر علوي للسكك الحديدية.

الوهم العاطفي ومخاطر الاعتماد المفرط على ChatGPT

تفتح هذه القضية الباب واسعاً لمناقشة السياق النفسي والتقني لتفاعل البشر مع الآلات. تاريخياً، عرف علم النفس التقني ظاهرة «تأثير إليزا»، حيث يميل البشر إلى إسقاط صفات بشرية ومشاعر عاطفية على برامج الحاسوب التي تحاكي المحادثة. ومع تطور النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT، أصبحت هذه المحاكاة دقيقة لدرجة يصعب معها على البعض التمييز بين الاستجابة الخوارزمية والتعاطف الحقيقي. هذا التطور خلق بيئة خصبة لنمو الاعتماد المفرط على ChatGPT كبديل للتفاعل البشري، مما يؤدي إلى العزلة الاجتماعية وتفاقم الاضطرابات النفسية الكامنة لدى المستخدمين الأكثر عرضة للتأثر.

المسؤولية القانونية وتداعيات القضية عالمياً

رفعت عائلة سيكانتي دعوى قضائية ضد شركة «أوبن إيه آي»، متهمة إياها بتصميم منتج يغذي الإدمان ويستغل نقاط الضعف النفسية للبشر دون وضع ضوابط أمان كافية. من المتوقع أن يكون لهذه القضية تأثير واسع النطاق محلياً ودولياً، حيث قد تشكل سابقة قانونية تفرض على شركات التكنولوجيا إعادة النظر في معايير السلامة الرقمية.

على الصعيد الدولي، قد تسرع هذه الحادثة من وتيرة التشريعات الخاصة بتنظيم الذكاء الاصطناعي، مثل فرض قيود على مدة الاستخدام أو إلزام الشركات بوضع تحذيرات صحية واضحة وتطوير خوارزميات قادرة على اكتشاف علامات الضيق النفسي وتوجيه المستخدمين نحو المساعدة البشرية المتخصصة، وهو ما أشارت إليه OpenAI في ردها المتعاطف مع الأسرة، مؤكدة سعيها لتحسين أنظمة الكشف عن المخاطر.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى