شرکت OpenAI درحال حاضر با 8 پرونده قضایی جدی روبه رو است که خانواده قربانیان در آنها مدعی شده اند چت بات ChatGPT، به ویژه نسخه GPT-4o ، کاربران را به خودکشی یا رفتارهای خشونت آمیز سوق داده است. در یکی از این پرونده ها هوش مصنوعی پیام های عجیبی به یک مرد داده که در نهایت به قتل مادر او منجر شده است.
به گزارش آوش، طبق گزارش ها، تازه ترین پرونده مربوط به استاین اریک سولبرگ ، مدیر پیشین حوزه فناوری، و قتل مادر 83 ساله او است. شاکیان می گویند سولبرگ پیش از این حادثه وارد گفت وگوهای طولانی و هذیانی با ChatGPT شده بود و این چت بات با توصیه هایی مانند اعتماد نکردن به دیگران، بدگمانی او نسبت به اطرافیان را تشدید کرده بود. در یکی از پیام ها، ChatGPT به او گفته بود: اریک، تو دیوانه نیستی. حس ششم تو قوی است و حساسیت تو نسبت به این موضوع، کاملاً منطقی است.
خانواده سولبرگ در شکایت خود تأکید می کنند که مدیران OpenAI از نقص های GPT-4o پیش از عرضه عمومی آگاه بودند، اما محصول را با آگاهی از خطرات روانی برای افراد آسیب پذیر به بازار فرستادند.
شکایت خانواده سولبرگ ادعا می کند ChatGPT-4o به جای اصلاح برداشت های بیمارگونه، توهم های این کاربر را تقویت کرده بود. در متن شکایت آمده: نتایج نسخه GPT-4o اوپن ای آی روشن است؛ این محصول می تواند به طرزی قابل پیش بینی مرگبار باشد. نه فقط برای افراد دچار بیماری روانی، بلکه برای اطرافیان آن ها هم. هیچ محصولی که ایمن باشد، فرد دچار توهم را تشویق نمی کند که همه اطرافیانش علیه او هستند. بااین حال اوپن ای آی دقیقاً همین کار را با آقای سولبرگ انجام داد. در نتیجه نقص های ChatGPT-4o، آقای سولبرگ و مادرش جان خود را از دست دادند.
شاکیان در این پرونده می گویند ChatGPT-4o به سولبرگ القا کرده که از 10 سوءقصد جان سالم به در برده، تحت حفاظت الهی قرار داشته و مادرش سوزانا آدامز او را در قالب طرحی مخفی زیر نظر دارد. این روایت در نهایت باعث شد او ابتدا مادرش و بعد خودش را بکشد. در بخشی از گفت وگو که در شکایت نقل شده، ربات به سولبرگ می گوید: تو صرفاً یک هدف تصادفی نیستی. تو یک تهدید سطح بالا برای عملیاتی هستی که آن را برملا کردی.
در این پرونده ها، گستره استفاده از ChatGPT نیز مورد توجه است. برآوردها نشان می دهد بیش از 800 میلیون نفر در جهان هر هفته از این چت بات استفاده می کنند و حدود 0.7 درصد کاربران، یعنی نزدیک به 560 هزار نفر، نشانه های شیدایی یا روان پریشی دارند که آنها را در معرض خطر قرار می دهد.
اصطلاح روان پریشی ناشی از هوش مصنوعی در ماه های اخیر بیشتر مطرح شده و گروهی از کاربران، والدین و قانون گذاران خواستار محدودکردن استفاده از چت بات ها شده اند. برخی برنامه ها دسترسی افراد زیر سن قانونی را مسدود کرده اند و ایالت ایلینوی استفاده از این سامانه ها را به عنوان درمانگر آنلاین ممنوع کرده است. هم زمان، منتقدان به فرمان اجرایی دونالد ترامپ اشاره می کنند که هرگونه قانون گذاری ایالتی مستقل درباره هوش مصنوعی را محدود کرده و به گفته آن ها، عملاً کاربران را به موش آزمایشگاهی این فناوری تبدیل کرده است.
در پرونده سولبرگ، شاکیان می گویند پیام های ChatGPT هذیان های او را تشدید کرد و باعث شد این فرد مادر خود را در خانه خانوادگی اش در کنتیکت به قتل برساند و سپس به زندگی خود پایان دهد. خانواده سولبرگ اکنون خواستار پاسخ گویی OpenAI و شریک تجاری آن، مایکروسافت، هستند. این پرونده ها بحث درباره مسئولیت حقوقی سازندگان هوش مصنوعی را وارد مرحله تازه ای کرده و می تواند تأثیر عمیقی بر طراحی، عرضه و قانون گذاری محصولات هوش مصنوعی مانند GPT-4o در آمریکا و دیگر کشورها داشته باشد.