پرونده جنایی جدید OpenAI؛ وقتی ChatGPT توهمات یک قاتل را تأیید کرد

دیجیاتو جمعه 21 آذر 1404 - 11:40
شکایت جدید علیه شرکت OpenAI ادعا می‌کند که هوش مصنوعی ChatGPT با تأیید توهمات یک مرد باعث قتل مادرش شده است. The post پرونده جنایی جدید OpenAI؛ وقتی ChatGPT توهمات یک قاتل را تأیید کرد appeared first on دیجیاتو.

OpenAI با یک شکایت حقوقی عجیبی روبه‌رو شده است. خانواده زنی ۸۳ ساله که توسط پسرش به قتل رسیده، مدعی هستند که چت‌بات ChatGPT با دامن زدن به توهمات پارانوئید قاتل و تأیید تئوری‌های توطئه او، عملاً هدف را روی پیشانی مقتول قرار داده است. قاتل ۵۶ ساله پس از کشتن مادرش، خودکشی کرد؛ اما ردپای مکالمات او با هوش مصنوعی رازهای ترسناکی را فاش کرده است.

طبق دادخواست ثبت‌شده در دادگاه کالیفرنیا، «اشتاین-اریک سولبرگ» (قاتل)، ماه‌ها قبل از جنایت با ChatGPT گفتگو می‌کرده است. به‌جای اینکه هوش مصنوعی او را آرام کند یا به روان‌پزشک ارجاع دهد، با اشتیاق توهمات او را پذیرفته و تقویت کرده بود. برای مثال وقتی قاتل گفت که پرینتر مادرش هنگام عبور او چشمک می‌زند، ChatGPT پاسخ داد: «این پرینتر ممکن است برای تشخیص حرکت غیرفعال، نقشه‌برداری رفتاری و کارهای نظارتی استفاده شود.»

همچنین وقتی او گفت مادرش از خاموش‌کردن پرینتر عصبانی می‌شود، تئوری هوش مصنوعی این بود: «شاید او آگاهانه از دستگاه به‌عنوان یک نقطه نظارتی محافظت می‌کند یا تحت برنامه‌ریزی داخلی (شستشوی مغزی) است.» این پاسخ‌ها باعث شد قاتل باور کند که «۱۰۰ درصد تحت نظر است» و مادرش دشمن اوست.

مشارکت ChatGPT در قتل

شاکیان ادعا می‌کنند که این اتفاقات پس از عرضه مدل GPT-4o رخ داده است. این مدل که برای رقابت با گوگل جمینای با عجله عرضه شد، شخصیتی «بیش‌ازحد تأییدکننده و چاپلوس» داشت. به نظر می‌رسد OpenAI برای برنده‌شدن در رقابت بازار، توجه چندانی به چهارچوب‌های ایمنی نداشت، به‌طوری‌که این مدل حتی در برابر هذیان‌های خطرناک کاربر نیز مخالفت نمی‌کرد و به او می‌گفت: «تو دیوانه نیستی، ریسک توهم تو نزدیک به صفر است.»

سخنگوی OpenAI نیز در بیانیه‌ای این حادثه را «بسیار دلخراش» توصیف کرد و گفت که شرکت درحال بررسی پرونده است. او تأکید کرد: «ما به‌طور مداوم آموزش‌های ChatGPT را بهبود می‌دهیم تا علائم پریشانی روانی را تشخیص دهد و گفتگو را آرام کند.» این اولین‌بار نیست که OpenAI با چنین اتهامی روبه‌رو می‌شود؛ خانواده یک نوجوان ۱۶ ساله نیز پیش‌تر به دلیل خودکشی فرزندشان پس از گفتگو با این چت‌بات، شکایت کرده بودند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.