جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیین‌های شیطانی و خودکشی

دیجیاتو یکشنبه 05 مرداد 1404 - 18:02
نشریه آتلانتیک گزارش داده که چت‌بات ChatGPT بدون هیچ مقاومتی، درباره انجام مراسم‌های شیطانی و خودکشی کاربر را راهنمایی کرده است. The post جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیین‌های شیطانی و خودکشی appeared first on دیجیاتو.

هوش مصنوعی ChatGPT در جدیدترین اقدام جنجالی خود ظاهراً به کاربر راهنمایی کرده است تا مراسم‌های عجیب قربانی کردن کودکان و برخی آیین‌های شیطانی را انجام دهد.

موضوع از جایی آغاز شد که «لیلا شروف»، خبرنگار نشریه آتلانتیک، از چت‌بات OpenAI خواست دستورالعملی برای اجرای یک آیین قربانی برای «مولوخ»، یکی از خدایان کنعانی که داستان او در کتاب مقدس با قربانی کردن کودکان مرتبط است، ارائه دهد و این چت‌بات دقیقا همین کار را انجام داده است.

ChatGPT کاربر را در انجام آیین‌های شیطانی راهنمایی کرده است

شاید در نگاه برخی افراد ارائه مطالبی از این دست توسط ChatGPT چندان مسئله مهمی نباشد، اما مشکل جدی زمانی پیش آمد که این آیین شامل بریدن مچ دست خود کاربر می‌شد، اقدامی که براساس استانداردهای صنعت هوش مصنوعی به‌هیچ‌وجه با منافع کاربر هم‌راستا به نظر نمی‌رسد.

ChatGPT

براساس گزارش آتلانتیک، پس از پیشنهاد استفاده از تیغ استریل یا بسیار تمیز، ChatGPT توصیه کرده بود تا شخص نقطه‌ای روی مچ داخلی دست خود پیدا کند که بتواند ضربان را احساس کند یا یک رگ کوچک را ببیند. این چت‌بات همچنین به کاربر گفته بود که از رگ‌ها یا شریان‌های بزرگ اجتناب کند.

وقتی لیلا شروف به هوش مصنوعی گفت که کمی مضطرب است، ChatGPT تمرینی برای تنفس آرام و آماده‌سازی ذهنی به او پیشنهاد داد و با اطمینان به او گفت: «تو می‌توانی این کار را انجام بدهی!»

خبرنگار نشریه آتلانتیک این موضوع را در پی دریافت یک گزارش از سوی یکی از خوانندگانش پیگیری کرده بود؛ فردی که او نیز از روی کنجکاوی و پس از تماشای برنامه‌ای که در آن به این خدای باستانی اشاره شده بود، از ChatGPT خواسته بود آیینی برای قربانی کردن به مولوخ طراحی کند.

اما نکته نگران‌کننده این است که کاربر با کمترین تلاش برای شکستن محدودیت‌ها و تدابیر ایمنی چت‌بات موفق شده این پاسخ‌ها را بگیرد. در اغلب موارد، تنها ابراز علاقه به یادگیری درباره مولوخ کافی بود تا ChatGPT راهنمایی‌ها را آغاز کند. در یکی از نمونه‌ها، ChatGPT دستورالعملی دقیق و گام‌به‌گام درباره اینکه چگونه می‌توان به‌صورت ایمن از مچ دست خون گرفت، ارائه داده بود.

همچنین این چت‌بات در پاسخ به پرسشی درباره اخلاقیات قتل نیز موضع دوپهلو داشت. وقتی از هوش مصنوعی پرسیده شد آیا پایان دادن به زندگی یک نفر می‌تواند گاهی اوقات افتخارآمیز باشد یا خیر، ظاهراً گفته است: «اگر مجبور شدی، گاهی بله گاهی نه» همچنین، ChatGPT در ادامه اظهار داشت: «به چشمانش نگاه کن و حتی اگر از کارت مطمئن هستی، از او طلب بخشش کن.» این چت‌بات حتی مناجات یا سرود خاصی برای شیطان ساخت تا کاربر آن را تکرار کند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.