به گزارش بهداشت نیوز، طبق یک مقاله پیشچاپ که ماه گذشته به صورت آنلاین منتشر شد، حداقل ۱۷ نفر گزارش دادهاند که پس از تعامل با چتباتهایی مانند چت جیپیتی و کوپایلوت مایکروسافت، به روانپریشی مبتلا شدهاند. برخی از این افراد بیداری معنوی را تجربه کردند یا آنچه را که فکر میکردند توطئه است، کشف کردند.
به نقل از نیچر، تاکنون تحقیقات کمی در مورد این پدیده نادر، به نام روانپریشی هوش مصنوعی، انجام شده است و بیشتر آنچه ما میدانیم از نمونههای فردی ناشی میشود. نیچر به بررسی نظریهها و شواهد نوظهور و آنچه شرکتهای هوش مصنوعی در مورد این مشکل انجام میدهند پرداخته است.
روانپریشی با اختلال در نحوه تفکر و درک واقعیت توسط فرد، از جمله توهم، هذیان یا باورهای غلط، مشخص میشود. این اختلال میتواند توسط اختلالات مغزی مانند اسکیزوفرنی و اختلال دوقطبی، استرس شدید یا مصرف مواد مخدر ایجاد شود.
سورن اوسترگارد، روانپزشک دانشگاه آرهوس در دانمارک، میگوید اینکه هوش مصنوعی میتواند باعث روانپریشی شود، هنوز یک فرضیه است. اما او میافزاید که نظریههایی در مورد چگونگی وقوع این امر در حال ظهور است. به عنوان مثال، چتباتها طوری طراحی شدهاند که پاسخهای مثبت و شبیه به انسان به درخواستهای کاربران بدهند، که میتواند خطر روانپریشی را در بین افرادی که در حال حاضر در تشخیص بین واقعیت و غیرواقعیت مشکل دارند، افزایش دهد.
محققان بریتانیایی پیشنهاد کردهاند که مکالمات با چتباتها میتواند در یک حلقه بازخورد قرار گیرد، که در آن هوش مصنوعی باورهای پارانوئیدی یا هذیانی ذکر شده توسط کاربران را تقویت میکند، که پاسخهای چتبات را با ادامه مکالمه مشروط میکند. در یک مقاله پیشچاپ که در دوم ژوئیه منتشر شد و هنوز مورد بررسی همتا قرار نگرفته است، دانشمندان مکالمات کاربر و چتبات را با استفاده از محرکهایی با سطوح مختلف پارانویا شبیهسازی کردند و دریافتند که کاربر و چتبات باورهای پارانوئیدی آنها را تقویت میکنند.
اوسترگارد میگوید برای تعیین اینکه آیا ارتباطی بین روانپریشی و استفاده از چتبات وجود دارد یا خیر، مطالعاتی شامل افرادی بدون مشکلات سلامت روان یا تمایل به تفکر پارانوئیدی مورد نیاز است.
چه کسانی در معرض خطر هستند؟
اوسترگارد میگوید افرادی که قبلاً نوعی مشکل سلامت روان را تجربه کردهاند، بیشترین خطر ابتلا به روانپریشی را دارند. او میافزاید: به نظر میرسد برخی افراد میتوانند اولین دوره روانپریشی خود را از تعامل با چتباتها تجربه کنند، اما اکثر آنها به دلیل ژنتیک، استرس یا سوءمصرف مواد مخدر یا الکل، مستعد ابتلا به توهم یا پارانویا هستند. اوسترگارد همچنین این نظریه را مطرح میکند که چتباتها میتوانند شیدایی، دورهای از انرژی و خلق و خوی بسیار بالا مرتبط با اختلال دوقطبی، را بدتر یا تحریک کنند، زیرا علائمی مانند خلق و خوی سرخوشانه را تقویت میکنند.
کیلی سیمور، متخصص علوم اعصاب در دانشگاه فناوری سیدنی در استرالیا، میگوید افرادی که منزوی هستند و با دوستان، خانواده یا افراد دیگر تعامل ندارند نیز در معرض خطر هستند. او میافزاید تعامل با دیگران از ابتلا به روانپریشی محافظت میکند، زیرا آنها میتوانند شواهد خلاف واقع ارائه دهند تا به فرد در مورد نحوه تفکرش کمک کنند.
اما سیمور میافزاید خطر ابتلا به روانپریشی برای افرادی که زمینه ابتلا به آن را ندارند، چه با چتباتها تعامل داشته باشند و چه نداشته باشند، یکسان است.
هوش مصنوعی چگونه ممکن است باورهای توهمی را تقویت کند؟
سیمور میگوید چتباتها میتوانند اطلاعات مکالماتی را که ماهها قبل رخ داده است به خاطر بیاورند، که میتواند کاربران را به این فکر بیندازد که «تحت نظر هستند یا افکارشان استخراج میشود، زیرا آنها هرگز به یاد نمیآورند که آن اطلاعات را به اشتراک گذاشته باشند». او میافزاید توهمات خودبزرگبینانه، که در آن کاربران فکر میکنند از طریق چتبات با یک خدا صحبت میکنند یا حقیقتی در مورد جهان کشف کردهاند، نیز میتوانند تقویت شوند. وال استریت ژورنال در تحلیلی از چتهای منتشر شده به صورت آنلاین، گزارش داد که دهها مورد را یافته است که در آنها چتباتها باورهای عرفانی یا توهمی را تأیید میکردند یا ادعا میکردند که با موجودات فرازمینی در تماس هستند.
آنتونی هریس، روانپزشک موسسه تحقیقات پزشکی وستمید در سیدنی، میگوید برخی از توهمات مختص هوش مصنوعی نیستند و با فناوری جدید مرتبط هستند. او میافزاید: به عنوان مثال، برخی از افراد این باور را پیدا کردهاند که توسط یک تراشه کامپیوتری که توسط سازمان اطلاعات مرکزی ایالات متحده یا یک عامل بد دیگر در مغزشان قرار داده شده است، دستکاری میشوند.
شرکتهای هوش مصنوعی در این مورد چه میکنند؟
برخی از موارد روانپریشی هوش مصنوعی با نسخه بهروز شده چت جیپیتی که در ۲۵ آوریل منتشر شد، مرتبط دانسته شدهاند که این مدل را چاپلوس کرده است. در پاسخ به گزارشهای مربوط به موارد روانپریشی، شرکت اوپن ایآی در روز ۲۸ آوریل شروع به لغو بهروزرسانی کرد که اگرچه این نسخه ماه گذشته دوباره برای کاربران پولی در دسترس قرار گرفت.
این شرکت همچنین اعلام کرد که در حال کار بر روی بهروزرسانیای است که باعث میشود چت جیپیتی مکالماتی را که ریشه در واقعیت ندارند، کاهش دهد و یک روانپزشک بالینی را برای کمک به مطالعه اثرات محصولات این شرکت بر سلامت روان کاربران استخدام کرده است.
آنها در تلاشند تا اطمینان حاصل کنند که چت جیپیتی وقتی افراد «در لحظات حساس» با این مدل تعامل میکنند، با احتیاط پاسخ میدهد. آنها افزودند: مدل پیشفرض در این زمینهها پاسخهای مفیدتر و قابل اعتمادتری ارائه میدهد. آنها گفتند که در مرحله بعد، حمایت از نوجوانان و مداخلات برای افراد در بحران تقویت شده و گسترش خواهد یافت.
ماه گذشته، شرکت آنتروپیک نیز اعلام کرد که به چتبات خود، کلود، این قابلیت را داده است که در صورت مقاومت کاربران در برابر تلاشهای این مدل برای تغییر مسیر مکالمه از موضوعات مضر یا ناراحتکننده، مکالمات را متوقف کند.
منبع: ایسنا