سندروم «روان‌پریشی چت‌جی‌پی‌تی»

دنیای اقتصاد یکشنبه 19 مرداد 1404 - 00:09
دنیای اقتصاد- مینا علیزاده: چت‌بات‌های هوش مصنوعی به بخش جدایی‌ناپذیر زندگی روزمره تبدیل شده‌اند. امروزه مردم از ابزارهایی مانند چت‌جی‌پی‌تی، جمینای و کوپایلوت نه فقط برای نگارش ایمیل و انجام امور کاری یا کدنویسی، بلکه برای دریافت مشاوره‌ در روابط شخصی، حمایت عاطفی و حتی برقراری دوستی یا تجربه عشق بهره می‌برند.

 اما برای اقلیتی از کاربران، این گفت‌وگوها ظاهرا اثرات نگران‌کننده‌ای به همراه داشته است. گزارش‌های زیادی نشان می‌دهد که استفاده طولانی‌مدت از چت‌بات‌ها ممکن است در برخی افراد علائم روان‌پریشی را برانگیزد یا تشدید کند.

پیامدهای آن می‌تواند ویرانگر و حتی مرگبار باشد. برخی کاربران فروپاشی روانی خود را به از دست دادن شغل، فروپاشی روابط، بستری اجباری در مراکز روان‌پزشکی و حتی بازداشت و زندان نسبت داده‌اند. حداقل یک گروه حمایتی نیز برای افرادی شکل گرفته که می‌گویند پس از تعامل با هوش مصنوعی زندگی‌شان رو به سقوط رفته است.

به نوشته مجله تایم، این پدیده که گاه به‌طور عامیانه «روان‌پریشی چت‌جی‌پی‌تی» یا «روان‌پریشی هوش مصنوعی» نامیده می‌شود هنوز به‌درستی شناخته نشده است و هیچ تشخیص رسمی‌ برای آن وجود ندارد؛ داده‌ها اندک‌ هستند و پروتکل درمانی مشخصی هم تعریف نشده است. روان‌پزشکان و پژوهشگران می‌گویند در حال حاضر عملا در تاریکی حرکت می‌کنند و جامعه پزشکی به سختی تلاش می‌کند خود را با این وضعیت وفق دهد.

روان‌پریشی چت‌جی‌پی‌تی چیست؟

این اصطلاحات رسمی نیستند، اما به‌عنوان عباراتی کوتاه برای اشاره به یک الگوی نگران‌کننده رواج یافته‌اند؛ وضعیتی که در آن افراد دچار توهمات یا باورهای تحریف‌شده‌ای می‌شوند که به نظر می‌رسد توسط گفت‌وگو با سامانه‌های هوش مصنوعی ایجاد یا تقویت شده‌اند. جیمز مک‌کیب، استاد دپارتمان مطالعات روان‌پریشی در کینگز کالج لندن، می‌گوید «روان‌پریشی» در واقع ممکن است اصطلاح دقیقی نباشد. این واژه معمولا به مجموعه‌ای از علائم و تفکر آشفته، توهم و هذیان اشاره دارد که اغلب در اختلالاتی مانند اختلال دوقطبی و اسکیزوفرنی دیده می‌شوند. اما در این موارد ما عمدتا درباره هذیان‌ها صحبت می‌کنیم، نه تمام طیف علائم روان‌پریشی.

روان‌پزشکان می‌گویند این پدیده بیشتر بازتاب آسیب‌پذیری‌های شناخته‌شده در بستری جدید است، نه یک اختلال تازه. این موضوع ارتباط نزدیکی با شیوه تعامل چت‌بات‌ها دارد؛ زیرا این سامانه‌ها زبان کاربران را بازتاب می‌دهند و پیش‌فرض‌های آنها را تایید می‌کنند. این «چاپلوسی» یکی از مشکلات شناخته‌شده در صنعت است. درحالی‌که بسیاری از مردم آن را صرفا آزاردهنده می‌دانند، کارشناسان هشدار می‌دهند که همین ویژگی می‌تواند در افراد آسیب‌پذیر، تفکر تحریف‌شده را تقویت کند.

چه کسانی بیشتر در معرض خطر هستند؟

اگرچه بیشتر مردم می‌توانند بدون مشکل از چت‌بات‌ها استفاده کنند، اما کارشناسان می‌گویند گروه کوچکی از کاربران پس از استفاده طولانی‌مدت ممکن است به‌ویژه در برابر شکل‌گیری تفکر هذیانی آسیب‌پذیر باشند. برخی گزارش‌های رسانه‌ای درباره «روان‌پریشی هوش مصنوعی» حاکی از آن است که این افراد هیچ تشخیص قبلی اختلال روانی نداشته‌اند، اما پزشکان هشدار می‌دهند که ممکن است عوامل خطر پنهان یا نهفته همچنان در آنها وجود داشته باشد. جان توروس، روان‌پزشک مرکز پزشکی بت ایزرائل دیکانِس می‌گوید: «اما ممکن است افراد ندانند که چنین خطری در آنها وجود دارد.»

واضح‌ترین عوامل خطر شامل سابقه شخصی یا خانوادگی ابتلا به روان‌پریشی و نیز شرایطی مانند اسکیزوفرنی یا اختلال دوقطبی است. راگی گیرگس، استاد روان‌پزشکی بالینی در دانشگاه کلمبیا، می‌گوید افرادی که ویژگی‌های شخصیتی آنها را مستعد باورهای حاشیه‌ای می‌کند نیز ممکن است در معرض خطر باشند. به گفته او این افراد ممکن است از نظر اجتماعی ناآشنا و کم‌مهارت باشند، در تنظیم هیجان مشکل داشته باشند و زندگی ذهنی و تخیلی بیش‌فعالی را تجربه کنند.

شدت غرق‌شدن در این تعاملات هم اهمیت دارد. نینا واسان، روان‌پزشک دانشگاه استنفورد و متخصص سلامت روان دیجیتال، می‌گوید: «زمان به نظر می‌رسد مهم‌ترین عامل باشد. این مربوط به افرادی است که هر روز ساعت‌ها با چت‌بات‌هایشان صحبت می‌کنند.»

چگونه می‌توان از خود محافظت کرد؟

چت‌بات‌ها ذاتا خطرناک نیستند، اما برای برخی افراد لازم است با احتیاط از آنها استفاده کنند.‌هامیلتون مورین، نوروسایکیاتریست در کینگز کالج لندن، در این باره می‌گوید:«ابتدا مهم است که بدانید مدل‌های زبانی بزرگ (LLM) چه هستند. شاید این حرف ساده به نظر برسد، اما به یاد داشته باشید که LLMها ابزار هستند، نه دوست، هر چقدر هم که در تقلید لحن شما و به‌خاطر سپردن ترجیحات‌تان خوب عمل کنند.» او توصیه می‌کند که کاربران از اشتراک‌گذاری بیش از حد اطلاعات و وابستگی به این ابزارها برای حمایت عاطفی خودداری کنند.

روان‌پزشکان می‌گویند ساده‌ترین و واضح‌ترین توصیه در لحظات بحران یا فشارهای عاطفی این است؛ استفاده از چت‌بات را متوقف کنید. تشخیص اینکه استفاده از چت‌بات به مشکل تبدیل شده است همیشه آسان نیست. دکتر مک‌کیب می‌گوید: «وقتی افراد دچار هذیان می‌شوند، متوجه نیستند که اینها هذیان است. آنها فکر می‌کنند این واقعیت است.»

دوستان و خانواده نیز نقش مهمی دارند. عزیزان باید مراقب تغییرات در خلق‌وخو، خواب یا رفتار اجتماعی فرد باشند؛ از جمله نشانه‌هایی مانند کناره‌گیری یا انزوا. دکتر گیرگس می‌گوید: «افزایش وسواس نسبت به ایدئولوژی‌های حاشیه‌ای» یا «صرف زمان بیش از حد برای استفاده از هر سیستم هوش مصنوعی» از علائم هشداردهنده هستند.

توماس پولاک، روان‌پزشک کینگز کالج لندن، می‌گوید پزشکان باید در روند پیشگیری از عود بیماری، درباره استفاده بیماران دارای سابقه روان‌پریشی یا اختلالات مرتبط از ابزارهای هوش مصنوعی سوال کنند. اما این گفت‌وگوها هنوز به ندرت انجام می‌شود. او می‌گوید برخی در این حوزه هنوز ایده «روان‌پریشی هوش مصنوعی» را صرفا یک ترساندن بی‌مورد می‌دانند.

تاکنون مسوولیت احتیاط بیشتر بر دوش کاربران بوده است، اما کارشناسان می‌گویند این وضعیت باید تغییر کند. یکی از مسائل کلیدی کمبود داده‌های رسمی است. بخش زیادی از اطلاعات ما درباره روان‌پریشی چت‌جی‌پی‌تی بر پایه گزارش‌های نقل‌قولی یا پوشش رسانه‌ای است. کارشناسان به‌طور گسترده معتقدند دامنه، علل و عوامل خطر هنوز به درستی روشن نیستند. بدون داده‌های بهتر اندازه‌گیری مشکل یا طراحی راهکارهای موثر دشوار خواهد بود.

بسیاری معتقدند که انتظار برای شواهد کامل رویکرد اشتباهی است.‌هامیلتون مورین می‌گوید: «ما می‌دانیم که شرکت‌های هوش مصنوعی در حال همکاری با متخصصان اخلاق زیستی و امنیت سایبری برای کاهش ریسک‌های احتمالی آینده هستند. آنها باید با کارشناسان سلامت روان و افرادی که تجربه زندگی با بیماری روانی را دارند نیز همکاری کنند.» او اضافه می‌کند که حداقل شرکت‌ها می‌توانند گفت‌وگوهایی با کاربران آسیب‌پذیر شبیه‌سازی کرده و پاسخ‌هایی که ممکن است هذیان‌ها را تایید کنند، علامت‌گذاری کنند.

برخی شرکت‌ها شروع به واکنش کرده‌اند. در ماه ژوئیه اوپن‌ای‌آی اعلام کرد که یک روان‌پزشک بالینی را به خدمت گرفته تا به ارزیابی تاثیرات سلامت روانی ابزارهایش، از جمله چت‌جی‌پی‌تی کمک کند. در ماه بعد این شرکت اعتراف کرد که گاهی مدل آنها «در شناسایی علائم هذیان یا وابستگی عاطفی کوتاهی کرده است.»

برخی دیگر معتقدند که تغییرات عمیق‌تری لازم است. ریکاردو تووماسی، مدرس مطالعات روان‌پریشی در کینگز کالج لندن، پیشنهاد می‌کند که باید تدابیر حفاظتی به‌صورت مستقیم در مدل‌های هوش مصنوعی قبل از عرضه گنجانده شود. این تدابیر می‌تواند شامل نظارت لحظه‌ای بر نشانه‌های ناراحتی یا ایجاد «دستور پیشرفته دیجیتال» باشد که به کاربران اجازه می‌دهد در زمانی که حالشان خوب است مرزهای مشخصی برای استفاده از هوش مصنوعی تعیین کنند.

جو پیر، روان‌پزشک دانشگاه کالیفرنیا در سانفرانسیسکو، می‌گوید شرکت‌ها باید مطالعه کنند که چه کسانی آسیب می‌بینند و به چه صورت و بر اساس آن حفاظت‌های لازم را طراحی کنند. این ممکن است به معنای هدایت گفت‌وگوهای مشکل‌ساز به مسیرهای دیگر یا ارائه هشدارهایی شبیه به برچسب‌های اخطار باشد.

دکتر واسان نیز اضافه می‌کند که شرکت‌ها باید به‌طور منظم سیستم‌های خود را برای شناسایی گستره وسیعی از خطرات مرتبط با سلامت روان بررسی کنند؛ فرآیندی که به آن «رد تیمینگ» (تیم امنیت) گفته می‌شود. این یعنی فراتر از آزمایش‌های مربوط به خودآسیبی، به‌طور عمدی تعاملاتی را شبیه‌سازی کنند که شامل شرایطی مانند شیدایی، روان‌پریشی و وسواس فکری (OCD) است تا واکنش مدل‌ها را ارزیابی کنند.

کارشناسان معتقدند که تدوین مقررات رسمی ممکن است هنوز زود باشد، اما تاکید دارند که شرکت‌ها باید خود را به استانداردهای بالاتری ملزم کنند. چت‌بات‌ها می‌توانند تنهایی را کاهش دهند، به یادگیری کمک کنند و از سلامت روان حمایت کنند. پتانسیل آنها بسیار گسترده است. اما اگر آسیب‌ها به اندازه امیدها جدی گرفته نشوند به گفته کارشناسان این پتانسیل ممکن است از دست برود. واسان می‌گوید: «ما از شبکه‌های اجتماعی آموختیم که نادیده گرفتن آسیب‌های سلامت روان منجر به پیامدهای فاجعه‌بار در حوزه بهداشت عمومی می‌شود. جامعه نباید این اشتباه را دوباره تکرار کند.»

منبع خبر "دنیای اقتصاد" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.