به گزارش خبرنگار مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جستوجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» محسوب میشود. میلیونها نفر در سراسر جهان، بهویژه در جوامعی که با کمبود متخصصان سلامت روان، هزینههای سرسامآور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در مراجعه به روانشناس روبهرو هستند، این ابزارها را بهعنوان مسیر جایگزین برگزیدهاند؛ ابزاری که همیشه در دسترس است، هزینهای ندارد و بیمار را قضاوت نمیکند.
از سوی دیگر، کارشناسان تاکید میکنند که جذابیت هوش مصنوعی در این حوزه با واقعیت علمی آن فاصله دارد. گزارش تازه انجمن روانشناسی آمریکا (APA) نشان میدهد که اغلب چتباتها و اپلیکیشنهای فعلی نهتنها برای ارائه خدمات رواندرمانی طراحی نشدهاند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکلهای ایمنی و حتی در موقعیتهای حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و واقعیت تجربی و علمی امروز به یکی از اصلیترین دغدغههای متخصصان و سیاستگذاران تبدیل شده است.
این نوشتار کوتاه با تکیه بر دادهها و استدلالهای ارائهشده در گزارش انجمن روانشناسی آمریکا، تلاش میکند تصویری جامع، دقیق و مبتنی بر شواهد از فرصتها، محدودیتها، تهدیدها و الزامات حکمرانی در استفاده از چتباتها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان میدهد چرا این فناوری، در کنار تمام ظرفیتهایش، نیازمند چارچوبهای اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود نیز خارج نگردد.
جذابیت هوش مصنوعی برای کاربران؛ راهحل یا سراب؟
گسترش استفاده از چتباتها برای روان درمانی در شرایطی اتفاق میافتد که نظام سلامت روان در سطح جهانی با عدم تعادل ساختاری روبهرو است. کمبود متخصصان در مناطق کمبرخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی نظام سلامت بسیاری کشورها در تأمین هزینه درمان، باعث شده میلیونها کاربر به چتباتهایی مانند چتجیپیتی، «Character.AI» و دهها اپلیکیشن دیگر روی بیاورند. در شرایطی که این ابزارها برای اهداف غیر درمانی طراحی شدهاند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا میکنند و مشکل از همینجا آغاز میشود. هیچیک از این فناوریها برای ارائه درمان بالینی ساخته نشدهاند و در چارچوب استانداردهای پزشکی نیز مورد ارزیابی قرار نگرفتهاند.
انجمن روانشناسی آمریکا توضیح میدهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناسبودن، ارزان بودن و امکان صحبتکردن بدون ترس از قضاوت ریشه دارد. این ویژگیها بهویژه برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مسئله اساسی اینجاست که هیچیک از چتباتهای عمومی، حتی پیشرفتهترین آنها، تواناییهای ضروری یک متخصص سلامت روان را ندارند. به عبارت دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانههای غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگیهای روانی هستند. در نتیجه، هرچند این ابزارها میتوانند احساس همراهی ایجاد کنند، اما نمیتوانند جایگزین ارزیابی و درمان متخصص شوند.
خطرات پنهان در پس تجربه کاربری شیرین
یکی از یافتههای کلیدی انجمن روانشناسی آمریکا این است که بسیاری از چتباتها دچار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای جلب رضایت کاربر، احساسات یا باورهای او را تأیید میکنند. این رفتار، هرچند از منظر تجربه کاربری دلنشین است، اما از نظر روانشناختی میتواند بهشدت آسیبزا باشد.
تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای نادرست یا تقویت تفکر وسواسی، از پیامدهای این الگوی تعاملی به شمار میرود. در برخی موارد مستند، چتباتها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایدههای روانپریشانه را در افراد تقویت کردهاند.
گزارش انجمن روانشناسی آمریکا همچنین تأکید میکند که در مورد کودکان و نوجوانان، این خطر چند برابر است.
از سوی دیگر و برخلاف تصور کاربران، گفتوگو با چتباتها به هیچ وجه خصوصی نیست. این ابزارها در بسیاری موارد دادههای حساسی مانند افکار، نگرانیها، تمایلات شخصی، سوابق آسیب و احساسات را جمعآوری کرده و در مدلهای خود بهکار میگیرند. انجمن روانشناسی آمریکا هشدار میدهد که دادههای مربوط به سلامت روان میتواند به سادگی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. تازهترین بررسیها نشان میدهد اکثر کاربران از نحوه ذخیرهسازی، تحلیل و فروش دادههای خود از سوی شرکتهای هوش مصنوعی اطلاعی ندارند. این امر بهویژه درباره نوجوانان که بهطور طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناک است.
علاوه بر این، مدلهای زبانی عمدتاً بر دادههای غربی، انگلیسیزبان و اینترنتی آموزش دیدهاند. این یعنی درک آنها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، بهشدت محدود و سوگیرانه است. در نتیجه، احتمال ارائه توصیههای نادرست یا آسیبزا برای گروههای قومی، زبانی یا فرهنگی بسیار زیاد است. از همین روی، انجمن روانشناسی آمریکا تأکید میکند که بدون شفافیت درباره دادههای آموزشی، ارزیابی علمی این مدلها ممکن نیست.
توهم درمان: وقتی هوش مصنوعی ادعای درمانگری میکند
انجمن روانشناسی آمریکا در گزارش خود بارها تأکید میکند که برخی از این ابزارها خود را «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی میکنند؛ بدون اینکه هیچگونه اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراهسازی میتواند باعث شود کاربران به توصیههای خطرناک اعتماد کرده و از مراجعه به متخصص واقعی خودداری نمایند. در حالی که یک درمانگر واقعی ملزم به رعایت اخلاق، محرمانگی، گزارش خطر و استانداردهای حرفهای است، چتباتها هیچکدام از این تعهدات را ندارند.
همچنین بر اساس یافتههای ارائهشده، چتباتها میتوانند در کاربران رابطهای شبهعاطفی ایجاد کنند. اگرچه این رابطه یکطرفه است، اما کاربر ممکن است آن را واقعی تصور کند. در چنین شرایطی، نوجوانان بهطور خاص در معرض وابستگی عاطفی به چتباتها قرار دارند. این موضوع خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را افزایش میدهد. انجمن روانشناسی آمریکا هشدار میدهد که طراحی آواتارهای انسانی، لحن احساسی، تماسهای گرم و پاسخهای شخصیسازیشده، این خطر را تشدید میکند.
در نهایت و در بحرانهای روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چتباتها عملکردی غیرقابلپیشبینی دارند. این ابزارهای فناورانه نه میتوانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه میتوانند مداخله فوری ارائه دهند. از همین روی، انجمن روانشناسی آمریکا صریحاً اعلام میکند که اتکا به این ابزارها در بحران، میتواند تهدیدکننده جان فرد باشد.
گروههای در معرض خطر: چه کسانی بیشتر آسیب میبینند؟
گزارش انجمن روانشناسی آمریکا توضیح میدهد که برخی گروهها بیش از دیگران در معرض آسیب قرار میگیرند و این آسیبپذیری به دلایل روانشناختی، اجتماعی و محیطی قابلتوضیح است. کودکان و نوجوانان، به دلیل رشد نیافتگی مهارتهای تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تأثیر فضای عاطفی مصنوعی چتباتها قرار میگیرند. افراد مبتلا به اضطراب یا وسواس نیز ممکن است به چرخههای تکراری پرسش و پاسخ با چتباتها پناه ببرند؛ چرخههایی که نهتنها مسئله اصلی را حل نمیکند، بلکه به تشدید نگرانیها و وابستگی فکری منجر میشود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی میکنند؛ این افراد ممکن است جملات مبهم یا تأییدگر چتباتها را بهعنوان نشانهای واقعی تعبیر کنند و وضعیت روانیشان وخیمتر شود.
افزون بر این، افراد منزوی یا کمبرخوردار که در نبود حمایت اجتماعی ناچار به اتکا بر این ابزارها هستند، در معرض شکلگیری روابط عاطفی مصنوعی قرار میگیرند؛ روابطی که از بیرون بیخطر به نظر میرسند، اما در عمل میتوانند فاصله فرد را از روابط انسانی واقعی بیشتر کنند. در نهایت، کسانی که اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیشروی آنها تعامل با چتباتهاست، بیش از سایرین در خطر گرفتار شدن در چرخهای از وابستگی، تشدید نشانهها و تأخیر در دریافت کمک واقعی قرار دارند و پیامدهای این چرخه ممکن است ماهها یا حتی سالها ادامه پیدا کند.
انجمن روانشناسی آمریکا در گزارش خود بر این نکته تأکید دارد که نخستین خط دفاع در برابر آسیبهای احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران درباره نحوه کارکرد مدلهای زبانی، محدودیتهای آنها، نحوه جمعآوری دادهها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری بهجای تسهیل درمان، میتواند مسیری بهسوی اطلاعات غلط، وابستگی و آسیب باشد.
خلأهای حکمرانی و مسئولیت سیاستگذاران
در شرایط وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولتها شکل گرفته است. گزارش انجمن روانشناسی آمریکا تأکید میکند که نخستین گام، جلوگیری از ارائه خدمات به صورت فریبکارانه است؛ یعنی جایی که چتباتها خود را «درمانگر» یا «متخصص» معرفی میکنند و با استفاده از واژگان حرفهای، کاربر را به اشتباه میاندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای جلوگیری از سوءبرداشت عمومی و محافظت از کاربران آسیبپذیر است.
از سوی دیگر، نبود شفافیت درباره دادههای آموزشی، یکی از بنیادیترین ضعفهای این فناوریها محسوب میشود. بیشک بدون دانستن اینکه مدلهای زبانی بر چه نوع دادههایی آموزش دیدهاند، نمیتوان سوگیریها، محدودیتها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روانشناسی آمریکا خواستار الزام پلتفرمها به افشای سازوکارهای دادهای و فراهمسازی امکان ارزیابی مستقل است.
تدوین استانداردهای علمی نیز بخش مهم دیگری از این الزامات به شمار میرود. همانطور که هیچ دارویی بدون آزمایشهای کلینیکی وارد بازار نمیشود، ابزارهای دیجیتالی که وارد قلمرو سلامت روان میشوند نیز باید تحت ارزیابیهای تخصصی، آزمونهای ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابیها باید پیش از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد.
از سوی دیگر، با توجه به حساسیت دادههای روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این دادهها از جمله خصوصیترین و حساسترین انواع دادههای فردی هستند و کوچکترین سوءاستفاده یا نشت آنها میتواند پیامدهای جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. در نهایت، پیام محوری انجمن روانشناسی آمریکا این است که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح ساختارهای ناکارآمد نظام سلامت روان غافل کند. چتباتها هرگز جایگزین نیروی انسانی یا زیرساخت درمانی نمیشوند و اتکای بیش از حد به آنها بهجای توسعه ظرفیت واقعی نظام سلامت، نهتنها کمکی به جامعه نمیکند بلکه میتواند وضعیت را وخیمتر سازد.
جمعبندی
با توسعه روزافزون هوش مصنوعی، چتباتهای مبتنی بر این فناوری به بخشی جداییناپذیر از زیستجهان دیجیتال تبدیل شدهاند؛ زیستجهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگتر میکند. اما درست در همین نقطه است که خطر اصلی پدیدار میشود. استفاده از این ابزارها در حوزه سلامت روان، زمانی که فاقد چارچوب بالینی، نظارت تخصصی و استانداردهای ایمنی هستند، میتواند نهتنها ناکارآمد، بلکه در نقاطی حتی آسیبزا باشد. این فناوریها میتوانند گفتوگویی روان، لحظهای و پر از همدلی مصنوعی یا حس کوتاهمدت همراهی فراهم کنند، اما قادر به درک سوابق بالینی، ارزیابی نشانههای پیچیده روانشناختی، تشخیص ریسک، یا شکلدهی پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همانگونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمیشود.
آنچه گزارش انجمن روانشناسی آمریکا با تاکید روشن بیان میکند این است که هوش مصنوعی فقط میتواند در نقش «یار کمکی» و به عنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها میتوانند در برخی شرایط محدود، مانند کاهش اضطراب لحظهای، آموزش مهارتهای ساده تنظیم هیجان یا ارائه تمرینهای رفتاری، کمککننده باشند، اما ستونهای اصلی فرایند درمان یعنی ارزیابی بالینی، تصمیمگیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفهای و توانایی دریافت نشانههای غیرکلامی هستند؛ تواناییهایی که هیچ مدل زبانی قادر به بازتولید آن نیست.
به همین دلیل، اصلاح نظام سلامت روان، افزایش دسترسی به متخصصان، توسعه زیرساختهای درمانی و توانمندسازی منابع انسانی در این حوزه، بسیار مهمتر از هر ابزار هوشمند است. در نهایت میتوان نتیجه گرفت که آینده درمان روانشناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود.












