خطر افشای اطلاعات بیماران؛ برخی تراپیست‌ها مخفیانه از ChatGPT استفاده می‌کنند

دیجیاتو چهارشنبه 26 شهریور 1404 - 12:02
کارشناسان می‌گویند استفاده مخفیانه از ChatGPT علاوه‌بر نقض حریم خصوصی، می‌تواند رابطه درمانی را متزلزل و بیماران را دچار احساس خیانت و بی‌اعتمادی کند. The post خطر افشای اطلاعات بیماران؛ برخی تراپیست‌ها مخفیانه از ChatGPT استفاده می‌کنند appeared first on دیجیاتو.

گزارش جدیدی نشان می‌دهد که برخی تراپیست‌ها یا درمانگران به‌طور پنهانی از ChatGPT در جلسات درمانی خود استفاده می‌کنند. این کار می‌تواند حریم خصوصی مراجعان را در معرض خطر قرار دهد.

در سال‌های اخیر هوش مصنوعی به ابزار کمکی برای حوزه‌های مختلف تبدیل شده، اما ورود آن به حوزه روان‌درمانی بحث‌برانگیز بوده است. براساس گزارشی از MIT Technology Review، برخی درمانگران به‌طور مخفیانه در طول جلسات از ChatGPT برای تولید پاسخ یا یافتن راه‌حل‌های سریع استفاده می‌کنند.

در این گزارش به یک فرد آمریکایی با نام «دکلن» اشاره شده که به‌طور ناخواسته متوجه شده درمانگرش حرف‌های او را مستقیماً در ChatGPT وارد می‌کند و سپس پاسخ‌های هوش مصنوعی را در اختیار او قرار می‌دهد. فرد دیگری با نام «هوپ» که پس از مرگ سگش به درمانگر مراجعه کرده، پیغامی از او دریافت کرده که در بالای آن نوشته شده «نسخه‌ای انسانی‌تر و صمیمانه‌تر با لحن محاوره‌ای.»

هشدار کارشناسان درباره استفاده تراپیست‌ها از ChatGPT برای درمان

به گفته کارشناسان این موضوع می‌تواند اعتماد بیمار را به‌شدت تحت تأثیر قرار دهد؛ زیرا بسیاری از بیماران انتظار دارند که گفته‌های آنها خصوصی باشد.

تراپی با هوش مصنوعی

«توماس وستن‌هولز»، درمانگر روابط فردی و زوج‌ها، در گفتگو با Cybernews تأکید می‌کند که شفافیت در این زمینه اهمیت زیادی دارد. او می‌گوید:

«درمان براساس صداقت و شفافیت شکل می‌گیرد. اگر مراجعه‌کننده متوجه شود درمانگرش بدون اطلاع او از ChatGPT کمک گرفته، این موضوع می‌تواند پیوند اعتماد میان آنها را از بین ببرد.»

به گفته او، نقش هوش مصنوعی می‌تواند در امور اداری یا تهیه منابع آموزشی مفید باشد، اما هرگز نباید در روند درمان جایگزین نیروی انسانی شود.

هرچند برخی مطالعات نشان می‌دهند که پاسخ‌های تولیدشده توسط هوش مصنوعی ممکن است از دید بیماران مناسب‌تر به نظر برسند، اما مشکل اصلی به عدم اطلاع‌رسانی صحیح به آنها مربوط می‌شود. بیماران معمولاً در آغاز درمان توافقی مبنی بر محرمانه بودن داده‌های خود را امضا می‌کنند و اگر بعدها متوجه شوند اطلاعاتشان به یک مدل زبانی داده شده، ممکن است احساس آسیب‌پذیری بیشتری کنند.

وستن‌هولز توضیح می‌دهد:

«شفافیت غیرقابل مذاکره است. در روان‌درمانی مبتنی بر EFT، ما می‌دانیم که روند بهبودی تنها در روابطی شکل می‌گیرد که فرد احساس امنیت کند، و این امنیت به صداقت وابسته است. اگر قرار است هوش مصنوعی بخشی از روند درمان باشد، بیماران باید بدانند و رضایت دهند.»

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.