مشاوره پزشکی با هوش مصنوعی می‌تواند خطرناک باشد

خبرآنلاین سه شنبه 21 بهمن 1404 - 17:01
مطالعه جدید محققان دانشگاه آکسفورد نشان می‌دهد استفاده از چت‌بات‌های هوش مصنوعی برای مشاوره پزشکی خطرناک است.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش دیجیاتو، اگر شما هم جزو میلیون‌ها نفری هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا سایر چت‌بات‌ها می‌روید، بهتر است دست نگه دارید. مطالعه جدید محققان دانشگاه آکسفورد نشان می‌دهد که اعتماد به هوش مصنوعی برای تصمیم‌گیری‌های پزشکی می‌تواند عواقب خطرناکی داشته باشد.

براساس گزارش BBC، محققان دانشگاه آکسفورد می‌گویند مدل‌های هوش مصنوعی در زمینه پزشکی پاسخ‌های ناسازگار و گاهی نادرست می‌دهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار می‌دهد که پرسیدن علائم بیماری از چت‌بات‌ها می‌تواند خطرناک باشد.

در این پژوهش که روی ۱۳۰۰ نفر انجام شد، شرکت‌کنندگان در سناریوهای مختلف (مانند سردرد شدید یا خستگی مداوم پس از زایمان) قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روش‌های سنتی (مانند جستجو در گوگل) استفاده می‌کردند، نگرفتند.

مشکل اصلی اینجاست که هوش مصنوعی ممکن است سه تشخیص مختلف ارائه دهد و کاربر را در حدس‌زدن گزینه صحیح تنها بگذارد. دکتر «آدام مهدی» توضیح می‌دهد: «مردم اطلاعات را به صورت تدریجی به چت‌بات می‌دهند و همه چیز را نمی‌گویند؛ دقیقاً همین‌جاست که کار خراب می‌شود.»

خطرهای مشاوره پزشکی با هوش مصنوعی

در این مطالعه پژوهشگران متوجه یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی شدند. کاربران نمی‌دانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد. از سوی دیگر، پاسخ‌های هوش مصنوعی به شدت به نحوه جمله‌بندی سؤال وابسته بود. محققان می‌گویند: «این تحلیل نشان داد که تعامل با انسان‌ها حتی برای مدل‌های هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»

برخلاف تست‌های استاندارد پزشکی که هوش مصنوعی در آنها نمره قبولی می‌گیرد، در دنیای واقعی و در تعامل با افراد غیرمتخصص، این سیستم‌ها دچار لغزش می‌شوند. بنابراین، تکیه بر آنها برای تصمیم‌گیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.

دکتر «امبر چایلدز» (Amber W. Childs) از دانشگاه ییل اشاره می‌کند که چون چت‌بات‌ها با داده‌های فعلی پزشکی آموزش دیده‌اند، همان سوگیری‌ها و تعصباتی را که دهه‌ها در پزشکی وجود داشته است، تکرار می‌کنند. او می‌گوید: «یک چت‌بات فقط به اندازه پزشکان باتجربه‌ای که داده‌هایش را تولید کرده‌اند خوب است، که آن هم کامل نیست.»

البته برخی از کارشناسان نیز معتقدند که نسخه‌‎های تخصصی پزشکی که اخیراً توسط شرکت‌هایی مانند OpenAI و آنتروپیک عرضه شده‌اند، ممکن است نتایج متفاوتی داشته باشند. هدف باید بهبود تکنولوژی با قوانین نظارتی شفاف و گاردریل‌های پزشکی باشد تا امنیت بیماران تضمین شود.

۲۲۷۲۲۷

منبع خبر "خبرآنلاین" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.