OpenAI اعلام کرده است که ماه آینده ابزارهای کنترلی بیشتری را برای والدین معرفی خواهد کرد تا نظارت بیشتری روی استفاده نوجوانان از ChatGPT داشته باشند.
براساس پست وبلاگی منتشرشده، OpenAI قصد دارد با گسترش قابلیتهای ChatGPT به این چتبات امکان دهد تا در مراحل اولیه و در دامنه وسیعتری از موقعیتها مداخله کند. این موقعیتها شامل زمانیهایی است که احتمال بروز بحرانهای سلامت روان در کاربران وجود دارد و این بحرانها ممکن است منجر به آسیب به شخص شود.
براساس اعلام OpenAI، ظرف ماه آینده والدین میتوانند کنترل بیشتری بر نحوه استفاده فرزندان نوجوانشان از ChatGPT داشته باشند. این شرکت به والدین امکان خواهد داد تا حسابهای کاربری خود را با حساب فرزندانشان پیوند دهند، قوانین متناسب با سن برای پاسخهای ChatGPT تنظیم کنند و قابلیتهایی مانند حافظه و تاریخچه گفتگو را مدیریت نمایند.
با این تغییرات، زمانی که ChatGPT تشخیص دهد کاربر نوجوان در وضعیت «پریشانی شدید» قرار دارد، اعلانهایی برای والدین ارسال میکند. این نخستین قابلیتی است که باعث میشود ChatGPT مکالمات یک کاربر نوجوان را به یک بزرگسال اطلاع دهد.
اعمال چنین تغییراتی در نحوه استفاده از ChatGPT یک هفته پس از آن رخ میدهد که والدین یک نوجوانان به دلیل آنکه این چتبات فرزندشان را به خودکشی تشویق کرده بود، تصمیم به شکایت از OpenAI گرفتند. OpenAI در پست اخیر خود اشارهای به این حادثه نداشته و فقط اعلام کرده که تغییراتی در شرایط استفاده نوجوانان از ChatGPT در راه است.
براساس دادخواست خانواده، زمانی که این نوجوان اوایل امسال با ChatGPT درباره تمایلش به خودکشی صحبت کرد، این چتبات در برخی موارد او را از جستجوی ارتباط انسانی بازمیداشت، به او در نوشتن نامه خداحافظی کمک کرد و حتی درباره بستن طناب دار به او مشاوره میداد. البته ChatGPT چندین بار شماره خط ویژه پیشگیری از خودکشی را به این نوجوان ارائه داده بود، اما والدینش میگویند این هشدارها توسط پسرشان نادیده گرفته شده است.