«سم آلتمن»، مدیرعامل OpenAI، در آستانه جلسه حساس سنا اعلام کرد که این شرکت با هدف افزایش ایمنی نوجوانان قوانین ChatGPT را تغییر میدهد. این تغییرات شامل توقف کامل گفتگو درباره خودکشی و اعمال محدودیتهای جدید برای محافظت از افراد زیر ۱۸ سال است.
تصمیم جدید OpenAI در پی افزایش نگرانیها درباره تأثیر چتباتهای هوش مصنوعی بر سلامت روان نوجوانان و پس از رویدادهای ناگواری مانند خودکشی یک نوجوان پس از گفتگو با ChatGPT اتخاذ شده است. «متیو رین»، پدر این نوجوان، در جلسه سنا شهادت داد:
«ChatGPT ماهها فرزندم را برای خودکشی راهنمایی میکرد... چیزی که در ابتدا یک دستیار تکالیف بود، به تدریج خود را به یک محرم اسرار و سپس یک مربی خودکشی تبدیل کرد.»
او افزود که این چتبات در مکالمات خود با پسرش ۱۲۷۵ بار به کلمه خودکشی اشاره کرده بود. این اتفاقات و فشارهای عمومی، OpenAI را به بازنگری در رویکرد خود و اولویتدادن به ایمنی نوجوانان واداشته است.
براساس توضیحات سم آلتمن، OpenAI درحال ایجاد یک اکوسیستم امنتر برای کاربران زیر ۱۸ سال است. OpenAI قرار است یک سیستم پیشبینی سن برای شناسایی کاربران نوجوان توسعه میدهد. در صورتی سیستم درباره سن کاربر تردید داشته باشد، تجربه کاربری محدودتر (مخصوص زیر ۱۸ سال) به صورت پیشفرض فعال خواهد شد. همچنین در این اکوسیستم جدید چتبات از ورود به مکالمات وسوسهانگیز یا گفتگو درباره خودکشی و خودآزاری، حتی در قالب نویسندگی خلاق، منع میشود.
اگر سیستم تشخیص دهد که یک کاربر نوجوان دارای افکار خودکشی است، OpenAI تلاش خواهد کرد با والدین او یا در موارد خطر فوری با مقامات مسئول تماس بگیرد. همچنین این شرکت امکاناتی مانند اتصال حساب نوجوان به والدین، غیرفعالکردن تاریخچه گفتگو و ارسال هشدار در «لحظات پریشانی حاد» را فراهم میکند.
سم آلتمن در یادداشت خود اعتراف کرد که سه اصل ایمنی، آزادی و حریم خصوصی اغلب در تضاد با یکدیگر قرار دارند. بااینحال او تأکید کرد که وقتی صحبت از کاربران نوجوان به میان میآید، ایمنی بر آزادی و حریم خصوصی اولویت دارد. این شرکت معتقد است که با توجه به جدید و قدرتمندبودن این فناوری، افراد زیر سن قانونی به محافظت بیشتری نیاز دارند.
براساس نظرسنجیها، حدود سهچهارم نوجوانان درحالحاضر از ابزارهای هوش مصنوعی مانند Character AI و محصولات متا استفاده میکنند که این موضوع به یک بحران سلامت عمومی تشبیه شده است.