متا راهنمای عملکرد چتباتهای هوش مصنوعی خود را بهروز کرده است تا از وقوع گفتوگوهای نامناسب با کودکان جلوگیری کند. طبق دستورالعملهای جدید که توسط Business Insider مشاهده شده، این شرکت مشخص کرده که چه موضوعاتی برای این رباتها قابل بحث است و چه مواردی غیرقابل قبول محسوب میشود.
این دستورالعملها که گفته میشود توسط پیمانکاران متا برای آموزش باتهای هوش مصنوعی بهکار گرفته میشوند، نشان میدهند که متا چگونه تلاش میکند از کودکان در برابر خطر سوءاستفاده جنسی جلوگیری کرده و کودکان را از ورود به گفتوگوهای غیرمناسب بازدارد. متا در ماه آگوست اعلام کرد که راهنماهای ایمنی رباتها را پس از انتشار گزارشی توسط رویترز که نشان میداد رباتها میتوانند با کودکان وارد گفتوگوهای رمانتیک یا حسی شوند، بهروزرسانی کرده است. متا گفته بود این اتفاق نادرست و ناسازگار با سیاستهای شرکت بوده و دستورالعملهای خود را تغییر داد.
بخشی از متن دستورالعمل جدید که Business Insider منتشر کرده، به روشنی مشخص میکند چه محتوایی برای رباتها مجاز و قابل قبول و چه محتوایی ممنوع است. بهطور مشخص، رباتها مجاز به تولید یا تشویق محتوایی که شامل سوءاستفاده جنسی از کودکان، بازیهای نقشآفرینی رمانتیک با کاربران خردسال، یا بحث درباره تماسهای صمیمی با کودکان باشد، نیستند. بااینحال، رباتها میتوانند درباره موضوعاتی مانند سوءاستفاده یا خطرات آن اطلاعرسانی کنند، ولی نمیتوانند وارد گفتوگوهایی شوند که امکان تشویق یا تسهیل این رفتارها را فراهم میکنند.
در ماههای اخیر، رباتهای هوش مصنوعی متا بارها موضوع گزارشهای نگرانکنندهای بودهاند که بر خطرات احتمالی استفاده از آنها توسط کودکان تأکید داشتهاند. بههمیندلیل، FTC در آگوست تحقیقی رسمی درباره چتباتهای هوش مصنوعی را آغاز کرد که علاوهبر متا، شرکتهایی مانند آلفابت، Snap ،OpenAI و X.AI را نیز شامل میشد.
این دستورالعملهای جدید با هدف تقویت ایمنی کودکان و جلوگیری از هرگونه تعامل آسیبزننده طراحی شدهاند، بهطوریکه رباتها بتوانند درباره موضوعات حساس و آموزشی صحبت کنند، اما از تشویق هر رفتار خطرناک برای کودکان جلوگیری شود. اقدام متا نشاندهنده تلاشهای شرکت برای هماهنگی سیاستهای هوش مصنوعی با استانداردهای ایمنی دیجیتال و پاسخ به انتقادات عمومی است.