به گزارش خبرگزاری مهر به نقل از انگجت، بخش اعظم این محتوا توسط آمازون گزارش شده که آن را در داده های آموزش هوش مصنوعی خود یافته است. علاوه بر آن آمازون اعلام کرد محتوای نامناسب را در منابع خارجی که برای آموزش سرویس های هوش مصنوعی اش به کار می رود، یافته و مدعی شد نمی تواند جزئیات بیشتری درباره منشا CSAM فراهم کند.
فالون مک نالتی مدیر مرکز سایبر تیپ لاین متعلق به NCMEC در این باره می گوید: این امر واقع یک لایه خارجی است.
بسیاری از انواع شرکت های مختلف مستقر در آمریکا موظف هستند هرگونه CSAM را به تیپ لاین گزارش دهند.
مک نالتی در این باره می گوید: ورود چنین حجم بالایی از اطلاعات در طول سال، سوالات زیادی را در مورد اینکه دادهها از کجا میآیند و چه تمهیداتی اندیشیده شده است، مطرح میکند.
او در ادامه افزود در کنار آمازون گزارشهای مرتبط با هوش مصنوعی که این سازمان سال گذشته از شرکتهای دیگر دریافت کرده، شامل دادههای قابل پیگیری بوده اند که میتوان آنها را برای اقدامات بعدی در اختیار مجریان قانون قرار دهد.
مکنالتی گفت: از آنجایی که آمازون منابع خود را فاش نمیکند، نمی توان براساس گزارش های آن اقدامی انجام داد.
یک سخنگوی آمازون در بیانیه ای اعلام کرد: ما عامدانه روشی محتاطانه را برای بررسی بنیاد داده های آموزشی مخصوص مدل های هوش مصنوعی از جمله داده های عمومی در وب در پیش می گیریم تا محتوای شناخته شده سواستفاده از کودکان را شناسایی و حذف و در نهایت از مشتریان مان حافظت کنیم.
این شرکت اعلام کرد که محتوای مشکوک CSAM را قبل از وارد کردن دادههای آموزشی به مدلهای هوش مصنوعی خود حذف کرده است.












