از اپل به دلیل توقف برنامه شناسایی محتواهای کودک‌آزاری در iCloud شکایت شد

دیجیاتو دوشنبه 19 آذر 1403 - 10:33
اپل در سال 2021 می‌خواست محتواها را برای مقابله با کودک‌آزاری اسکن کند، اما بعداً به دلیل انتقادات از این تصمیم عقب‌نشینی کرد. The post از اپل به دلیل توقف برنامه شناسایی محتواهای کودک‌آزاری در iCloud شکایت شد appeared first on دیجیاتو.

یکی از قربانیان سوءاستفاده جنسی و کودک‌آزاری از اپل به دلیل عدم اجرای طرح اسکن تصاویر در iCloud برای یافتن محتواهای کودک‌آزاری (CSAM) شکایت کرد. در سال 2021، اپل اعلام کرده بود که روی ابزاری برای شناسایی CSAM کار می‌کند که چنین سوءاستفاده‌هایی را تشخیص می‌دهد و مرکز ملی کودکان مفقود و مورد سوءاستفاده قرارگرفته را مطلع می‌کند. اما بعداً این برنامه را معلق کرد.

براساس گزارش نیویوک تایمز، یک زن 27 ساله که در کودکی توسط یکی از بستگان خود قربانی آزار جنسی شده بود، از اپل به دلیل توقف قابلیت تشخیص CSAM شکایت کرد. او در شکایت خود می‌گوید که اپل با حذف ویژگی اسکن CSAM از iCloud، وعده خود برای محافظت از قربانیانی مانند او را زیر پا گذاشته است.

به گفته یکی از وکلای این زن، شکایت علیه اپل خواستار تغییر در رویه‌های این شرکت و پرداخت غرامت احتمالی به گروهی متشکل از 2 هزار 680 قربانی واجد شرایط دیگر است. طبق قانون فعلی، قربانیان کودک‌آزاری می‌توانند حداقل 150 هزار دلار غرامت دریافت کنند. اگر همه شاکیان بالقوه در شکایت این زن غرامت بگیرند، درصورتی که اپل مسئول شناخته شود، مجموع خسارت ممکن است بالغ بر 1.2 میلیارد دلار باشد.

شکایت از اپل برای عدم شناسایی محتواهای کودک‌آزاری

در یک پرونده جداگانه نیز، وکلایی به نمایندگی از یک قربانی 9 ساله کودک‌آزاری در ماه آگوست امسال از اپل شکایت کردند. به گفته نیویورک تایمز، در این مورد، دختر می‌گوید که غریبه‌هایی لینک ویدیوهای CSAM مختلف را از طریق iCloud برای او می‌فرستادند و او را تشویق می‌کردند تا فیلم‌های مشابهی از خود ضبط و آپلود کند.

سخنگوی اپل نیز در بیانیه‌ای گفت: «محتوای کودک‌آزاری نفرت‌انگیز است و ما متعهد به مبارزه با روش‌هایی هستیم که از طریق آن سوءاستفاده‌گران کودکان را در معرض خطر قرار می‌دهند. ما برای مبارزه با این جرایم بدون به خطر انداختن امنیت و حریم خصوصی کاربران خود، فوری و فعالانه دست به نوآوری زده‌ایم.»

سخنگوی اپل از قابلیتی مانند «ایمنی ارتباطات» (Communication Safety) در اپلیکیشن Messages نام می‌برد که به کودکان هنگام دریافت یا تلاش برای ارسال محتوای حاوی برهنگی هشدار می‌دهد تا به شکستن زنجیره‌ای که منجر به سوءاستفاده جنسی از کودکان می‌شود، کمک کند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.