مهر: قربانیان سوءاستفاده جنسی از کودکان به دلیل ناتوانی اپل در پیروی از برنامهها برای اسکن آیکلود جهت بررسی محتوای سوءاستفاده جنسی از کودکان (CSAM) از این شرکت شکایت کردهاند. به نقل از انگجت، در سال ۲۰۲۱ میلادی اپل اعلام کرد مشغول توسعه ابزاری برای رصد محتوای سوءاستفاده جنسی از کودکان است که تصاویر نشاندهنده سوءاستفاده را برچسب میزند و به مرکز ملی کودکان گمشده و مورد سوءاستفاده قرار گرفته، هشدار میدهد. اما اپل به سرعت با بازخورد منفی درباره نقض حریم خصوصی به دلیل استفاده از این فناوری روبهرو شد و در نهایت برنامه را رها کرد.
در شکایت جدید که در شمال ایالت کالیفرنیا ثبت شده، گروهی شامل ۲۶۸۰ قربانی خواستار غرامتی ۱.۲میلیارد دلاری شدهاند. در شکایتنامه ادعا شده پس از آنکه اپل ابزارهای ایمنی کودک آتی خود را نمایش داد، نتوانست آن طرح یا هرگونه اقدامی برای ردیابی و محدود کردن CSAM را در دستگاههایش انجام دهد و همین امر به آسیب به قربانیان دامن زد؛ زیرا تصاویر ناهنجار همچنان دست به دست میشدند.
سخنگوی اپل در بیانیهای اعلام کرد: محتوای سوءاستفاده جنسی از کودکان منزجر کننده است و ما برای مقابله با روشهایی که مهاجمان کودکان را در معرض خطر قرار میدهند، متعهد هستیم. ویژگیهایی مانند «ایمنی ارتباطات» (Communication Safety) هنگامیکه کودکان محتوایی دریافت یا ارسال میکنند که حاوی هرزنگاری است، به آنها کمک میکند تا چرخه معیوبی را بشکنند که به سوءاستفاده جنسی از کودکان منجر میشود. ما همچنین روی ایجاد اقدامات حفاظتی متمرکز هستیم که از گسترش CSAM قبل از آنکه آغاز شود، جلوگیری میکند.
منبع خبر "
دنیای اقتصاد" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد.
(ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.