Против Apple подали коллективный иск из-за хранения в iCloud материалов с насилием


GigaChat Max кратко объясняет суть статьи
Тысячи пострадавших подали коллективный иск против Apple, обвиняя компанию в умышленном допущении хранения материалов о сексуальном насилии над детьми (CSAM) в облачном сервисе iCloud. Один из истцов заявил, что является жертвой многолетнего насилия, чьи записи распространялись через iCloud. Иск основан на отказе Apple в 2021 году от внедрения технологии NeuralHash для обнаружения CSAM, несмотря на проблему распространения запрещённого контента. Истцы требуют принятия эффективных мер защиты и компенсаций для группы из 2680 пострадавших, утверждая, что бездействие компании усугубляет их травмы. Компания пока воздерживается от официальных комментариев, подчеркивая свою приверженность защите детей без ущерба для конфиденциальности пользователей.
Против Apple подан иск, обвиняющий компанию в том, что она сознательно допускает использование своего облачного хранилища iCloud для хранения материалов о сексуальном насилии над детьми (CSAM).
Истцами выступают тысячи жертв, которые утверждают, что бездействие компании нанесло им дополнительный вред. Одной из соавторов иска стала 27-летняя женщина, заявившая, что подвергалась насилию с младенчества. Она рассказала, что её родственник записывал видео и распространял изображения через Интернет, используя iCloud. Женщина продолжает получать уведомления от правоохранительных органов о том, что эти материалы до сих пор обнаруживаются на различных устройствах.
Иск ссылается на решение Apple, принятое в 2021 году, отказаться от программы «Обнаружение CSAM», которая должна была использовать технологию NeuralHash для выявления таких материалов в iCloud. Программа была отложена из-за опасений активистов и экспертов в области конфиденциальности, которые предупреждали о рисках её неправомерного использования. Истцы считают, что отказ от программы демонстрирует «преднамеренное пренебрежение к безопасности детей».
Иск требует, чтобы Apple приняла надёжные меры по предотвращению хранения и распространения CSAM на своей платформе, а также предусматривает выплату компенсации потенциальной группе из 2680 жертв. Истцы утверждают, что бездействие компании усугубило их травму, заставляя снова переживать последствия насилия.
Apple пока не дала публичных комментариев по этому поводу, но представитель компании отметил, что она продолжает внедрять инновации для борьбы с преступлениями, связанными с сексуальным насилием над детьми, при этом не нарушая конфиденциальности пользователей.
Читать первым в Telegram-канале «Код Дурова»