5 июля 2025

eur = 93.01 -0.12 (-0.13 %)

btc = 108 112.00$ -1 456.24 (-1.33 %)

eth = 2 515.10$ -78.06 (-3.01 %)

ton = 2.75$ -0.07 (-2.57 %)

usd = 78.84 0.05 (0.07 %)

eur = 93.01 -0.12 (-0.13 %)

btc = 108 112.00$ -1 456.24 (-1.33 %)

Против Apple подали коллективный иск из-за хранения в iCloud материалов с насилием

1 минута на чтение
Изображение содержит логотип iCloud с ключом, расположенным на фоне голубого неба с облаками.Как видит новость Kandinsky

GigaChat Max кратко объясняет суть статьи

Тысячи пострадавших подали коллективный иск против Apple, обвиняя компанию в умышленном допущении хранения материалов о сексуальном насилии над детьми (CSAM) в облачном сервисе iCloud. Один из истцов заявил, что является жертвой многолетнего насилия, чьи записи распространялись через iCloud. Иск основан на отказе Apple в 2021 году от внедрения технологии NeuralHash для обнаружения CSAM, несмотря на проблему распространения запрещённого контента. Истцы требуют принятия эффективных мер защиты и компенсаций для группы из 2680 пострадавших, утверждая, что бездействие компании усугубляет их травмы. Компания пока воздерживается от официальных комментариев, подчеркивая свою приверженность защите детей без ущерба для конфиденциальности пользователей.

Против Apple подан иск, обвиняющий компанию в том, что она сознательно допускает использование своего облачного хранилища iCloud для хранения материалов о сексуальном насилии над детьми (CSAM).

Истцами выступают тысячи жертв, которые утверждают, что бездействие компании нанесло им дополнительный вред. Одной из соавторов иска стала 27-летняя женщина, заявившая, что подвергалась насилию с младенчества. Она рассказала, что её родственник записывал видео и распространял изображения через Интернет, используя iCloud. Женщина продолжает получать уведомления от правоохранительных органов о том, что эти материалы до сих пор обнаруживаются на различных устройствах.

Иск ссылается на решение Apple, принятое в 2021 году, отказаться от программы «Обнаружение CSAM», которая должна была использовать технологию NeuralHash для выявления таких материалов в iCloud. Программа была отложена из-за опасений активистов и экспертов в области конфиденциальности, которые предупреждали о рисках её неправомерного использования. Истцы считают, что отказ от программы демонстрирует «преднамеренное пренебрежение к безопасности детей».

Иск требует, чтобы Apple приняла надёжные меры по предотвращению хранения и распространения CSAM на своей платформе, а также предусматривает выплату компенсации потенциальной группе из 2680 жертв. Истцы утверждают, что бездействие компании усугубило их травму, заставляя снова переживать последствия насилия.

Apple пока не дала публичных комментариев по этому поводу, но представитель компании отметил, что она продолжает внедрять инновации для борьбы с преступлениями, связанными с сексуальным насилием над детьми, при этом не нарушая конфиденциальности пользователей.

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
55a36004-2499-4525-b9c9-49bd7b11eff2-изображение-0de994f7a-c143-4170-b352-00ce21ff0b2e-изображение-1

GigaChat Max: коротко о главном

Tesla запустила первую автономную зарядную станцию на солнечных батареях

Полная версия 
2f70d456-4e83-4017-824b-73ecace9a69f-изображение-0

GigaChat Max: коротко о главном

Издатели в ЕС подали жалобы на Google из-за ИИ-сводок в поиске

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 371
Газпромбанк
OTP Bank
Т-Банк
X5 Tech
билайн
Сбер
МТС
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы