Apple заявила, что почта iCloud сканируется на наличие CSAM с 2019 года

Apple заявила, что почта iCloud сканируется на наличие CSAM с 2019 года

23 августа, 20212 минуты на чтение
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram

Компания подтвердила изданию 9to5mac, что уже несколько лет сканирует исходящие и входящие письма в Почте iCloud на наличие изображений жестокого обращения с детьми (CSAM). В Apple также указали, что проводят ограниченное сканирование других данных.

Однако компания также не проверяет фотографии iCloud или резервные копии iCloud. Это разъяснение последовало после того, как журналист задал вопрос о довольно странном заявлении Эрика Фридмана, руководителя Apple по борьбе с мошенничеством. Он заявил, что Apple является «самой большой платформой для распространения детского порно».

Это очень спорное заявление, ибо если компания не сканирует фотографии iCloud, откуда она могла это знать? Есть несколько других признаков того, что Apple должна была проводить какое-то сканирование CSAM. Например, в архивной версии страницы Apple, посвящённой безопасности детей, говорится следующее:

Компания Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области. Мы разработали надёжные средства защиты на всех уровнях нашей программной платформы и во всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить об эксплуатации детей. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для поиска подозрений в эксплуатации детей. Мы проверяем каждое совпадение с помощью индивидуальной проверки. Учётные записи, содержащие материалы, связанные с эксплуатацией детей, нарушают наши правила и условия обслуживания, и все учётные записи, в которых мы обнаружим такие материалы, будут отключены.

Напомним, ранее пользователь Reddit AsuharietYgvar обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми. Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть.

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).
23 августа, 2021
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram
Комментарии
Показать все