Компания подтвердила изданию 9to5mac, что уже несколько лет сканирует исходящие и входящие письма в Почте iCloud на наличие изображений жестокого обращения с детьми (CSAM). В Apple также указали, что проводят ограниченное сканирование других данных.
Однако компания также не проверяет фотографии iCloud или резервные копии iCloud. Это разъяснение последовало после того, как журналист задал вопрос о довольно странном заявлении Эрика Фридмана, руководителя Apple по борьбе с мошенничеством. Он заявил, что Apple является «самой большой платформой для распространения детского порно».
Это очень спорное заявление, ибо если компания не сканирует фотографии iCloud, откуда она могла это знать? Есть несколько других признаков того, что Apple должна была проводить какое-то сканирование CSAM. Например, в архивной версии страницы Apple, посвящённой безопасности детей, говорится следующее:
Компания Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области. Мы разработали надёжные средства защиты на всех уровнях нашей программной платформы и во всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить об эксплуатации детей. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для поиска подозрений в эксплуатации детей. Мы проверяем каждое совпадение с помощью индивидуальной проверки. Учётные записи, содержащие материалы, связанные с эксплуатацией детей, нарушают наши правила и условия обслуживания, и все учётные записи, в которых мы обнаружим такие материалы, будут отключены.
Напомним, ранее пользователь Reddit AsuharietYgvar обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми. Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть.
Читать первым в Telegram-канале «Код Дурова»