3 декабря 2024

eur = 114.31 -1.83 (-1.57 %)

btc = 95 834.00$ -1 345.44 (-1.38 %)

eth = 3 640.65$ -66.51 (-1.79 %)

ton = 6.57$ -0.26 (-3.86 %)

usd = 107.74 -1.84 (-1.68 %)

eur = 114.31 -1.83 (-1.57 %)

btc = 95 834.00$ -1 345.44 (-1.38 %)

Форум

Apple заявила, что почта iCloud сканируется на наличие CSAM с 2019 года

2 минуты на чтение
Apple заявила, что почта iCloud сканируется на наличие CSAM с 2019 года

Компания подтвердила изданию 9to5mac, что уже несколько лет сканирует исходящие и входящие письма в Почте iCloud на наличие изображений жестокого обращения с детьми (CSAM). В Apple также указали, что проводят ограниченное сканирование других данных.

Однако компания также не проверяет фотографии iCloud или резервные копии iCloud. Это разъяснение последовало после того, как журналист задал вопрос о довольно странном заявлении Эрика Фридмана, руководителя Apple по борьбе с мошенничеством. Он заявил, что Apple является «самой большой платформой для распространения детского порно».

Это очень спорное заявление, ибо если компания не сканирует фотографии iCloud, откуда она могла это знать? Есть несколько других признаков того, что Apple должна была проводить какое-то сканирование CSAM. Например, в архивной версии страницы Apple, посвящённой безопасности детей, говорится следующее:

Компания Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области. Мы разработали надёжные средства защиты на всех уровнях нашей программной платформы и во всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить об эксплуатации детей. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для поиска подозрений в эксплуатации детей. Мы проверяем каждое совпадение с помощью индивидуальной проверки. Учётные записи, содержащие материалы, связанные с эксплуатацией детей, нарушают наши правила и условия обслуживания, и все учётные записи, в которых мы обнаружим такие материалы, будут отключены.

Напомним, ранее пользователь Reddit AsuharietYgvar обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми. Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть.

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
75c70f7f-fc58-4bf8-a912-6c9a8fca244c-изображение-046339abf-839b-47c6-8a45-4b20ebe1382d-изображение-1f830f569-f921-41da-bd42-7fa229302ce3-изображение-2

GigaChat Max: коротко о главном

Яндекс Музыка подвела итоги 2024 года

Полная версия 
25788747-f0e3-4641-a081-c79b736e0421-изображение-0

GigaChat Max: коротко о главном

Молодые люди всё чаще отказываются от использования Google

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 298
Газпромбанк
МТС
Т-Банк
X5 Tech
Сбер
билайн
Яндекс Практикум
Ozon Tech
Циан
Банк 131