19 апреля 2025

eur = 93.25 -0.08 (-0.09 %)

btc = 84 951.00$ 482.72 (0.57 %)

eth = 1 602.89$ 15.32 (0.96 %)

ton = 2.95$ -0.05 (-1.67 %)

usd = 82.02 -0.57 (-0.69 %)

eur = 93.25 -0.08 (-0.09 %)

btc = 84 951.00$ 482.72 (0.57 %)

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

2 минуты на чтение
В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

UPD: Apple прокомментировала ситуацию и заявила, что окончательную версию NeuralHash обмануть не получится.

Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

По словам пользователя, он провёл реверс-инжиниринг кода и выложил его на репозиторий GitHub. Ему также удалось создать рабочую модель на Python, которую можно протестировать, передавая ей изображения.

Несмотря на сомнения со стороны пользователей, AsuharietYgvar уверяет, что этот алгоритм подлинный, на это есть как минимум две причины: во-первых, файлы моделей имеют тот же префикс, что и в документации Apple, а во-вторых, проверяемые части кода работают так же, как и описание NeuralHash от Apple.

Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть. Достаточно всего лишь обрезать или повернуть изображение. А вот повторное сжатие и изменения размера изображения не влияло на работу алгоритма.

Рабочий Python-скрипт открыл пользователям GitHub просторы для исследований. Они стали изучать как работает алгоритм и можно ли им злоупотреблять. Так, пользователь под ником dxoigmn, обнаружил, что если знать результирующий хеш-код изображения, которое есть в базе данных CSAM, то можно создать поддельное изображение с таким же хэшем. Если это правда, то такой недоработкой могут воспользоваться недоброжелатели, чтобы запутать алгоритм. Навредить пользователю таким образом вряд ли получится, поскольку ранее в Apple заявили, что для исключения ошибок, специалисты компании будут вручную проверять отчёты системы.

Однако важно отметить, что вся информация, полученная в этой версии NerualHash, определённо не представляет собой итоговый вариант. Apple создавала алгоритм обнаружения CSAM в течение многих лет, поэтому можно предположить, что это лишь одна из ранних версий кода, предназначенная для тестирования. Главный аргумент в пользу этого то, что алгоритм не справляется с поворотом и обрезкой изображения, хотя ранее Apple заявляла, что это будет учитываться.

Apple будет проверять фотографии пользователей для защиты детей
Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM).

Напомним, ранее Apple анонсировала обновление для операционных систем, которое будет сканировать снимки при загрузке в «облачное» хранилище данных и проверять их на предмет материалов о сексуальном насилии над детьми (CSAM).

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
43e2876d-1719-47ca-8f31-cf4f35838b1a-изображение-0

GigaChat Max: коротко о главном

OpenAI тратит миллионы долларов на вежливость ChatGPT в общении

Полная версия 
60245f81-9333-49b3-897a-2f5cf1f6558e-изображение-0

GigaChat Max: коротко о главном

Google обжалует решение суда о монополии в интернет-рекламе

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 341
МТС
Газпромбанк
X5 Tech
Сбер
Т-Банк
билайн
Яндекс Практикум
Ozon Tech
Циан
Банк 131