В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

18 августа, 20212 минуты на чтение
Подписывайтесь на [Код // Дурова] в Telegram[Код // Дурова] в Telegram

UPD: Apple прокомментировала ситуацию и заявила, что окончательную версию NeuralHash обмануть не получится.

Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

По словам пользователя, он провёл реверс-инжиниринг кода и выложил его на репозиторий GitHub. Ему также удалось создать рабочую модель на Python, которую можно протестировать, передавая ей изображения.

Несмотря на сомнения со стороны пользователей, AsuharietYgvar уверяет, что этот алгоритм подлинный, на это есть как минимум две причины: во-первых, файлы моделей имеют тот же префикс, что и в документации Apple, а во-вторых, проверяемые части кода работают так же, как и описание NeuralHash от Apple.

Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть. Достаточно всего лишь обрезать или повернуть изображение. А вот повторное сжатие и изменения размера изображения не влияло на работу алгоритма.

Рабочий Python-скрипт открыл пользователям GitHub просторы для исследований. Они стали изучать как работает алгоритм и можно ли им злоупотреблять. Так, пользователь под ником dxoigmn, обнаружил, что если знать результирующий хеш-код изображения, которое есть в базе данных CSAM, то можно создать поддельное изображение с таким же хэшем. Если это правда, то такой недоработкой могут воспользоваться недоброжелатели, чтобы запутать алгоритм. Навредить пользователю таким образом вряд ли получится, поскольку ранее в Apple заявили, что для исключения ошибок, специалисты компании будут вручную проверять отчёты системы.

Однако важно отметить, что вся информация, полученная в этой версии NerualHash, определённо не представляет собой итоговый вариант. Apple создавала алгоритм обнаружения CSAM в течение многих лет, поэтому можно предположить, что это лишь одна из ранних версий кода, предназначенная для тестирования. Главный аргумент в пользу этого то, что алгоритм не справляется с поворотом и обрезкой изображения, хотя ранее Apple заявляла, что это будет учитываться.

Apple будет проверять фотографии пользователей для защиты детей
Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM).

Напомним, ранее Apple анонсировала обновление для операционных систем, которое будет сканировать снимки при загрузке в «облачное» хранилище данных и проверять их на предмет материалов о сексуальном насилии над детьми (CSAM).

18 августа, 2021
Подписывайтесь на [Код // Дурова] в Telegram[Код // Дурова] в Telegram
Показать все