30 июня 2025

eur = 92.27 -0.01 (-0.01 %)

btc = 107 359.00$ - 191.28 (-0.18 %)

eth = 2 467.04$ 32.09 (1.32 %)

ton = 2.95$ 0.08 (2.75 %)

usd = 78.53 0.06 (0.08 %)

eur = 92.27 -0.01 (-0.01 %)

btc = 107 359.00$ - 191.28 (-0.18 %)

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

2 минуты на чтение
В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

UPD: Apple прокомментировала ситуацию и заявила, что окончательную версию NeuralHash обмануть не получится.

Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

По словам пользователя, он провёл реверс-инжиниринг кода и выложил его на репозиторий GitHub. Ему также удалось создать рабочую модель на Python, которую можно протестировать, передавая ей изображения.

Несмотря на сомнения со стороны пользователей, AsuharietYgvar уверяет, что этот алгоритм подлинный, на это есть как минимум две причины: во-первых, файлы моделей имеют тот же префикс, что и в документации Apple, а во-вторых, проверяемые части кода работают так же, как и описание NeuralHash от Apple.

Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть. Достаточно всего лишь обрезать или повернуть изображение. А вот повторное сжатие и изменения размера изображения не влияло на работу алгоритма.

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM

Рабочий Python-скрипт открыл пользователям GitHub просторы для исследований. Они стали изучать как работает алгоритм и можно ли им злоупотреблять. Так, пользователь под ником dxoigmn, обнаружил, что если знать результирующий хеш-код изображения, которое есть в базе данных CSAM, то можно создать поддельное изображение с таким же хэшем. Если это правда, то такой недоработкой могут воспользоваться недоброжелатели, чтобы запутать алгоритм. Навредить пользователю таким образом вряд ли получится, поскольку ранее в Apple заявили, что для исключения ошибок, специалисты компании будут вручную проверять отчёты системы.

Однако важно отметить, что вся информация, полученная в этой версии NerualHash, определённо не представляет собой итоговый вариант. Apple создавала алгоритм обнаружения CSAM в течение многих лет, поэтому можно предположить, что это лишь одна из ранних версий кода, предназначенная для тестирования. Главный аргумент в пользу этого то, что алгоритм не справляется с поворотом и обрезкой изображения, хотя ранее Apple заявляла, что это будет учитываться.

Apple будет проверять фотографии пользователей для защиты детей
Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM).

Напомним, ранее Apple анонсировала обновление для операционных систем, которое будет сканировать снимки при загрузке в «облачное» хранилище данных и проверять их на предмет материалов о сексуальном насилии над детьми (CSAM).

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
2737c621-d628-4a44-9350-431fc416c777-изображение-0648c944a-47e1-4190-a7e4-00141e05901a-изображение-1

GigaChat Max: коротко о главном

Инсайдер: Apple разрабатывает 7 AR- и VR-устройств, которые выйдут в ближайшие четыре года

Полная версия 
a96a0e6a-3fe9-4b49-b564-965013b85900-изображение-0da98c41b-6488-405f-bad3-8e0963b48652-изображение-1

GigaChat Max: коротко о главном

В Китае провели футбольный матч между гуманоидными роботами

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 366
X5 Tech
Газпромбанк
билайн
Сбер
Т-Банк
МТС
Яндекс Практикум
Ozon Tech
Циан
Банк 131

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы