Apple заявила, что окончательную версию NeuralHash обмануть не получится

Ранее в iOS 14.3 обнаружили обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).

Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть. Достаточно всего лишь обрезать или повернуть изображение. А вот повторное сжатие и изменения размера изображения не влияло на работу алгоритма.

Apple прокомментировала ситуацию, в компании утверждают, что её технология гораздо сложнее, чем механизм NeuralHash, который является лишь её частью.

По словам Apple, функция обнаружения незаконных изображений будет работать непосредственно на устройстве пользователя, в отличие от решений Google и Microsoft, которые работают в облаке. Система будет сканировать фотографии, загружаемые пользователями в iCloud. Если она найдёт более 30 незаконных снимков, то сообщит об этом в правоохранительные органы. Для исключения ошибок результаты будут проверять живые люди. Многоуровневая проверка будет полностью исключать ложные срабатывания.

Apple заявила, что версия NeuralHash, воссозданная и протестированная энтузиастами, не является окончательной. Компания также обнародовала алгоритм, для того, чтобы исследователи безопасности убедились, что он работает как следует.