Ранее в iOS 14.3 обнаружили обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).
Из предварительного тестирования стало известно, что NeuralHash можно легко обмануть. Достаточно всего лишь обрезать или повернуть изображение. А вот повторное сжатие и изменения размера изображения не влияло на работу алгоритма.
Apple прокомментировала ситуацию, в компании утверждают, что её технология гораздо сложнее, чем механизм NeuralHash, который является лишь её частью.
По словам Apple, функция обнаружения незаконных изображений будет работать непосредственно на устройстве пользователя, в отличие от решений Google и Microsoft, которые работают в облаке. Система будет сканировать фотографии, загружаемые пользователями в iCloud. Если она найдёт более 30 незаконных снимков, то сообщит об этом в правоохранительные органы. Для исключения ошибок результаты будут проверять живые люди. Многоуровневая проверка будет полностью исключать ложные срабатывания.
Apple заявила, что версия NeuralHash, воссозданная и протестированная энтузиастами, не является окончательной. Компания также обнародовала алгоритм, для того, чтобы исследователи безопасности убедились, что он работает как следует.
Читать первым в Telegram-канале «Код Дурова»