Криптографы назвали функцию  Apple для защиты детей небезопасной
Криптографы назвали функцию  Apple для защиты детей небезопасной

Криптографы назвали функцию Apple для защиты детей небезопасной

17 октября, 20212 минуты на чтение
Подписывайтесь на [Код // Дурова] в Telegram[Код // Дурова] в Telegram

Группа известных криптографов опубликовала исследование, в котором назвали новую функцию Apple, предназначенную для отслеживания элементов жестокого обращения с детьми (CSAM) «опасной технологией».

Они уверены, что сканирование цифровых хранилищ людей на наличие детской порнографии и другого незаконного контента не может быть реализовано таким образом, чтобы выполнять одновременно две противоречивые друг другу задачи – обеспечить конфиденциальность пользователей и помочь силовым структурам в поимке преступников.

Исследователи безопасности считают, что планы Apple по предотвращению CSAM и аналогичные предложения ЕС лишь расширяют «полномочия государства по слежке».

Иначе говоря, это очень опасная технология. Даже если первоначально она будет использоваться для сканирования материалов CSAM, то рано или поздно возникнет желание расширить сферу её применения. Нужно пресечь появление этой технологии на этапе зарождения, иначе потом будет уже поздно. Нам будет трудно найти способ противостоять её распространению и мы потеряем контроль над этой системой, – отмечается в докладе.

Авторы доклада считают, что метод сканирования «сам по себе создаёт серьёзные риски безопасности и конфиденциальности для всего общества», а помощь, которую он может оказать правоохранительным органам «не столь велика». Эксперты отметили, что алгоритм сканирования на стороне клиента можно обойти и даже использовать во вред кому-то.

Ранее один из пользователей Reddit обнаружил в iOS 14.3 официальную часть кода алгоритма, который будет использоваться для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).

Пользователь провёл реверс-инжиниринг кода, что позволило ему найти способ обмануть алгоритм и даже злоупотребить им.

На данный момент Apple ещё не объявила, когда намеревается запустить свои функции защиты детей, после того, как отложила их из-за опасений экспертов по безопасности. Доклад исследователей состоит из 46 страниц, в его разработке приняло участие 14 экспертов по кибербезопасности.

17 октября, 2021
Подписывайтесь на [Код // Дурова] в Telegram[Код // Дурова] в Telegram
Показать все

Выбор редакции