17 сентября 2025

eur = 97.45 -1.88 (-1.89 %)

btc = 116 876.00$ 1 626.64 (1.41 %)

eth = 4 523.94$ 11.06 (0.25 %)

ton = 3.17$ 0.02 (0.66 %)

usd = 83.07 -1.31 (-1.55 %)

eur = 97.45 -1.88 (-1.89 %)

btc = 116 876.00$ 1 626.64 (1.41 %)

Криптографы назвали функцию Apple для защиты детей небезопасной

2 минуты на чтение
Криптографы назвали функцию  Apple для защиты детей небезопасной

Группа известных криптографов опубликовала исследование, в котором назвали новую функцию Apple, предназначенную для отслеживания элементов жестокого обращения с детьми (CSAM) «опасной технологией».

Они уверены, что сканирование цифровых хранилищ людей на наличие детской порнографии и другого незаконного контента не может быть реализовано таким образом, чтобы выполнять одновременно две противоречивые друг другу задачи – обеспечить конфиденциальность пользователей и помочь силовым структурам в поимке преступников.

Исследователи безопасности считают, что планы Apple по предотвращению CSAM и аналогичные предложения ЕС лишь расширяют «полномочия государства по слежке».

Иначе говоря, это очень опасная технология. Даже если первоначально она будет использоваться для сканирования материалов CSAM, то рано или поздно возникнет желание расширить сферу её применения. Нужно пресечь появление этой технологии на этапе зарождения, иначе потом будет уже поздно. Нам будет трудно найти способ противостоять её распространению и мы потеряем контроль над этой системой, – отмечается в докладе.

Авторы доклада считают, что метод сканирования «сам по себе создаёт серьёзные риски безопасности и конфиденциальности для всего общества», а помощь, которую он может оказать правоохранительным органам «не столь велика». Эксперты отметили, что алгоритм сканирования на стороне клиента можно обойти и даже использовать во вред кому-то.

Ранее один из пользователей Reddit обнаружил в iOS 14.3 официальную часть кода алгоритма, который будет использоваться для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).

Пользователь провёл реверс-инжиниринг кода, что позволило ему найти способ обмануть алгоритм и даже злоупотребить им.

На данный момент Apple ещё не объявила, когда намеревается запустить свои функции защиты детей, после того, как отложила их из-за опасений экспертов по безопасности. Доклад исследователей состоит из 46 страниц, в его разработке приняло участие 14 экспертов по кибербезопасности.

Материал обновлен|

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от ГигаЧат 
1-bg-изображение-0
img-content-1-изображение-0

ГигаЧат: коротко о главном

Как изменился Код Дурова вместе с ГигаЧат?

Узнай о всех возможностях в FAQ-статье 
Павел Дуров примет участие в Международном технологическом форуме в КазахстанеПавел Дуров примет участие в Международном технологическом форуме в КазахстанеПавел Дуров примет участие в Международном технологическом форуме в Казахстане

ГигаЧат: коротко о главном

Павел Дуров примет участие в Международном технологическом форуме в Казахстане

Полная версия 
Энтузиаст запустил сайт на чипе от одноразовой электронной сигареты

ГигаЧат: коротко о главном

Энтузиаст запустил сайт на чипе от одноразовой электронной сигареты

Полная версия 

Реализовано через ГигаЧат 

Сейчас читают
Редакция рекомендует
Карьера
Блоги 417
Газпромбанк
OTP Bank
Т-Банк
X5 Tech
билайн
МТС
Сбер
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы