11 июля 2025

eur = 91.50 0.08 (0.09 %)

btc = 116 254.00$ 5 007.07 (4.50 %)

eth = 2 967.11$ 194.23 (7.00 %)

ton = 2.94$ 0.09 (3.23 %)

usd = 77.90 -0.27 (-0.35 %)

eur = 91.50 0.08 (0.09 %)

btc = 116 254.00$ 5 007.07 (4.50 %)

Криптографы назвали функцию Apple для защиты детей небезопасной

2 минуты на чтение
Криптографы назвали функцию  Apple для защиты детей небезопасной

Группа известных криптографов опубликовала исследование, в котором назвали новую функцию Apple, предназначенную для отслеживания элементов жестокого обращения с детьми (CSAM) «опасной технологией».

Они уверены, что сканирование цифровых хранилищ людей на наличие детской порнографии и другого незаконного контента не может быть реализовано таким образом, чтобы выполнять одновременно две противоречивые друг другу задачи – обеспечить конфиденциальность пользователей и помочь силовым структурам в поимке преступников.

Исследователи безопасности считают, что планы Apple по предотвращению CSAM и аналогичные предложения ЕС лишь расширяют «полномочия государства по слежке».

Иначе говоря, это очень опасная технология. Даже если первоначально она будет использоваться для сканирования материалов CSAM, то рано или поздно возникнет желание расширить сферу её применения. Нужно пресечь появление этой технологии на этапе зарождения, иначе потом будет уже поздно. Нам будет трудно найти способ противостоять её распространению и мы потеряем контроль над этой системой, – отмечается в докладе.

Авторы доклада считают, что метод сканирования «сам по себе создаёт серьёзные риски безопасности и конфиденциальности для всего общества», а помощь, которую он может оказать правоохранительным органам «не столь велика». Эксперты отметили, что алгоритм сканирования на стороне клиента можно обойти и даже использовать во вред кому-то.

Ранее один из пользователей Reddit обнаружил в iOS 14.3 официальную часть кода алгоритма, который будет использоваться для сканирования фото и поиска изображений жестокого обращения с детьми (CSAM).

В iOS 14.3 нашли код алгоритма Apple для сканирования CSAM
Пользователь Reddit AsuharietYgvar утверждает, что обнаружил в iOS 14.3 обфусцированный код алгоритма NeuralHash, который будет использоваться в iOS 15 для сканирования фото и поиска изображений с жестоким обращением с детьми (CSAM).

Пользователь провёл реверс-инжиниринг кода, что позволило ему найти способ обмануть алгоритм и даже злоупотребить им.

На данный момент Apple ещё не объявила, когда намеревается запустить свои функции защиты детей, после того, как отложила их из-за опасений экспертов по безопасности. Доклад исследователей состоит из 46 страниц, в его разработке приняло участие 14 экспертов по кибербезопасности.

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
Microsoft окончательно решила избавиться от «синего экрана смерти» в Windows 11

GigaChat Max: коротко о главном

Microsoft окончательно решила избавиться от «синего экрана смерти» в Windows 11

Полная версия 
Госдума одобрила штрафы до 1 млн рублей за нарушения в работе хостинг-провайдеров

GigaChat Max: коротко о главном

Госдума одобрила штрафы до 1 млн рублей за нарушения в работе хостинг-провайдеров

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 375
Газпромбанк
Сбер
OTP Bank
Т-Банк
X5 Tech
билайн
МТС
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы