1 июля 2025

eur = 92.27 -0.01 (-0.01 %)

btc = 107 122.00$ -1 341.34 (-1.24 %)

eth = 2 479.03$ -23.61 (-0.94 %)

ton = 2.88$ -0.01 (-0.39 %)

usd = 78.53 0.06 (0.08 %)

eur = 92.27 -0.01 (-0.01 %)

btc = 107 122.00$ -1 341.34 (-1.24 %)

Apple будет проверять фотографии пользователей для защиты детей

2 минуты на чтение
Apple будет проверять фотографии пользователей для защиты детей

Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM). Все имеющиеся функции будут работать только в США.

Свежие версии iOS и iPadOS, которые будут выпущены этой осенью, будут содержать новые криптографические приложения, которые помогут ограничить распространение материалов, изображающих сексуальное насилие над детьми, при этом обеспечивая конфиденциальность пользователей. Таким образом, компания гарантирует, что никогда не увидит и не узнает о каких-либо обнаженных фотографиях, которыми могут обмениваться дети в сообщениях.

Безопасность в сообщениях

После выхода iOS 15 и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщения» будет использовать машинное обучение на каждом конкретном устройстве для распознавания откровенного контента.

Apple будет проверять фотографии пользователей для защиты детей

В случае получения откровенного контента «Сообщения» автоматически размоет снимок, а также расскажут детям о том, что им лучше не смотреть подобные фотографии. Также ребёнок будет уведомлён, что его родители получат сообщение, если он все же просмотрит эту фотографию. Родительские уведомления ограничены детьми до 13 лет.

Аналогичные меры защиты предусмотрены, если ребенок пытается отправить фотографии сексуального характера. Ребенок будет предупрежден перед отправкой фотографии, а родители также получат сообщение, если он всё же решит её отправить.

Распознавание CSAM

Ещё одной важной проблемой является распространение в Интернете материалов о сексуальном насилии над детьми (CSAM). Под CSAM понимается контент, изображающий сексуально откровенные действия с участием ребенка.

Новые iOS и iPadOS начнут бороться с распространением такого контента. Самый важный момент в реализации новой функции заключается в том, что алгоритмы будут локально сканировать фотографии перед резервным копированием в iCloud. В США технология позволит компании отчитываться об опасных случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC).

Для этого нейросети начнут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями по детской безопасности.

Apple заявляет, что она не получит доступ к изображениям, не содержащим запрещённых материалов. Кроме того, риск, что система ошибочно отметит учётную запись, как содержащую неправомерные материалы, чрезвычайно низок.

Специалисты отмечают, что эта система значительно повысит вероятность того, что люди, которые владеют или продают запрещённые фото и видеоматериалы будут уличены. Пользователи смогут оспорить жалобу, если считают её ошибочной. Чтобы полностью исключить ошибки, специалисты Apple будут вручную проверять все отчёты системы.

Руководства безопасности в Siri и «Поиске»

Компания расширит рекомендации по безопасности в Siri и «Поиске» для юных пользователей. Например, пользователи, которые спросят Siri, как они могут сообщить о CSAM или эксплуатации детей, будут направлены к ресурсам, где и как подать соответствующее заявление.

Apple будет проверять фотографии пользователей для защиты детей

Siri и «Поиск» также будут вмешиваться, когда пользователь выполняет поиск по запросам, связанным с CSAM. Система будет предупреждать, что интересоваться этой темой ненормально и предоставит ресурсы партнёров для получения помощи.

Также начнёт лучше предупреждать и обучать юных пользователей систем и их родителей о том, как лучше вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы и предложит почитать о них подробнее.

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
2737c621-d628-4a44-9350-431fc416c777-изображение-0648c944a-47e1-4190-a7e4-00141e05901a-изображение-1

GigaChat Max: коротко о главном

Инсайдер: Apple разрабатывает 7 AR- и VR-устройств, которые выйдут в ближайшие четыре года

Полная версия 
a96a0e6a-3fe9-4b49-b564-965013b85900-изображение-0da98c41b-6488-405f-bad3-8e0963b48652-изображение-1

GigaChat Max: коротко о главном

В Китае провели футбольный матч между гуманоидными роботами

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 366
X5 Tech
Газпромбанк
билайн
Сбер
Т-Банк
МТС
Яндекс Практикум
Ozon Tech
Циан
Банк 131

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы