Apple будет проверять фотографии пользователей для защиты детей

Apple будет проверять фотографии пользователей для защиты детей

6 августа, 20212 минуты на чтение
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram

Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM). Все имеющиеся функции будут работать только в США.

Свежие версии iOS и iPadOS, которые будут выпущены этой осенью, будут содержать новые криптографические приложения, которые помогут ограничить распространение материалов, изображающих сексуальное насилие над детьми, при этом обеспечивая конфиденциальность пользователей. Таким образом, компания гарантирует, что никогда не увидит и не узнает о каких-либо обнаженных фотографиях, которыми могут обмениваться дети в сообщениях.

Безопасность в сообщениях

После выхода iOS 15 и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщения» будет использовать машинное обучение на каждом конкретном устройстве для распознавания откровенного контента.

В случае получения откровенного контента «Сообщения» автоматически размоет снимок, а также расскажут детям о том, что им лучше не смотреть подобные фотографии. Также ребёнок будет уведомлён, что его родители получат сообщение, если он все же просмотрит эту фотографию. Родительские уведомления ограничены детьми до 13 лет.

Аналогичные меры защиты предусмотрены, если ребенок пытается отправить фотографии сексуального характера. Ребенок будет предупрежден перед отправкой фотографии, а родители также получат сообщение, если он всё же решит её отправить.

Распознавание CSAM

Ещё одной важной проблемой является распространение в Интернете материалов о сексуальном насилии над детьми (CSAM). Под CSAM понимается контент, изображающий сексуально откровенные действия с участием ребенка.

Новые iOS и iPadOS начнут бороться с распространением такого контента. Самый важный момент в реализации новой функции заключается в том, что алгоритмы будут локально сканировать фотографии перед резервным копированием в iCloud. В США технология позволит компании отчитываться об опасных случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC).

Для этого нейросети начнут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями по детской безопасности.

Apple заявляет, что она не получит доступ к изображениям, не содержащим запрещённых материалов. Кроме того, риск, что система ошибочно отметит учётную запись, как содержащую неправомерные материалы, чрезвычайно низок.

Специалисты отмечают, что эта система значительно повысит вероятность того, что люди, которые владеют или продают запрещённые фото и видеоматериалы будут уличены. Пользователи смогут оспорить жалобу, если считают её ошибочной. Чтобы полностью исключить ошибки, специалисты Apple будут вручную проверять все отчёты системы.

Руководства безопасности в Siri и «Поиске»

Компания расширит рекомендации по безопасности в Siri и «Поиске» для юных пользователей. Например, пользователи, которые спросят Siri, как они могут сообщить о CSAM или эксплуатации детей, будут направлены к ресурсам, где и как подать соответствующее заявление.

Siri и «Поиск» также будут вмешиваться, когда пользователь выполняет поиск по запросам, связанным с CSAM. Система будет предупреждать, что интересоваться этой темой ненормально и предоставит ресурсы партнёров для получения помощи.

Также начнёт лучше предупреждать и обучать юных пользователей систем и их родителей о том, как лучше вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы и предложит почитать о них подробнее.

6 августа, 2021
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram
Комментарии
Показать все