«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud
«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud

«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud

9 августа, 20213 минуты на чтение

Apple опубликовала FAQ с ответами на распространенные вопросы о новшествах iOS 15, благодаря которым операционная система будет выявлять изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM), а также откровенно сексуальные изображения в переписке через встроенный мессенджер.

Apple будет проверять фотографии пользователей для защиты детей
Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM).

В документе компания пояснила, что функция «безопасного общения в iMessage», призванная защитить детей от получения или отправки откровенно сексуальных изображений:

  • будет анализировать только изображения из переписки, не затрагивая текст и любой другой контент;
  • будет работать только на аккаунтах детей до 17 лет, учетные записи которых настроены в «Семейном доступе»;
  • не будет раскрывать никакой информации ни Apple, ни правоохранительным органам, ни Национальному центру по проблеме исчезнувших и эксплуатируемых детей (НЦИЭД).

В рамках указанной функции дети до 12 лет будут предупреждены, что в случае просмотра или отправки соответствующих изображений их родители получат уведомление об этом. При этом ребенок может отменить отправку или не просматривать полученное и предварительно размытое системой изображение, и тогда родители не получат никаких уведомлений. Дети же от 13 до 17 также получат предупреждение о получении или отправке откровенно сексуального контента, однако родителям никаких уведомлений поступать не будет.

Что касается обнаружения CSAM в iCloud Photos, то она не будет работать у пользователей, которые отключили синхронизацию фотографий с облаком Apple. Если же функция iCloud Photos активирована, то Apple будет получать информацию об аккаунте того, кто хранит такие изображения, а также данные о снимках, идентифицированных как CSAM.

При этом автоматическое информирование правоохранительных органов и НЦИЭД функцией не предусмотрено — прежде чем отправить отчет в ведомство, данные будут проверены сотрудниками Apple на предмет ошибочного срабатывания алгоритмов. При этом в компании отмечают, что вероятность ошибки — менее одного случая на триллион в год.

В компании напомнили, что в большинстве стран, включая США, сам факт обладания такими изображениями является преступлением, поэтому Apple обязана сообщать соответствующим органам обо всех случаях, о которых она узнала.

На вопрос о том, могут ли власти тех или иных стран заставить Apple добавить в хэш-лист изображения, не относящиеся к CSAM, компания отвечает, что откажется от любых подобных требований:

Мы твердо заявляем, что эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем удовлетворять просьбы властей расширить ее.

Ранее связанные с CSAM новшества iOS подверглись критике экспертов, а экс-сотрудник ЦРУ и АНБ США Эдвард Сноуден вовсе обвинил Apple в том, что она без спроса превратила девайсы на триллионы долларов в «АйСтукачей»:

С критикой в сторону Apple выступил и глава WhatsApp Уилл Кэткарт:

Глава WhatsApp высказался против функции Apple, разрабатываемой для защиты детей
Он считает, что Apple пошла по неверному пути, так как «создала программное обеспечение, которое может сканировать все личные фотографии»

Открытое письмо с призывом отказаться от этой функциональности подписали уже около 6000 частных лиц и организаций, в числе которых Фонд свободы прессы (FPF) и Нью-Йоркская публичная библиотека.

9 августа, 2021

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие материалы