«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud
Apple опубликовала FAQ с ответами на распространенные вопросы о новшествах iOS 15, благодаря которым операционная система будет выявлять изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM), а также откровенно сексуальные изображения в переписке через встроенный мессенджер.
В документе компания пояснила, что функция «безопасного общения в iMessage», призванная защитить детей от получения или отправки откровенно сексуальных изображений:
- будет анализировать только изображения из переписки, не затрагивая текст и любой другой контент;
- будет работать только на аккаунтах детей до 17 лет, учетные записи которых настроены в «Семейном доступе»;
- не будет раскрывать никакой информации ни Apple, ни правоохранительным органам, ни Национальному центру по проблеме исчезнувших и эксплуатируемых детей (НЦИЭД).
В рамках указанной функции дети до 12 лет будут предупреждены, что в случае просмотра или отправки соответствующих изображений их родители получат уведомление об этом. При этом ребенок может отменить отправку или не просматривать полученное и предварительно размытое системой изображение, и тогда родители не получат никаких уведомлений. Дети же от 13 до 17 также получат предупреждение о получении или отправке откровенно сексуального контента, однако родителям никаких уведомлений поступать не будет.
Что касается обнаружения CSAM в iCloud Photos, то она не будет работать у пользователей, которые отключили синхронизацию фотографий с облаком Apple. Если же функция iCloud Photos активирована, то Apple будет получать информацию об аккаунте того, кто хранит такие изображения, а также данные о снимках, идентифицированных как CSAM.
При этом автоматическое информирование правоохранительных органов и НЦИЭД функцией не предусмотрено — прежде чем отправить отчет в ведомство, данные будут проверены сотрудниками Apple на предмет ошибочного срабатывания алгоритмов. При этом в компании отмечают, что вероятность ошибки — менее одного случая на триллион в год.
В компании напомнили, что в большинстве стран, включая США, сам факт обладания такими изображениями является преступлением, поэтому Apple обязана сообщать соответствующим органам обо всех случаях, о которых она узнала.
На вопрос о том, могут ли власти тех или иных стран заставить Apple добавить в хэш-лист изображения, не относящиеся к CSAM, компания отвечает, что откажется от любых подобных требований:
Мы твердо заявляем, что эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем удовлетворять просьбы властей расширить ее.
Ранее связанные с CSAM новшества iOS подверглись критике экспертов, а экс-сотрудник ЦРУ и АНБ США Эдвард Сноуден вовсе обвинил Apple в том, что она без спроса превратила девайсы на триллионы долларов в «АйСтукачей»:
С критикой в сторону Apple выступил и глава WhatsApp Уилл Кэткарт:
Открытое письмо с призывом отказаться от этой функциональности подписали уже около 6000 частных лиц и организаций, в числе которых Фонд свободы прессы (FPF) и Нью-Йоркская публичная библиотека.
Читать первым в Telegram-канале «Код Дурова»