14 декабря 2024

eur = 109.01 -1.47 (-1.33 %)

btc = 101 627.00$ 2 099.26 (2.11 %)

eth = 3 926.19$ 56.47 (1.46 %)

ton = 6.30$ -0.00 (-0.07 %)

usd = 103.43 -0.52 (-0.50 %)

eur = 109.01 -1.47 (-1.33 %)

btc = 101 627.00$ 2 099.26 (2.11 %)

Форум

«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud

3 минуты на чтение
«Мы не будем удовлетворять просьбы властей»: Apple ответила на острые вопросы о сканировании фото в iCloud

Apple опубликовала FAQ с ответами на распространенные вопросы о новшествах iOS 15, благодаря которым операционная система будет выявлять изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM), а также откровенно сексуальные изображения в переписке через встроенный мессенджер.

Apple будет проверять фотографии пользователей для защиты детей
Apple подтвердила прежние слухи о планах по развёртыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет выявлять на пользовательских устройствах изображения, потенциально содержащие элементы жестокого обращения с детьми (CSAM).

В документе компания пояснила, что функция «безопасного общения в iMessage», призванная защитить детей от получения или отправки откровенно сексуальных изображений:

  • будет анализировать только изображения из переписки, не затрагивая текст и любой другой контент;
  • будет работать только на аккаунтах детей до 17 лет, учетные записи которых настроены в «Семейном доступе»;
  • не будет раскрывать никакой информации ни Apple, ни правоохранительным органам, ни Национальному центру по проблеме исчезнувших и эксплуатируемых детей (НЦИЭД).

В рамках указанной функции дети до 12 лет будут предупреждены, что в случае просмотра или отправки соответствующих изображений их родители получат уведомление об этом. При этом ребенок может отменить отправку или не просматривать полученное и предварительно размытое системой изображение, и тогда родители не получат никаких уведомлений. Дети же от 13 до 17 также получат предупреждение о получении или отправке откровенно сексуального контента, однако родителям никаких уведомлений поступать не будет.

Что касается обнаружения CSAM в iCloud Photos, то она не будет работать у пользователей, которые отключили синхронизацию фотографий с облаком Apple. Если же функция iCloud Photos активирована, то Apple будет получать информацию об аккаунте того, кто хранит такие изображения, а также данные о снимках, идентифицированных как CSAM.

При этом автоматическое информирование правоохранительных органов и НЦИЭД функцией не предусмотрено — прежде чем отправить отчет в ведомство, данные будут проверены сотрудниками Apple на предмет ошибочного срабатывания алгоритмов. При этом в компании отмечают, что вероятность ошибки — менее одного случая на триллион в год.

В компании напомнили, что в большинстве стран, включая США, сам факт обладания такими изображениями является преступлением, поэтому Apple обязана сообщать соответствующим органам обо всех случаях, о которых она узнала.

На вопрос о том, могут ли власти тех или иных стран заставить Apple добавить в хэш-лист изображения, не относящиеся к CSAM, компания отвечает, что откажется от любых подобных требований:

Мы твердо заявляем, что эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем удовлетворять просьбы властей расширить ее.

Ранее связанные с CSAM новшества iOS подверглись критике экспертов, а экс-сотрудник ЦРУ и АНБ США Эдвард Сноуден вовсе обвинил Apple в том, что она без спроса превратила девайсы на триллионы долларов в «АйСтукачей»:

С критикой в сторону Apple выступил и глава WhatsApp Уилл Кэткарт:

Глава WhatsApp высказался против функции Apple, разрабатываемой для защиты детей
Он считает, что Apple пошла по неверному пути, так как «создала программное обеспечение, которое может сканировать все личные фотографии»

Открытое письмо с призывом отказаться от этой функциональности подписали уже около 6000 частных лиц и организаций, в числе которых Фонд свободы прессы (FPF) и Нью-Йоркская публичная библиотека.

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
d6aa19b2-a354-4c11-8308-4693887bcd66-изображение-0

GigaChat Max: коротко о главном

Сбер: каждый желающий сможет принять участие в «Народном датасете» для обучения нейросетей

Полная версия 
8a7c3ead-b8a5-4994-afef-87012a828dc0-изображение-0d26c6819-9910-4e41-90c2-704794c9ea65-изображение-15a31345f-8b61-47bc-81ed-4343f42ec726-изображение-2

GigaChat Max: коротко о главном

ИИ-технологии Сбера и база научных публикаций теперь доступны всем пользователям

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 301
Газпромбанк
МТС
Т-Банк
X5 Tech
Сбер
билайн
Яндекс Практикум
Ozon Tech
Циан
Банк 131