3 сентября 2025

eur = 94.38 0.34 (0.36 %)

btc = 111 054.00$ 861.03 (0.78 %)

eth = 4 335.13$ -45.24 (-1.03 %)

ton = 3.17$ 0.02 (0.79 %)

usd = 80.43 0.09 (0.12 %)

eur = 94.38 0.34 (0.36 %)

btc = 111 054.00$ 861.03 (0.78 %)

В России хотят запретить ИИ с «неприемлемым уровнем риска»

1 минута на чтение
В России хотят запретить ИИ с «неприемлемым уровнем риска»Как видит новость Kandinsky

GigaChat Max кратко объясняет суть статьи

Разработан проект регулирования сферы искусственного интеллекта, предполагающий запрет на применение ИИ-систем с неприемлемым уровнем риска. Проект предлагает классифицировать риски ИИ на четыре категории: неприемлемый (запрет), высокий (обязательная регистрация и сертификация), ограниченный (внутренний контроль и добровольная сертификация), минимальный (без дополнительных требований). Для пользователей предусматривается маркировка взаимодействия с ИИ. Разработчики и операторы будут освобождены от ответственности за вред, если соблюдены меры безопасности и вред возник не по их вине. У участников рынка будет год на адаптацию к новым требованиям.

В России начали разрабатывать проект регулирования в сфере искусственного интеллекта.

Один из ключевых пунктов инициативы — запрет на использование ИИ-систем с «неприемлемым уровнем риска», сообщает РБК со ссылкой на источники, знакомые с обсуждением.

Проект подготовила рабочая группа, в которую вошли юристы, представители консалтинговых компаний и участники ИИ-рынка. Документ уже обсуждался на заседаниях профильных комитетов в Госдуме, в «Деловой России» и на других отраслевых площадках.

По словам Андрея Свинцова, зампреда комитета Госдумы по информационной политике, пока единый законопроект, который бы комплексно регулировал деятельность ИИ в стране, рассматривать не планируется. В ближайшие месяцы могут появиться лишь точечные инициативы — например, создание пилотных зон или отдельных норм для специфических отраслей.

В проекте предлагается определить ИИ как технологический и программный комплекс, имитирующий когнитивные функции человека (включая самообучение и принятие решений без заранее заданного алгоритма). Также вводятся понятия ИИ-систем, их разработчиков, операторов и пользователей, а также требования по маркировке — пользователь должен быть явно уведомлён, что взаимодействует с ИИ.

Ключевым элементом регулирования станет классификация по уровню риска:

  • Неприемлемый — использование таких систем предлагается запретить;
  • Высокий — потребуется обязательная регистрация и сертификация;
  • Ограниченный — системы внутреннего контроля и добровольная сертификация;
  • Минимальный — без дополнительных требований.

Кроме того, предусмотрена ответственность за причинённый вред жизни, здоровью или имуществу. Однако если разработчик или оператор предприняли все необходимые меры безопасности, они освобождаются от ответственности. Это также касается случаев, когда вред был вызван неправильным использованием технологии со стороны пользователя.

Если документ будет принят в текущем виде, у разработчиков и операторов ИИ будет один год на приведение своих систем в соответствие с новыми требованиями.

Теги:
Материал обновлен|

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
Анонсы GoCloud Tech: LLM стали доступнее, а AI-помощник по облаку получил новые сценарии в SRE и FinOpsАнонсы GoCloud Tech: LLM стали доступнее, а AI-помощник по облаку получил новые сценарии в SRE и FinOps

GigaChat Max: коротко о главном

Анонсы GoCloud Tech: LLM стали доступнее, а AI-помощник по облаку получил новые сценарии в SRE и FinOps

Полная версия 
Люди перестанут собирать iPhone

GigaChat Max: коротко о главном

Люди перестанут собирать iPhone

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Редакция рекомендует
Карьера
Блоги 408
Т-Банк
Газпромбанк
OTP Bank
X5 Tech
билайн
МТС
Сбер
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы