19 июля 2025

eur = 91.08 0.11 (0.12 %)

btc = 118 320.00$ -1 823.57 (-1.52 %)

eth = 3 588.12$ -10.10 (-0.28 %)

ton = 3.20$ -0.07 (-2.26 %)

usd = 78.31 0.13 (0.16 %)

eur = 91.08 0.11 (0.12 %)

btc = 118 320.00$ -1 823.57 (-1.52 %)

В России хотят запретить ИИ с «неприемлемым уровнем риска»

1 минута на чтение
В России хотят запретить ИИ с «неприемлемым уровнем риска»Как видит новость Kandinsky

GigaChat Max кратко объясняет суть статьи

Разработан проект регулирования сферы искусственного интеллекта, предполагающий запрет на применение ИИ-систем с неприемлемым уровнем риска. Проект предлагает классифицировать риски ИИ на четыре категории: неприемлемый (запрет), высокий (обязательная регистрация и сертификация), ограниченный (внутренний контроль и добровольная сертификация), минимальный (без дополнительных требований). Для пользователей предусматривается маркировка взаимодействия с ИИ. Разработчики и операторы будут освобождены от ответственности за вред, если соблюдены меры безопасности и вред возник не по их вине. У участников рынка будет год на адаптацию к новым требованиям.

В России начали разрабатывать проект регулирования в сфере искусственного интеллекта.

Один из ключевых пунктов инициативы — запрет на использование ИИ-систем с «неприемлемым уровнем риска», сообщает РБК со ссылкой на источники, знакомые с обсуждением.

Проект подготовила рабочая группа, в которую вошли юристы, представители консалтинговых компаний и участники ИИ-рынка. Документ уже обсуждался на заседаниях профильных комитетов в Госдуме, в «Деловой России» и на других отраслевых площадках.

По словам Андрея Свинцова, зампреда комитета Госдумы по информационной политике, пока единый законопроект, который бы комплексно регулировал деятельность ИИ в стране, рассматривать не планируется. В ближайшие месяцы могут появиться лишь точечные инициативы — например, создание пилотных зон или отдельных норм для специфических отраслей.

В проекте предлагается определить ИИ как технологический и программный комплекс, имитирующий когнитивные функции человека (включая самообучение и принятие решений без заранее заданного алгоритма). Также вводятся понятия ИИ-систем, их разработчиков, операторов и пользователей, а также требования по маркировке — пользователь должен быть явно уведомлён, что взаимодействует с ИИ.

Ключевым элементом регулирования станет классификация по уровню риска:

  • Неприемлемый — использование таких систем предлагается запретить;
  • Высокий — потребуется обязательная регистрация и сертификация;
  • Ограниченный — системы внутреннего контроля и добровольная сертификация;
  • Минимальный — без дополнительных требований.

Кроме того, предусмотрена ответственность за причинённый вред жизни, здоровью или имуществу. Однако если разработчик или оператор предприняли все необходимые меры безопасности, они освобождаются от ответственности. Это также касается случаев, когда вред был вызван неправильным использованием технологии со стороны пользователя.

Если документ будет принят в текущем виде, у разработчиков и операторов ИИ будет один год на приведение своих систем в соответствие с новыми требованиями.

Теги:

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
Алиса из-за бага генерирует изображения обнажённых женщинАлиса из-за бага генерирует изображения обнажённых женщин

GigaChat Max: коротко о главном

Алиса из-за бага генерирует изображения обнажённых женщин

Полная версия 
Россиянка отсудила 1,5 млн рублей у работодателя, заменившего её на нейросеть

GigaChat Max: коротко о главном

Россиянка отсудила 1,5 млн рублей у работодателя, заменившего её на нейросеть

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 379
OTP Bank
Газпромбанк
Сбер
Т-Банк
X5 Tech
билайн
МТС
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы