GigaChat Max кратко объясняет суть статьи
Разработан проект регулирования сферы искусственного интеллекта, предполагающий запрет на применение ИИ-систем с неприемлемым уровнем риска. Проект предлагает классифицировать риски ИИ на четыре категории: неприемлемый (запрет), высокий (обязательная регистрация и сертификация), ограниченный (внутренний контроль и добровольная сертификация), минимальный (без дополнительных требований). Для пользователей предусматривается маркировка взаимодействия с ИИ. Разработчики и операторы будут освобождены от ответственности за вред, если соблюдены меры безопасности и вред возник не по их вине. У участников рынка будет год на адаптацию к новым требованиям.
В России начали разрабатывать проект регулирования в сфере искусственного интеллекта.
Один из ключевых пунктов инициативы — запрет на использование ИИ-систем с «неприемлемым уровнем риска», сообщает РБК со ссылкой на источники, знакомые с обсуждением.
Проект подготовила рабочая группа, в которую вошли юристы, представители консалтинговых компаний и участники ИИ-рынка. Документ уже обсуждался на заседаниях профильных комитетов в Госдуме, в «Деловой России» и на других отраслевых площадках.
По словам Андрея Свинцова, зампреда комитета Госдумы по информационной политике, пока единый законопроект, который бы комплексно регулировал деятельность ИИ в стране, рассматривать не планируется. В ближайшие месяцы могут появиться лишь точечные инициативы — например, создание пилотных зон или отдельных норм для специфических отраслей.
В проекте предлагается определить ИИ как технологический и программный комплекс, имитирующий когнитивные функции человека (включая самообучение и принятие решений без заранее заданного алгоритма). Также вводятся понятия ИИ-систем, их разработчиков, операторов и пользователей, а также требования по маркировке — пользователь должен быть явно уведомлён, что взаимодействует с ИИ.
Ключевым элементом регулирования станет классификация по уровню риска:
- Неприемлемый — использование таких систем предлагается запретить;
- Высокий — потребуется обязательная регистрация и сертификация;
- Ограниченный — системы внутреннего контроля и добровольная сертификация;
- Минимальный — без дополнительных требований.
Кроме того, предусмотрена ответственность за причинённый вред жизни, здоровью или имуществу. Однако если разработчик или оператор предприняли все необходимые меры безопасности, они освобождаются от ответственности. Это также касается случаев, когда вред был вызван неправильным использованием технологии со стороны пользователя.
Если документ будет принят в текущем виде, у разработчиков и операторов ИИ будет один год на приведение своих систем в соответствие с новыми требованиями.
Читать первым в Telegram-канале «Код Дурова»