29 марта 2026

eur = 93.42 -1.58 (-1.66 %)

btc = 66 861.00$ 779.17 (1.18 %)

eth = 2 010.35$ 23.28 (1.17 %)

ton = 1.24$ 0.02 (1.50 %)

usd = 81.14 -0.99 (-1.20 %)

eur = 93.42 -1.58 (-1.66 %)

btc = 66 861.00$ 779.17 (1.18 %)

В России готовят стандарт по безопасности искусственного интеллекта

1 минута на чтение
В России готовят стандарт по безопасности искусственного интеллекта

Читайте в Telegram

|

Федеральная служба по техническому и экспортному контролю (ФСТЭК) до конца 2025 года планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта.

Об этом сообщил первый замдиректора ведомства Виталий Лютиков на форуме BIS-2025, пишет «Ведомости».

Новый документ станет дополнением к действующему стандарту по безопасной разработке ПО и будет учитывать специфические угрозы, связанные с дата-центрами, моделями машинного обучения и особенностями работы с данными.

По словам экспертов, речь идёт о методическом руководстве, которое должно закрыть пробелы существующих требований. Традиционные модели угроз не учитывают специфику ИИ-систем.

Новый стандарт будет описывать не только работу с моделями, но и правила сбора, хранения и разметки датасетов, а также меры по обеспечению их целостности и конфиденциальности, — пояснил консультант по безопасности Positive Technologies Алексей Лукацкий.

Разрабатываемые требования будут обязательными для разработчиков решений для госсектора и критической инфраструктуры, но со временем могут стать отраслевым стандартом и для коммерческих компаний, отмечают специалисты.

Ранее в 117-м приказе ФСТЭК, который вступит в силу с 1 марта 2026 года, уже появился раздел о защите ИИ и используемых для его обучения данных. Однако он фиксирует лишь общие требования, не описывая конкретных методов. Новый стандарт должен восполнить этот пробел.

Материал обновлен|
Блоги 494
билайн
Слетать.ру
ВКонтакте
OTP Bank
Т-Банк
Газпромбанк
МТС
X5 Tech
Сбер
Яндекс Практикум