В России готовят стандарт по безопасности искусственного интеллекта
Федеральная служба по техническому и экспортному контролю (ФСТЭК) до конца 2025 года планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта.
Об этом сообщил первый замдиректора ведомства Виталий Лютиков на форуме BIS-2025, пишет «Ведомости».
Новый документ станет дополнением к действующему стандарту по безопасной разработке ПО и будет учитывать специфические угрозы, связанные с дата-центрами, моделями машинного обучения и особенностями работы с данными.
По словам экспертов, речь идёт о методическом руководстве, которое должно закрыть пробелы существующих требований. Традиционные модели угроз не учитывают специфику ИИ-систем.
Новый стандарт будет описывать не только работу с моделями, но и правила сбора, хранения и разметки датасетов, а также меры по обеспечению их целостности и конфиденциальности, — пояснил консультант по безопасности Positive Technologies Алексей Лукацкий.
Разрабатываемые требования будут обязательными для разработчиков решений для госсектора и критической инфраструктуры, но со временем могут стать отраслевым стандартом и для коммерческих компаний, отмечают специалисты.
Ранее в 117-м приказе ФСТЭК, который вступит в силу с 1 марта 2026 года, уже появился раздел о защите ИИ и используемых для его обучения данных. Однако он фиксирует лишь общие требования, не описывая конкретных методов. Новый стандарт должен восполнить этот пробел.