ГигаЧат кратко объясняет суть статьи
ФСТЭК до конца 2025 года разработает новый стандарт по безопасной разработке систем искусственного интеллекта, дополняющий существующие нормы защиты программного обеспечения. Документ учтёт особенности угроз, связанных с дата-центрами, моделями машинного обучения и обработкой данных. Стандарт установит правила сбора, хранения и обработки датасетов, обеспечит целостность и конфиденциальность данных. Требования станут обязательными для госструктур и критически важной инфраструктуры, а впоследствии могут распространиться и на коммерческие компании. Ранее принятый приказ ФСТЭК №117 содержит общие положения, однако конкретные методы защиты пока не определены.
Федеральная служба по техническому и экспортному контролю (ФСТЭК) до конца 2025 года планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта.
Об этом сообщил первый замдиректора ведомства Виталий Лютиков на форуме BIS-2025, пишет «Ведомости».
Новый документ станет дополнением к действующему стандарту по безопасной разработке ПО и будет учитывать специфические угрозы, связанные с дата-центрами, моделями машинного обучения и особенностями работы с данными.
По словам экспертов, речь идёт о методическом руководстве, которое должно закрыть пробелы существующих требований. Традиционные модели угроз не учитывают специфику ИИ-систем.
Новый стандарт будет описывать не только работу с моделями, но и правила сбора, хранения и разметки датасетов, а также меры по обеспечению их целостности и конфиденциальности, — пояснил консультант по безопасности Positive Technologies Алексей Лукацкий.
Разрабатываемые требования будут обязательными для разработчиков решений для госсектора и критической инфраструктуры, но со временем могут стать отраслевым стандартом и для коммерческих компаний, отмечают специалисты.
Ранее в 117-м приказе ФСТЭК, который вступит в силу с 1 марта 2026 года, уже появился раздел о защите ИИ и используемых для его обучения данных. Однако он фиксирует лишь общие требования, не описывая конкретных методов. Новый стандарт должен восполнить этот пробел.
Читать первым в Telegram-канале «Код Дурова»