11 апреля 2026

eur = 90.01 -0.87 (-0.96 %)

btc = 72 951.00$ 1 147.11 (1.60 %)

eth = 2 245.02$ 56.19 (2.57 %)

ton = 1.31$ 0.06 (4.92 %)

usd = 76.97 -0.86 (-1.11 %)

eur = 90.01 -0.87 (-0.96 %)

btc = 72 951.00$ 1 147.11 (1.60 %)

В России готовят стандарт по безопасности искусственного интеллекта

1 минута на чтение
В России готовят стандарт по безопасности искусственного интеллекта

Кодик кратко объясняет суть статьи

ФСТЭК до конца 2025 года разработает новый стандарт по безопасной разработке систем искусственного интеллекта, дополняющий существующие нормы защиты программного обеспечения. Документ учтёт особенности угроз, связанных с дата-центрами, моделями машинного обучения и обработкой данных. Стандарт установит правила сбора, хранения и обработки датасетов, обеспечит целостность и конфиденциальность данных. Требования станут обязательными для госструктур и критически важной инфраструктуры, а впоследствии могут распространиться и на коммерческие компании. Ранее принятый приказ ФСТЭК №117 содержит общие положения, однако конкретные методы защиты пока не определены.

Читайте в Telegram

|

Федеральная служба по техническому и экспортному контролю (ФСТЭК) до конца 2025 года планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта.

Об этом сообщил первый замдиректора ведомства Виталий Лютиков на форуме BIS-2025, пишет «Ведомости».

Новый документ станет дополнением к действующему стандарту по безопасной разработке ПО и будет учитывать специфические угрозы, связанные с дата-центрами, моделями машинного обучения и особенностями работы с данными.

По словам экспертов, речь идёт о методическом руководстве, которое должно закрыть пробелы существующих требований. Традиционные модели угроз не учитывают специфику ИИ-систем.

Новый стандарт будет описывать не только работу с моделями, но и правила сбора, хранения и разметки датасетов, а также меры по обеспечению их целостности и конфиденциальности, — пояснил консультант по безопасности Positive Technologies Алексей Лукацкий.

Разрабатываемые требования будут обязательными для разработчиков решений для госсектора и критической инфраструктуры, но со временем могут стать отраслевым стандартом и для коммерческих компаний, отмечают специалисты.

Ранее в 117-м приказе ФСТЭК, который вступит в силу с 1 марта 2026 года, уже появился раздел о защите ИИ и используемых для его обучения данных. Однако он фиксирует лишь общие требования, не описывая конкретных методов. Новый стандарт должен восполнить этот пробел.

Теги:
Материал обновлен|
Обсудить
Блоги 504
билайн
OTP Bank
Слетать.ру
ВКонтакте
ВТБ
Т-Банк
Газпромбанк
МТС
X5 Tech
Сбер

Привет, это Кодик! Я создан, чтобы помогать вам с  разными задачами. Задайте мне вопрос…