Компания Meta (признана экстремистской) заявила, что в некоторых случаях не будет выпускать свои ИИ-системы, если они окажутся слишком рискованными.
Об этом говорится в новом документе Frontier AI Framework, где выделены два уровня потенциально опасных ИИ: «высокий риск» и «критический риск».
ИИ-системы «высокого риска» могут способствовать кибератакам или распространению химических и биологических угроз. Если такая модель создаётся, её выпуск будет отложен до устранения угроз. В случае «критического риска», когда последствия могут быть катастрофическими и неконтролируемыми, разработка будет полностью приостановлена, а система — защищена от утечки. Компания считает, что подобные инциденты наиболее вероятны при выпуске мощных ИИ-систем.
Meta оценивает угрозы не на основе конкретных тестов, а с привлечением внутренних и внешних экспертов, чьи мнения анализируются руководством компании.
Читать первым в Telegram-канале «Код Дурова»