OpenAI объявила о создании независимого наблюдательного органа, который будет контролировать вопросы безопасности при разработке ИИ-моделей. Новая структура получила полномочия приостанавливать релизы моделей, если возникают риски для безопасности.
Это решение было принято по итогам 90-дневного анализа мер безопасности компании. Комитет по безопасности возглавил Зико Колтер, а в его состав вошли Адам Д'Анджело, Пол Накасоне и Николь Селигман. Генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета. Основная задача нового органа — оценка безопасности и предотвращение потенциальных угроз, связанных с новыми релизами ИИ.
Хотя комитет официально получил статус независимого органа, вопросы о его независимости остаются, так как его члены продолжают входить в совет директоров компании.
OpenAI также анонсировала планы по расширению сотрудничества с другими участниками ИИ-индустрии и намерена увеличить прозрачность в области безопасности и тестирования своих систем, однако детали этого сотрудничества пока не раскрыты.
Читать первым в Telegram-канале «Код Дурова»