Читать первым в Telegram-канале «Код Дурова»
Согласно недавнему отчёту The Washington Post, сотрудникам OpenAI запрещено раскрывать информацию о потенциальных рисках, связанных с искусственным интеллектом.
В трудовых договорах компании содержатся пункты, которые ограничивают общение с федеральными регуляторами и предусматривают серьёзные последствия для тех, кто нарушит эти условия.
В трудовом договоре содержались в неявном виде такие строки: «Мы не хотим, чтобы сотрудники разговаривали с федеральными регуляторами», — заявил один из информаторов на условиях анонимности из-за страха возмездия.
Информатор, предпочитающий оставаться анонимным, выразил обеспокоенность по поводу безопасности и общественной значимости технологий ИИ, разработанных в условиях подобных ограничений. Он считает, что такая политика препятствует необходимым проверкам и может подрывать общественное доверие к технологиям ИИ.
В ответ на эту ситуацию, несколько сотрудников OpenAI обратились в Комиссию по ценным бумагам и биржам США (SEC) с просьбой начать расследование деятельности компании. Они требуют введения штрафов за принуждение к подписанию контрактов, нарушающих права сотрудников на свободное выражение по поводу безопасности и этичности разработок.
Ситуация подчеркивает давнюю проблему NDA в Кремниевой долине, где многие технологические компании сталкиваются с судебными исками за подобные практики. Адвокаты указывают на то, что хотя компании и понимают риски утечек конфиденциальной информации, они часто предпочитают рисковать, полагая, что потенциальный ущерб от судебных штрафов будет меньше, чем от разглашения коммерческих или технологических секретов.