Компания Anthropic ограничила сотрудникам OpenAI доступ к своей ИИ-платформе Claude Code после того, как узнала, что её используют для программирования.
Об этом сообщает WIRED со ссылкой на представителя Anthropic Кристофера Налти. По его словам, использование Claude Code для разработки конкурирующего продукта — прямое нарушение коммерческих условий. Эти правила запрещают применять сервис для создания аналогичных решений, включая обучение ИИ-моделей и реверс-инжиниринг.
«Claude Code стал выбором номер один среди программистов, так что неудивительно, что даже инженеры OpenAI пользовались им перед запуском GPT-5», — добавил Налти.
В OpenAI с ограничением не согласны. Представитель компании Ханна Вонг заявила, что тестирование чужих моделей — обычная практика в индустрии, необходимая для оценки прогресса и повышения безопасности. При этом она выразила сожаление, что Anthropic пошла на такой шаг, особенно учитывая, что OpenAI не ограничивает доступ к собственному API для конкурентов.
Anthropic в ответ уточнила, что не будет полностью блокировать OpenAI, сохранив доступ к API, но только для целей бенчмаркинга и сравнения моделей — не для программирования или внутреннего использования.
Читать первым в Telegram-канале «Код Дурова»