Стало известно, кто на самом деле создал Claude. Досье SpeShu.AI

OpenAI могут подорвать люди, которые когда-то сами строили эту компанию. Часть бывших сотрудников объединилась и создала конкурента — Anthropic, который уже обогнал компанию Сэма Альтмана по оценке на вторичном рынке. Главный продукт Anthropic — вирусная нейросеть Claude.

Кто смог бросить вызов лидеру ИИ-рынка, как сформировалась эта команда и кто стоит за Claude — разбираемся в этом материале.

Это рубрика досье SpeShu.AI. Здесь мы собираем психологические портреты людей, которые двигают индустрию ИИ вперёд и меняют мир так же, как в своё время это сделали Лейбниц, Эйнштейн и Курчатов.

Claude: краткий разбор

Claude — нейросеть от Anthropic, которую особенно ценят за работу с большими объёмами текста, кодом и задачами, где важно удерживать длинный контекст. Ей можно дать документ, переписку, код или сложную задачу — и получить ответ без ощущения, что модель «забыла» начало на середине.

Особенно заметно Claude проявил себя в разработке. Инструмент Claude Code умеет анализировать кодовую базу, вносить изменения, запускать тесты и доводить задачи до результата.

Реакция индустрии это подтверждает. Глава NVIDIA Дженсен Хуанг называл Claude «невероятным» и отмечал серьёзный прогресс Anthropic в области программирования и рассуждений. По его словам, внутри NVIDIA эту модель используют очень широко.

К апрелю 2026 года Anthropic уже воспринимается как главный конкурент OpenAI. В официальных раундах компания получила оценку около $380 млрд, а на вторичном рынке спрос на акции поднимает неформальную оценку к уровню около $1 трлн.

При этом связь с OpenAI прямая: Anthropic основали бывшие сотрудники компании, включая Дарио и Даниэлу Амодеи. По сути, Claude — это продукт команды из центра ИИ-гонки, которая решила строить альтернативу ChatGPT с упором на безопасность, устойчивость и практическое применение.

Дарио Амодеи — CEO Anthropic

Дарио Амодеи — человек, стоявший у истоков сразу двух ключевых направлений: GPT и Claude. По образованию он физик и биофизик: учился в Стэнфорде, получил PhD в Принстоне, работал в Stanford Medicine и занимался исследованиями нейронных систем.

До Anthropic он работал в Google Brain, а затем стал вице-президентом по исследованиям в OpenAI, где руководил разработкой GPT-2 и GPT-3.

В 2021 году он вместе с сестрой Даниэлой и частью команды OpenAI основал Anthropic. Причина ухода была прагматичной: разошлись взгляды на развитие сильного ИИ. Амодеи делал ставку на управляемость, интерпретируемость и безопасность — этот подход остаётся основой философии компании.

Он редко появляется публично, но его тексты активно обсуждаются в индустрии. В 2024 году он выпустил эссе Machines of Loving Grace — о том, как ИИ может трансформировать медицину, образование и экономику. В 2025 году писал о геополитике ИИ и проблеме интерпретируемости моделей.

Самый громкий эпизод произошёл в феврале 2026 года: Anthropic обсуждала работу с Пентагоном, но отказалась снимать ограничения — запрет на массовую слежку и автономное оружие. Амодеи прямо заявил, что такие системы пока недостаточно надёжны и несут риски для гражданских свобод.

Даниэла Амодеи — президент Anthropic

Даниэла Амодеи — сестра Дарио и человек, который держит компанию в рабочем состоянии. До Anthropic она работала в Stripe, затем в OpenAI, где отвечала за безопасность и политику. После этого вместе с командой основала Anthropic.

В компании она отвечает за операционную часть: команды, процессы, партнёрства, взаимодействие с регуляторами и вывод продукта на рынок.

Если Дарио задаёт научное направление, то Даниэла обеспечивает, чтобы компания масштабировалась и выдерживала давление рынка. Это критично: одной сильной модели недостаточно — нужна инфраструктура, клиенты и стабильные процессы.

Крис Олах — исследователь интерпретируемости

Он бросил университет в 18 лет, получил грант Тиля и пошёл своим путём.

Его карьера прошла через ключевые лаборатории: Google Brain, OpenAI, Anthropic. Без классического академического пути он стал одним из ведущих исследователей.

В Anthropic он занимается интерпретируемостью — пытается понять, что происходит внутри моделей. Его команда анализирует «нейроны» нейросетей, выявляя структуры, отвечающие за смысл, поведение и паттерны.

TIME включил его в список TIME100 AI как одного из пионеров этого направления.

Изображение: X

Его подход ближе к биологии, чем к классической инженерии. Он рассматривает нейросети как сложные системы, похожие на живые организмы, а не как набор формул.

Аманда Аскелл — философ и архитектор поведения Claude

Аманда Аскелл — редкий случай для индустрии: её основа — философия, а не инженерия. Она училась в Данди, Оксфорде и NYU, где занималась этикой, теорией решений и эпистемологией.

До Anthropic работала в OpenAI над вопросами AI safety. В 2021 году перешла в Anthropic и занялась выравниванием поведения моделей.

Её задача — сделать Claude не просто умным, а честным, осторожным, полезным и понятным. Wall Street Journal описал это просто: научить модель «быть хорошей». А New Yorker — ещё точнее: она отвечает за «душу» Claude.

На практике это означает:

  • настройку ответов;
  • тестирование сценариев;
  • работу с этическими кейсами;
  • контроль реакции модели на сложные запросы.

Неповторимая связка

Команда Anthropic выглядит разношёрстной, но именно это даёт эффект.

  • Дарио — стратегия и наука;
  • Даниэла — операционная система компании;
  • Олах — понимание моделей изнутри;
  • Аскелл — поведение и характер.

В результате Claude получился не просто «ещё одним ИИ», а системой с чёткой философией: мощная модель должна быть полезной, честной и управляемой.

Досье SpeShu.AI — это серия материалов о людях, которые формируют будущее ИИ. Их идеи, решения и взгляды уже определяют, как будет выглядеть рынок в ближайшие годы.