OpenAI представила модель для генерации видео Sora 2

OpenAI представила Sora 2 — новую модель для генерации видео, сообщается на официальном сайте.

Компания сравнила Sora 1 с GPT-1, а Sora 2 — с GPT-3.5. Модель научилась делать то, что раньше считалось невозможным: например, видео, где парень делает тройное сальто назад.

Ранее модели могли искажать реальность, чтобы соответствовать текстовому запросу: к примеру, если баскетболист промахивался, мяч мог телепортироваться в кольцо. Однако теперь — в Sora 2 — мяч будет отскакивать от щита. Модель стала лучше подчиняться законам физики.

Sora 2 научилась генерировать и аудиодорожки — фоновые звуки, речь и звуковые эффекты «с высокой степенью реализма», говорят в OpenAI. Речь генерируется даже на русском языке.

Также модель способна внедрять элементы из реального мира в сгенерированное видео. Например, можно «поместить» человека с его репликами в выдуманный мир.

Для iOS стало доступно социальное приложение Sora, где можно сгенерировать видео с собой и выложить его в общий доступ. Оно создано для совместного использования с друзьями, поэтому пока что доступ есть только по приглашениям, причём только в США и Канаде.

Пользователь может контролировать свой виртуальный образ и не разрешать генерацию видео с собой, а также отозвать доступ или удалить любое видео с ним.

Sora 2 будет доступна бесплатно позднее, а пользователи ChatGPT Pro получат доступ к экспериментальной модели Sora 2 Pro. Базовая Sora 2 будет доступна в API, а Sora 1 Turbo останется доступной вместе с библиотекой уже созданных видео и изображений.