10 февраля 2026

eur = 92.01 0.97 (1.06 %)

btc = 70 578.00$ - 328.69 (-0.46 %)

eth = 2 119.70$ 14.10 (0.67 %)

ton = 1.38$ -0.03 (-1.90 %)

usd = 77.65 0.60 (0.77 %)

eur = 92.01 0.97 (1.06 %)

btc = 70 578.00$ - 328.69 (-0.46 %)

В России разработали первую мультимодальную модель ИИ

1 минута на чтение
В России разработали первую мультимодальную модель ИИ

Читайте в Telegram

|

Институт AIRI представил открытую мультимодальную языковую модель OmniFusion 1.1, первую в России, способную вести визуальный диалог и отвечать на вопросы, основываясь на изображениях, с поддержкой русского языка.

Открытый доступ к коду и весам модели позволяет использовать её для разработки как общедоступных, так и коммерческих продуктов.

OmniFusion умеет распознавать и описывать изображения, предоставляя возможность объяснить содержимое фотографии, анализировать карты помещений, распознавать текст и решать задачи, представлять формулы в LaTeX и многое другое.

В России разработали первую мультимодальную модель ИИ

Применение OmniFusion охватывает широкий спектр задач, от анализа медицинских изображений до решения логических задач. Модель уже сейчас может указывать на проблемы на медицинских изображениях, хотя для более точной диагностики требуется дополнительное обучение с участием медицинских экспертов.

На международном рынке представлены аналоги OmniFusion, в том числе LLaVA, Gemini, GPT4-Vision и другие, некоторые из которых являются закрытыми и платными. Однако OmniFusion выделяется своей открытостью, предоставляя доступ к исходному коду на GitHub, что делает её доступной для широкой аудитории разработчиков.

Модель основана на комбинации предварительно обученной большой языковой модели и визуальных энкодеров, кодирующих визуальную информацию в числовые векторы. Разработка ведется научной группой FusionBrain Института AIRI с участием специалистов из Sber AI и SberDevices.

Блоги 467
билайн
Т-Банк
OTP Bank
Газпромбанк
МТС
X5 Tech
Сбер
Яндекс Практикум
Ozon Tech
Циан

Пользуясь сайтом, вы соглашаетесь с политикой конфиденциальности
и тем, что мы используем cookie-файлы