ИИ в России обучился самостоятельно адаптироваться к новым действиям. Это первая в мире такая модель
Учёные из лаборатории исследований искусственного интеллекта T-Bank AI Research и Института AIRI разработали уникальную модель, сообщили «Коду Дурова» в пресс-службе компании.
Утверждается, что это первая в мире модель в области контекстного обучения, которая умеет самостоятельно обучаться новым действиям всего на нескольких примерах. Что важно, ранее ИИ-системы умели выполнять только фиксированный набор действий, а при появлении новых задач должны были переобучаться с нуля.
- Это требовало дополнительных финансовых и вычислительных ресурсов, чтобы дообучить ИИ для практического применения.
- Теперь открытие российских учёных позволяет создавать ИИ-системы, которые будут адаптироваться к изменениям внешней среды и новым задачам без участия человека.
- Это может быть полезно в различных областях: от космических аппаратов до домашних роботов-помощников.
Модель Headless-AD может работать с различными типами действий независимо от их количества и комбинации: теми, на которых ее обучали, и теми, с которыми она сталкивается впервые.
Один из потенциальных сценариев применения такой модели — создание персональных роботов-помощников по дому. Они могут быть обучены на стандартном наборе действий и выполнять одни и те же задачи в каждом доме. Модель Headless-AD, в свою очередь, предполагает возможность адаптации к индивидуальному контексту и особенностям быта, что позволяет домашним роботам без переобучения осваивать новые действия, необходимые для быта каждого отдельного домохозяйства. Другой пример применения модели — адаптация беспилотного автомобиля, который будет способен работать после замены детали, даже если она имеет другой принцип работы. Например, при установке двигателя с более сильной тягой или новой шины.
В T-Bank AI Research заявили, что результаты исследования признаны мировым научным сообществом и представлены на одной из самых престижных и крупных конференций в области ИИ — международной конференции по машинному обучению International Conference on Machine Learning) в Вене, Австрия.
Подробное описание модели и результаты экспериментов доступны в статье In-Context Reinforcement Learning for Variable Action Spaces. Исходный код и дополнительные материалы можно найти на GitHub.
Читать первым в Telegram-канале «Код Дурова»