Читать первым в Telegram-канале «Код Дурова»
Компания OpenAI объявила о готовности новой версии продвинутой языковой модели GPT-4. В отличие от предыдущей версии, GPT-4 стал мультимодальной моделью с возможностью работать теперь не только с текстом, но и с картинками.
Разработчики пояснили, что в обычных разговорах разница между GPT-3.5 и GPT-4 может быть едва заметна, но как только сложность задачи достигает определённого порога, то различия начинают проявляться во всей красе. GPT-4 более надёжен, креативен, а также способен обрабатывать гораздо более тонкие запросы, чем GPT-3.5.
Однако самым главным нововведением стала возможность GPT-4 использовать изображения в качестве входных данных и комбинировать их с текстом. Теперь нейросеть может понимать, что изображено на фотографиях, а также учитывать рисунки и схемы при решении задачи. Также, например, нейросеть может объяснять данные, представленные в виде диаграмм. На данный момент работа с изображениями находится на стадии закрытого тестирования и пока недоступна общественности.
Новую версию GPT-4 на данный момент могут опробовать через бота ChatGPT платные подписчики Plus за $20 в месяц. OpenAI заявила, что будет корректировать ограничения на использование ботом в зависимости от нагрузки и допускает возможность введения дополнительных платных тарифов на использование новой версии модели. Для желающих получить доступ к API компания выпустила лист ожидания, где можно оставить заявку.
Разработчики отмечают, что несмотря на улучшенные возможности GPT-4, модель всё ещё подвержена «галлюцинациям», то есть может попытаться выдать ложную информацию за правду, подкрепляя её несуществующими фактами. Поскольку эта проблема всё ещё существует, в компании порекомендовали проверять информацию, которую выдаёт ИИ. При этом, по сравнению с предыдущими моделями, GPT-4 «галлюцинирует» значительно реже и на 40% превосходит GPT-3.5 в оценке точности.