Компания Google представила инновационную систему ИИ под названием Search-Augmented Factuality Evaluator (SAFE), направленную на выявление неточностей в ответах, генерируемых большими языковыми моделями (LLM), такими как ChatGPT.
SAFE использует результаты поиска Google для анализа и проверки достоверности информации, обещая значительно улучшить процесс верификации данных в различных сферах, включая науку, СМИ, образование и бизнес.
Эта технология, усиливающая автоматизированную проверку информации, демонстрирует большой потенциал в снижении издержек и улучшении качества исследований и аналитики. Важным аспектом работы SAFE является оперативное определение достоверности фактов с помощью результатов поиска, что позволяет принимать обоснованные решения на основе проверенных данных.
Ксения Ахрамеева, ведущий инженер-аналитик «Газинформсервиса», подчеркивает значимость данной системы в контексте безопасности IT-инфраструктуры. Она отмечает, что принципы искусственного интеллекта, внедряемые в SAFE, уже показывают эффективность в обнаружении угроз и повышении надежности информационных систем. Таким образом, Google открывает новые горизонты в области верификации информации, укрепляя доверие к данным, получаемым через Интернет.
Читать первым в Telegram-канале «Код Дурова»