Google заявила, что в странных ответах поискового ИИ виноваты сами пользователи
Компания Google объяснила причины странных ответов своей нейросети Gemini, которая порой предлагала пользователям вредные рекомендации, такие как использование клея для пиццы или поедание камней.
В официальном блоге компании уточняется, что нейросеть AI Overview не генерирует собственные ответы и не «галлюцинирует», а лишь ошибочно интерпретирует информацию в сети. Это происходит из-за недостатка качественных обучающих данных и сложностей с пониманием контекста и иронии.
AI Overview, построенная на основе языковой модели, задействована в системах веб-рейтинга Google и должна была помогать в нахождении релевантных ответов на запросы. Однако иногда нейросеть считала наиболее подходящими решениями абсурдные идеи, такие как склеивание пиццы.
Google также обвинила пользователей в искажении результатов выдачи Gemini, утверждая, что распространённые скриншоты с советами оставлять собак в машинах или курить во время беременности были сфабрикованы. При этом компания признала, что некоторые ответы действительно были абсурдны и бесполезны, так как основывались на данных с пародийных сайтов.
В ответ на возникшие проблемы Google обновила свои алгоритмы, чтобы улучшить фильтрацию информации и ограничить использование потенциально вводящего в заблуждение контента. Также был разработан механизм для распознавания сатиры и иронии и фильтрации «бессмысленных запросов». Теперь компания стремится предотвратить повторение подобных инцидентов и улучшить качество ответов своего поискового ИИ.
Читать первым в Telegram-канале «Код Дурова»