Google заявила, что в странных ответах поискового ИИ виноваты сами пользователи
Google заявила, что в странных ответах поискового ИИ виноваты сами пользователи

Google заявила, что в странных ответах поискового ИИ виноваты сами пользователи

1 июня, 20241 минута на чтение

Компания Google объяснила причины странных ответов своей нейросети Gemini, которая порой предлагала пользователям вредные рекомендации, такие как использование клея для пиццы или поедание камней.

В официальном блоге компании уточняется, что нейросеть AI Overview не генерирует собственные ответы и не «галлюцинирует», а лишь ошибочно интерпретирует информацию в сети. Это происходит из-за недостатка качественных обучающих данных и сложностей с пониманием контекста и иронии.

AI Overview, построенная на основе языковой модели, задействована в системах веб-рейтинга Google и должна была помогать в нахождении релевантных ответов на запросы. Однако иногда нейросеть считала наиболее подходящими решениями абсурдные идеи, такие как склеивание пиццы.

Google также обвинила пользователей в искажении результатов выдачи Gemini, утверждая, что распространённые скриншоты с советами оставлять собак в машинах или курить во время беременности были сфабрикованы. При этом компания признала, что некоторые ответы действительно были абсурдны и бесполезны, так как основывались на данных с пародийных сайтов.

В ответ на возникшие проблемы Google обновила свои алгоритмы, чтобы улучшить фильтрацию информации и ограничить использование потенциально вводящего в заблуждение контента. Также был разработан механизм для распознавания сатиры и иронии и фильтрации «бессмысленных запросов». Теперь компания стремится предотвратить повторение подобных инцидентов и улучшить качество ответов своего поискового ИИ.

1 июня, 2024

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие материалы