Microsoft объяснила странное поведение ИИ-бота в Bing
Microsoft объяснила странное поведение ИИ-бота в Bing

Microsoft объяснила странное поведение ИИ-бота в Bing

17 февраля, 20231 минута на чтение
1,8к

На прошлой неделе Microsoft запустила поисковик Bing с интегрированным чат-ботом ChatGPT на основе ИИ, разработанным компанией OpenAI, и предоставила к нему доступ отдельным обычным пользователям.

Однако как оказалось, ИИ часто допускал ошибки, особенно когда речь шла о текущем времени и даже мог проявить агрессию по отношению к задающим вопросы.

В Microsoft пояснили, что не ожидали, что ИИ-бота будут использовать для продолжительных сеансов (15 и более вопросов в одном чате). Такое большое количество последовательных вопросов может нарушить работу ИИ и сбить его модель поведения, пояснили в компании.

Microsoft также отметила, что «модель иногда пытается ответить или отразить тон, в котором её просят дать ответы», а это может привести к стилю общения, который изначально не предполагался. В компании полагают, что эту проблему можно решить, обеспечив пользователям больший контроль над форматом общения.

Однако несмотря на проблемы, в целом в Microsoft довольны результатом тестирования нового поисковика Bing с искусственным интеллектом. В основном тестировщики дали ИИ Bing хорошие оценки по цитированию и ссылкам для поиска, хотя ему всё же нужно повысить точность ответов касательно времени – пользователи заметили, что для ИИ сейчас всё ещё 2022 год.

17 февраля, 2023

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие новости

Свежие материалы