7 октября 2024

eur = 104.74 -0.12 (-0.12 %)

btc = 63 115.00$ 484.22 (0.77 %)

eth = 2 442.15$ 1.86 (0.08 %)

ton = 5.28$ -0.03 (-0.58 %)

usd = 94.87 -0.16 (-0.16 %)

eur = 104.74 -0.12 (-0.12 %)

btc = 63 115.00$ 484.22 (0.77 %)

Форум

OpenAI предложила способ бороться с «галлюцинациями» ChatGPT

1 минута на чтение
OpenAI предложила способ бороться с «галлюцинациями» ChatGPT

Читать первым в Telegram-канале «Код Дурова»

Компания предложила способ борьбы с так называемыми «галлюцинациями» искусственного интеллекта, когда чат-боты полностью фабрикуют информацию. Однако эксперты сомневаются в успешности такого подхода.

Для заведомо ложной информации даже был создан отдельный термин — «галлюцинации». По словам OpenAI, это возникает в том случае, когда ИИ начинает верить, будто он оперирует реальными фактами. Похоже, что руководство компании нашло решение проблемы.

По словам компании, одной логической ошибки достаточно, чтобы поставить бота в неопределённость и превратить всю последующую информацию в ложную цепочку.

Даже самые современные ИИ-модели склонны выдавать ложные сведения. Они демонстрируют тенденцию выдумывать факты в моменте неопределенности. Эти галлюцинации вызывают много проблем в областях, требующих многоступенчатых рассуждений, поскольку одной логической ошибки достаточно, чтобы сорвать гораздо более масштабное решение, — говорится в отчете OpenAI.

OpenAI разработала новую стратегию, согласно которой ИИ будет вознаграждать себя за правильные рассуждения. Исследователи назвали этот подход «контроль процесса». По их мнению, он может привести к созданию более логичного ИИ, поскольку эта стратегия побуждает модели следовать «цепочке мыслей», подобной человеческой.

Сейчас читают

Картина дня

7 октября, 2024
7 октября, 20246 минут на чтение
Фото Артём Багдасаров
Артём Багдасаров
6 минут на чтение
[ Новости ]
[ Статьи ]
Личный опыт работы
Блоги 273