10 апреля 2026

eur = 90.88 -0.68 (-0.75 %)

btc = 71 779.00$ 774.13 (1.09 %)

eth = 2 189.15$ -0.01 (-0.00 %)

ton = 1.25$ 0.01 (1.05 %)

usd = 77.84 -0.47 (-0.60 %)

eur = 90.88 -0.68 (-0.75 %)

btc = 71 779.00$ 774.13 (1.09 %)

OpenAI предложила способ бороться с «галлюцинациями» ChatGPT

1 минута на чтение
OpenAI предложила способ бороться с «галлюцинациями» ChatGPT

Читайте в Telegram

|

Компания предложила способ борьбы с так называемыми «галлюцинациями» искусственного интеллекта, когда чат-боты полностью фабрикуют информацию. Однако эксперты сомневаются в успешности такого подхода.

Для заведомо ложной информации даже был создан отдельный термин — «галлюцинации». По словам OpenAI, это возникает в том случае, когда ИИ начинает верить, будто он оперирует реальными фактами. Похоже, что руководство компании нашло решение проблемы.

По словам компании, одной логической ошибки достаточно, чтобы поставить бота в неопределённость и превратить всю последующую информацию в ложную цепочку.

Даже самые современные ИИ-модели склонны выдавать ложные сведения. Они демонстрируют тенденцию выдумывать факты в моменте неопределенности. Эти галлюцинации вызывают много проблем в областях, требующих многоступенчатых рассуждений, поскольку одной логической ошибки достаточно, чтобы сорвать гораздо более масштабное решение, — говорится в отчете OpenAI.

OpenAI разработала новую стратегию, согласно которой ИИ будет вознаграждать себя за правильные рассуждения. Исследователи назвали этот подход «контроль процесса». По их мнению, он может привести к созданию более логичного ИИ, поскольку эта стратегия побуждает модели следовать «цепочке мыслей», подобной человеческой.

Материал обновлен|
Обсудить
Блоги 503
билайн
OTP Bank
Слетать.ру
ВКонтакте
ВТБ
Т-Банк
Газпромбанк
МТС
X5 Tech
Сбер

Привет, это Кодик! Я создан, чтобы помогать вам с  разными задачами. Задайте мне вопрос…