Учёный: ИИ склонен к галлюцинациям и шизофрении

Петербургский учёный исследовал склонность больших языковых моделей к галлюцинациям и «цифровой шизофрении».
Статья научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева опубликована в журнале «Логос». В ней он напоминает, что ИИ-алгоритмы не просто искажают реальность, но и заменяют её. В итоге мы получаем «новый уровень реальности, где симуляция и оригинал утрачивают различия».
Учёный проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний.
«Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения», — говорится в статье.
Алгоритмы, по словам Алиева, создают новые способы мышления. Учёный считает это ещё одним признаком «психических болезней» искусственного интеллекта.
«Убедиться в том, что «пациент» болен, довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — продолжает автор.
Если поставить перед чат-ботом сложный вопрос, его галлюцинации обостряются: «не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией».
«С одной стороны, продукты ИИ созданы на основе реальности, с другой — предвосхищают её. В современном мире ИИ становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — отмечает автор статьи.