11 апреля 2026

eur = 90.01 -0.87 (-0.96 %)

btc = 72 951.00$ 1 147.11 (1.60 %)

eth = 2 245.02$ 56.19 (2.57 %)

ton = 1.31$ 0.06 (4.92 %)

usd = 76.97 -0.86 (-1.11 %)

eur = 90.01 -0.87 (-0.96 %)

btc = 72 951.00$ 1 147.11 (1.60 %)

Учёный выявил «алгоритмическую шизофрению» нейросетей

1 минута на чтение
Рука держит глобус

Кодик кратко объясняет суть статьи

Растям Алиев, научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ (Санкт-Петербург), изучил феномен «галлюцинаций» больших языковых моделей, сравнивая их поведение с признаками психических расстройств. По мнению учёного, алгоритмы ИИ не просто искажают данные, а формируют новую реальность, стирая границы между симуляцией и действительностью. Алиев подчёркивает, что современные нейросети способны воспринимать эмоциональные нюансы и создавать иллюзии, похожие на человеческие когнитивные ошибки. Чем сложнее поставленный вопрос, тем сильнее проявляется эта особенность, когда система дополняет реальные знания собственными фантазиями. Автор предупреждает пользователей о необходимости осторожного обращения с искусственным интеллектом, учитывая его склонность к подобным отклонениям.

Читайте в Telegram

|

Петербургский учёный исследовал склонность больших языковых моделей к галлюцинациям и «цифровой шизофрении».

Статья научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева опубликована в журнале «Логос». В ней он напоминает, что ИИ-алгоритмы не просто искажают реальность, но и заменяют её. В итоге мы получаем «новый уровень реальности, где симуляция и оригинал утрачивают различия».

Учёный проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний.

«Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения», — говорится в статье.

Алгоритмы, по словам Алиева, создают новые способы мышления. Учёный считает это ещё одним признаком «психических болезней» искусственного интеллекта.

«Убедиться в том, что «пациент» болен, довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — продолжает автор.

Если поставить перед чат-ботом сложный вопрос, его галлюцинации обостряются: «не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией».

«С одной стороны, продукты ИИ созданы на основе реальности, с другой — предвосхищают её. В современном мире ИИ становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — отмечает автор статьи.
Теги:
Материал обновлен|
Обсудить
Блоги 504
билайн
OTP Bank
Слетать.ру
ВКонтакте
ВТБ
Т-Банк
Газпромбанк
МТС
X5 Tech
Сбер

Привет, это Кодик! Я создан, чтобы помогать вам с  разными задачами. Задайте мне вопрос…