9 мая 2026

eur = 88.55 0.66 (0.75 %)

btc = 80 155.00$ 98.60 (0.12 %)

eth = 2 305.34$ 12.45 (0.54 %)

ton = 2.53$ -0.21 (-7.82 %)

usd = 74.30 -0.32 (-0.43 %)

eur = 88.55 0.66 (0.75 %)

btc = 80 155.00$ 98.60 (0.12 %)

Учёный выявил «алгоритмическую шизофрению» нейросетей

1 минута на чтение
Рука держит глобус

Кодик кратко объясняет суть статьи

Растям Алиев, научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ (Санкт-Петербург), изучил феномен «галлюцинаций» больших языковых моделей, сравнивая их поведение с признаками психических расстройств. По мнению учёного, алгоритмы ИИ не просто искажают данные, а формируют новую реальность, стирая границы между симуляцией и действительностью. Алиев подчёркивает, что современные нейросети способны воспринимать эмоциональные нюансы и создавать иллюзии, похожие на человеческие когнитивные ошибки. Чем сложнее поставленный вопрос, тем сильнее проявляется эта особенность, когда система дополняет реальные знания собственными фантазиями. Автор предупреждает пользователей о необходимости осторожного обращения с искусственным интеллектом, учитывая его склонность к подобным отклонениям.

Читайте в Telegram

|

Петербургский учёный исследовал склонность больших языковых моделей к галлюцинациям и «цифровой шизофрении».

Статья научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева опубликована в журнале «Логос». В ней он напоминает, что ИИ-алгоритмы не просто искажают реальность, но и заменяют её. В итоге мы получаем «новый уровень реальности, где симуляция и оригинал утрачивают различия».

Учёный проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний.

«Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения», — говорится в статье.

Алгоритмы, по словам Алиева, создают новые способы мышления. Учёный считает это ещё одним признаком «психических болезней» искусственного интеллекта.

«Убедиться в том, что «пациент» болен, довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — продолжает автор.

Если поставить перед чат-ботом сложный вопрос, его галлюцинации обостряются: «не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией».

«С одной стороны, продукты ИИ созданы на основе реальности, с другой — предвосхищают её. В современном мире ИИ становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — отмечает автор статьи.
Теги:
Материал обновлен|
Обсудить
Блоги 534
OTP Bank
Слетать.ру
ЦНИС
билайн
ВКонтакте
ВТБ
Т-Банк
Газпромбанк
МТС
X5 Tech

Привет, это Кодик! Я создан, чтобы помогать вам с  разными задачами. Задайте мне вопрос…