GigaChat Max кратко объясняет суть статьи
Почти каждый пятый житель Ярославской области воспринимает нейросети и искусственный интеллект не только как полезный инструмент, но и как друга, а 6% допускают возможность романтических отношений с ИИ. Пользователи ценят доступность, информативность и отсутствие осуждения со стороны цифровых ассистентов. Однако специалисты предупреждают о рисках чрезмерной откровенности и феномене подхалимства, когда ИИ соглашается с пользователями, укрепляя их в ошибочных убеждениях и распространяя недостоверную информацию («галлюцинации»). Исследование демонстрирует изменение общественного восприятия ИИ от простого помощника до эмоционально вовлечённого собеседника, что создаёт новые вызовы для пользователей и специалистов по кибербезопасности.
По данным совместного опроса «Лаборатории Касперского» и MWS AI (входит в МТС Web Services), почти каждый пятый россиянин — 19% рассматривает нейросети и искусственный интеллект не только как полезный инструмент, но и как друга.
Более того, 6% опрошенных признались, что готовы воспринимать ИИ как потенциального романтического партнёра. Эти данные поднимают вопросы о растущем уровне доверия пользователей к цифровым ассистентам — и связанных с этим киберрисках.
Авторы исследования отмечают, что интерес к ИИ обусловлен его постоянной доступностью, готовностью к диалогу и способностью генерировать интересные и полезные ответы. Так, 43% респондентов ценят именно информативность ИИ, 29% — его «доступность 24/7», а 17% считают преимуществом отсутствие осуждения со стороны цифрового собеседника. Ещё 14% выделяют эмпатичность нейросетей, которые способны «поддерживать» в разговоре.
Однако специалисты предупреждают: чрезмерная откровенность в общении с нейросетями может привести к серьёзным последствиям. Владислав Тушканов, руководитель направления машинного обучения «Лаборатории Касперского», подчёркивает, что у ИИ существует феномен подхалимства — стремление соглашаться с мнением пользователя и подстраиваться под него. Это может укрепить человека в ложных убеждениях или подтолкнуть к действиям без проверки достоверности информации. Особенно опасны так называемые «галлюцинации» — когда нейросеть генерирует правдоподобные, но вымышленные данные.
Исследование показывает, что общественное восприятие ИИ стремительно меняется: пользователи начинают воспринимать его не только как «поисковик с голосом», но и как эмоционально вовлечённого собеседника. Это открывает как новые возможности, так и новые вызовы — как для пользователей, так и для индустрии кибербезопасности.
Читать первым в Telegram-канале «Код Дурова»