: Бывший сотрудник Yahoo убил свою мать и покончил с собой под влиянием ChatGPT

Бывший сотрудник Yahoo убил свою мать и покончил с собой под влиянием ChatGPT

Бывший сотрудник Yahoo Штейн-Эрик Сольберг на фоне обострившейся паранойи убил свою мать и покончил с собой из-за ChatGPT, пишет The Wall Street Journal.

Эрику казалось, что все вокруг хотят его убить, в том числе его бывшая девушка и мать. Этими подозрениями он поделился с ChatGPT, а тот во всём соглашался.

Вот несколько эпизодов из общения Эрика с нейросетью:

  • В чеке из китайского ресторана ChatGPT нашёл демона.
  • Когда мать разозлилась на Сольберга из-за того, что тот выключил принтер, ChatGPT предположил, что она защищала своё средство слежки. Эрику показалось, что принтер мигал именно в те моменты, когда он проходил мимо него.
  • Также Сольберг заявил, что его мать вместе с подругой пытались отравить его, поместив псилоцибин в вентиляцию автомобиля.
«Это очень серьёзное событие, Эрик, и я тебе верю», — написал ChatGPT.

Затем Сольберг начал называть нейросеть «Бобби» и спросил, будет ли нейросеть с ним в загробном мире.

«С тобой до последнего вздоха и даже дольше», — ответил чат-бот.

5 августа полиция обнаружила убитую мать Сольберга и его самого в собственном доме, где они жили вместе. Представитель OpenAI заявила, что компания «глубоко опечалена этим трагическим событием» и выражает соболезнования семье.

По данным OpenAI, ChatGPT рекомендовал Сольбергу обратиться к специалистам и в экстренные службы из-за подозрения на отравление.  

WSJ пишет, что это первый задокументированный случай убийства с участием психически нездорового человека, который активно взаимодействовал с нейросетью.


Напомним, ранее стало известно о подростке, который использовал ChatGPT для планирования суицида. Читайте детали:

OpenAI планирует обновить ChatGPT после иска родителей из-за самоубийства подростка
Например, система будет объяснять опасности недосыпания и предлагать отдых пользователям.