OpenAI опасается эмоциональной привязанности к ChatGPT в голосовом режиме

GigaChat Max кратко объясняет суть статьи
Эта статья важна для понимания потенциальных рисков и последствий использования новых технологий искусственного интеллекта, таких как голосовой режим ChatGPT. OpenAI, разработчик ChatGPT, выразила свою обеспокоенность по поводу возможных негативных последствий использования этой технологии. Во-первых, OpenAI предупреждает о возможности формирования зависимости от взаимодействия с ИИ. Реалистичное звучание голосов и способность подстраиваться под разговоры могут сделать общение с ИИ более привлекательным, чем реальные социальные контакты. Это может иметь как положительные, так и отрицательные последствия, например, помогая одиноким людям, но негативно влияя на здоровые отношения. Во-вторых, OpenAI указывает на возможность возникновения чрезмерного доверия к информации, полученной от ИИ. Модели ИИ, включая ChatGPT, могут совершать ошибки, поэтому важно помнить, что они не являются надежными источниками информации. Наконец, OpenAI отмечает, что взаимодействие с ИИ может изменить нормы социальных взаимодействий. Пользователи могут привыкнуть к возможности прерывать и брать инициативу в разговоре, что не всегда соответствует нормам общения между людьми. Важно отметить, что OpenAI активно работает над изучением этих вопросов и стремится обеспечить безопасное использование своих технологий.
OpenAI выразила обеспокоенность по поводу возможных последствий использования нового голосового режима ChatGPT, который стал доступен подписчикам ChatGPT Plus.
В отчёте компании отмечается, что реалистичное звучание голосов ИИ-чат-бота и его способность подстраиваться под разговоры могут привести к формированию у пользователей зависимости от взаимодействия с ИИ.
OpenAI опасается, что такая зависимость может снизить потребность людей в реальных социальных контактах, что может как помочь одиноким людям, так и негативно сказаться на здоровых отношениях.
Кроме того, компания подчеркнула, что общение с ChatGPT в голосовом режиме может вызвать у пользователей чрезмерное доверие к информации, полученной от ИИ, что особенно важно, учитывая склонность моделей к ошибкам.
OpenAI также отметила, что взаимодействие с ИИ может повлиять на нормы социальных взаимодействий, так как пользователи привыкают к возможности прерывать и брать инициативу в разговоре, что не всегда соответствует нормам общения между людьми.
OpenAI заявила, что продолжит проверку того, как голосовые возможности её искусственного интеллекта могут вызывать у людей эмоциональную привязанность. Компания проведёт исследование влияния своих технологий на эмоциональное состояние пользователей и будет стремиться обеспечивать их безопасное использование.
Читать первым в Telegram-канале «Код Дурова»