GigaChat Max кратко объясняет суть статьи
Суд обязал OpenAI сохранять всю переписку пользователей ChatGPT, включая удалённую, что вызвало обеспокоенность защитников приватности. Решение мотивировано необходимостью предоставления доказательств в делах об авторских правах, однако оно нарушает ожидания конфиденциальности и создаёт риски для личной, медицинской и финансовой информации. Несмотря на обещания оспаривания решения, позиция OpenAI остаётся неясной, что усиливает тревогу общественности. Этот прецедент подчёркивает необходимость прозрачных правил хранения данных и информирования пользователей, чтобы предотвратить превращение ИИ-чатов в инструменты слежки.
Решение суда об обязательном сохранении всех чатов пользователей OpenAI, включая удалённые и временные, стало тревожным сигналом для сторонников цифровой приватности.
Оно было принято в рамках дела о нарушении авторских прав, где суд постановил, что переписка может представлять собой потенциальные доказательства. Однако на практике это означает, что ни один разговор в ChatGPT не будет окончательно удалён — даже если пользователь сам инициировал удаление.
Это вызвало бурную реакцию. Пользователи и организации, такие как EFF, предупреждают: принудительное бессрочное хранение переписки может стать нормой, нарушающей как моральные, так и конституционные нормы защиты частной жизни. Аргументы протестующих были отклонены — суд посчитал, что в контексте авторского права право на приватность не приоритетно.
Особое беспокойство вызывает тот факт, что речь идёт не просто о техническом логе, а о текстах, где обсуждаются личные, медицинские, финансовые и юридические вопросы. Это превращает ИИ-чаты в потенциальную базу данных, уязвимую не только к корпоративному надзору, но и к внешним утечкам или злоупотреблениям.
OpenAI пока официально не комментирует, как будет выполнять предписание, но заявляла ранее о намерении его оспорить. Тем не менее отсутствие прозрачности и информации от самой компании только усиливает недоверие.
На фоне усиливающегося глобального регулирования ИИ и цифровых платформ, этот случай может стать прецедентом — не только юридическим, но и общественным. Правозащитники настаивают на введении чётких стандартов: уведомление пользователей о сборе и хранении данных, возможность выбора, и отчётность по внешним запросам. В противном случае, считают они, диалог с ИИ может перестать быть безопасной формой общения — и превратиться в инструмент слежки.
Читать первым в Telegram-канале «Код Дурова»