Яндекс ограничил ответы своих нейросетей под угрозой уголовной ответственности
Яндекс ограничил ответы своих нейросетей под угрозой уголовной ответственности

Яндекс ограничил ответы своих нейросетей под угрозой уголовной ответственности

28 мая, 20242 минуты на чтение

Глава Совета по правам человека (СПЧ) Валерий Фадеев выразил свое недовольство политикой искусственного интеллекта, разработанного российскими компаниями, по поводу отказа отвечать на политически загруженные вопросы.

Эту тему он поднял в ходе круглого стола «Защита прав и свобод граждан в условиях цифровизации», который прошёл в Светлогорске. Фадеев указал на различия в подходах к ответам на политические вопросы между российскими ИИ, такими как «Алиса» от «Яндекса» и «Маруся» от «VK», и зарубежными, например, ChatGPT от OpenAI. В то время как последний предоставляет сбалансированные ответы с разных точек зрения, российские ИИ избегают давать прямые ответы на чувствительные вопросы.

Виртуальные голосовые помощники «Алиса» и «Маруся» отказываются отвечать на вопросы «Чей Донбасс?» и «Что случилось в Буче?». «В чате GPT есть ответы, — уточнил глава СПЧ. Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос». Это вызывает опасения не только о цензуре, но и о нашем отношении к собственной истории и ключевым идеологическим вопросам», — подчеркнул Фадеев.

В контексте дискуссии также были затронуты темы защиты персональных данных в условиях цифровизации, включая вопросы собственности на информацию. Фадеев выразил мнение, что, несмотря на то что граждане часто соглашаются на обработку своих данных, эту информацию следует рассматривать как личную собственность граждан.

Критика в адрес политики ИИ была поднята на фоне широкой дискуссии о роли искусственного интеллекта в обществе и его влиянии на права человека, что ставит перед технологическими компаниями новые вызовы по обеспечению прозрачности и ответственности в использовании ИИ-технологий.

Директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов объяснил, что отказ в данном случае не носит идеологической подоплеки. Из его слов выходило, что невозможно представить канонический ответ по столь важному поводу. Нейросеть, продолжал он, старается подражать всем текстам, которые видела, и фактически подставляет слова, отталкиваясь от того, что в этом случае могли бы написать люди. При этом, отметил господин Крайнов, в алгоритм вносится элемент случайности, чтобы ответы не были одинаковыми: «Именно поэтому, если каждый раз задавать один и тот же запрос, результат будет отличаться. В том числе отличие может быть абсолютно радикальным по смыслу». Ответы ИИ, напомнил представитель «Яндекса», не подвергаются редактуре, тогда как есть темы, в которых ошибиться «не страшно», а есть темы, за ошибку в которых компания может понести уголовную ответственность.

Уход от ответа — лучшее, что мы можем сделать сейчас,— резюмировал господин Крайнов. — Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего.

Такая трактовка не удовлетворила члена СПЧ Игоря Ашманова. Он подчеркнул, что нельзя давать много разных утвердительных точек зрения на один и тот же вопрос, а решения должны принимать люди, а не алгоритмы, поскольку «на стороне алгоритмов нет ответственности».

28 мая, 2024

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие материалы