5 октября 2024

eur = 104.87 0.42 (0.40 %)

btc = 61 994.00$ 1 190.47 (1.96 %)

eth = 2 413.81$ 62.64 (2.66 %)

ton = 5.39$ 0.07 (1.25 %)

usd = 95.03 0.52 (0.55 %)

eur = 104.87 0.42 (0.40 %)

btc = 61 994.00$ 1 190.47 (1.96 %)

Форум

Google и Microsoft предупредили инвесторов, что «плохой» ИИ может навредить их бренду

2 минуты на чтение
Google и Microsoft предупредили инвесторов, что «плохой» ИИ может навредить их бренду

Читать первым в Telegram-канале «Код Дурова»

Искусственный интеллект является серьезной частью бизнеса таких крупных IT-гигантов, как Google и Microsoft. Компании вкладывают в разработку ИИ огромное количество ресурсов, но как сообщают недавние финансовые документы обеих компаний, искусственный интеллект, особенно предвзятый и принимающий неправильные решения, может потенциально навредить репутации брендов и их имени.

Издание Wired проанализировало юридические документы по форме K-10, которые компании обязаны ежегодно предоставлять своим инвесторам, чтобы те получали полное понимание о бизнесе и финансах. В разделе, касаемом факторов риска, обе компании впервые указали искусственный интеллект.

Из отчета K-10 Alphabet (материнская компания Google), появившегося на прошлой неделе:

Новые продукты и услуги, в том числе те, которые включают в себя или используют искусственный интеллект и машинное обучение, могут стать источником новых или усугубить существующие этические, технологические, юридические и другие проблемы, а они в свою очередь могут негативно повлиять на наши бренды и спрос на наши продукты и услуги, а также негативно отразиться на наших доходах и результатах нашей работы.

Из августовского отчета K-10 Microsoft:

Алгоритмы искусственного интеллекта могут быть ошибочными. Наборы ИИ-данных могут быть недостаточными или содержать предвзятую информацию. Неправильная или противоречивая практика использования этих данных Microsoft или другими компаниями может отрицательно сказаться на принятии решений. Эти связанные с ИИ проблемы могут спровоцировать неверные решения, прогнозы или анализ, подвергнув нас конкурентному ущербу, юридической ответственности, а также ущербу для бренда или репутации. Некоторые сценарии ИИ могут спровоцировать этические проблемы. Если мы будем разрабатывать или предлагать решения ИИ, которые могут вызвать споры из-за их влияния на права человека, конфиденциальность, занятость или другие социальные проблемы, то мы можем нанести ущерб бренду или репутации.

В целом, ничего сверхъестественного в этих документах не содержится. Раздел с перечислением факторов риска, как правило, составляется максимально подробно, чтобы наиболее полно информировать инвесторов, а также смягчать возможные в будущем судебные процессы, связанные с обвинением руководства в сокрытии потенциальных проблем.

Как отмечает Том Симонит из Wired, немного странно, что Google и Microsoft только сейчас отметили ИИ, как потенциальный фактор риска, ведь работа в этом направлении ведется уже довольно давно. И примеров, когда ИИ наносит репутационный ущерб, насчитывается немало. Чего стоит только чат-бот Microsoft Tay, который в первый день своего существования начал постить расистский бред, или предвзятые алгоритмы распознавания лиц Amazon.

Сейчас читают

Картина дня

4 октября, 2024
4 октября, 20248 минут на чтение
Фото Артём Багдасаров
Артём Багдасаров
8 минут на чтение
[ Новости ]
[ Статьи ]
Личный опыт работы
Блоги 273