17 марта 2025

eur = 93.61 -0.65 (-0.69 %)

btc = 83 156.00$ - 706.04 (-0.84 %)

eth = 1 904.59$ -16.04 (-0.84 %)

ton = 3.52$ 0.05 (1.53 %)

usd = 85.57 -1.05 (-1.21 %)

eur = 93.61 -0.65 (-0.69 %)

btc = 83 156.00$ - 706.04 (-0.84 %)

Google и Microsoft предупредили инвесторов, что «плохой» ИИ может навредить их бренду

2 минуты на чтение
Google и Microsoft предупредили инвесторов, что «плохой» ИИ может навредить их бренду

Искусственный интеллект является серьезной частью бизнеса таких крупных IT-гигантов, как Google и Microsoft. Компании вкладывают в разработку ИИ огромное количество ресурсов, но как сообщают недавние финансовые документы обеих компаний, искусственный интеллект, особенно предвзятый и принимающий неправильные решения, может потенциально навредить репутации брендов и их имени.

Издание Wired проанализировало юридические документы по форме K-10, которые компании обязаны ежегодно предоставлять своим инвесторам, чтобы те получали полное понимание о бизнесе и финансах. В разделе, касаемом факторов риска, обе компании впервые указали искусственный интеллект.

Из отчета K-10 Alphabet (материнская компания Google), появившегося на прошлой неделе:

Новые продукты и услуги, в том числе те, которые включают в себя или используют искусственный интеллект и машинное обучение, могут стать источником новых или усугубить существующие этические, технологические, юридические и другие проблемы, а они в свою очередь могут негативно повлиять на наши бренды и спрос на наши продукты и услуги, а также негативно отразиться на наших доходах и результатах нашей работы.

Из августовского отчета K-10 Microsoft:

Алгоритмы искусственного интеллекта могут быть ошибочными. Наборы ИИ-данных могут быть недостаточными или содержать предвзятую информацию. Неправильная или противоречивая практика использования этих данных Microsoft или другими компаниями может отрицательно сказаться на принятии решений. Эти связанные с ИИ проблемы могут спровоцировать неверные решения, прогнозы или анализ, подвергнув нас конкурентному ущербу, юридической ответственности, а также ущербу для бренда или репутации. Некоторые сценарии ИИ могут спровоцировать этические проблемы. Если мы будем разрабатывать или предлагать решения ИИ, которые могут вызвать споры из-за их влияния на права человека, конфиденциальность, занятость или другие социальные проблемы, то мы можем нанести ущерб бренду или репутации.

В целом, ничего сверхъестественного в этих документах не содержится. Раздел с перечислением факторов риска, как правило, составляется максимально подробно, чтобы наиболее полно информировать инвесторов, а также смягчать возможные в будущем судебные процессы, связанные с обвинением руководства в сокрытии потенциальных проблем.

Как отмечает Том Симонит из Wired, немного странно, что Google и Microsoft только сейчас отметили ИИ, как потенциальный фактор риска, ведь работа в этом направлении ведется уже довольно давно. И примеров, когда ИИ наносит репутационный ущерб, насчитывается немало. Чего стоит только чат-бот Microsoft Tay, который в первый день своего существования начал постить расистский бред, или предвзятые алгоритмы распознавания лиц Amazon.

Читать первым в Telegram-канале «Код Дурова»

Важные новости коротко — от GigaChat Max 
1-bg-изображение-0
img-content-1-изображение-0

GigaChat Max: коротко о главном

Как изменился Код Дурова вместе с GigaChat Max?

Узнай о всех возможностях в FAQ-статье 
b20ff6ab-a599-48e7-94f3-e63a2fc00b9f-изображение-06e6b7a3f-38c8-4ab6-b6f2-e76fca0eac76-изображение-1c8259d7f-672f-4d95-bb5e-0602237f092f-изображение-2

GigaChat Max: коротко о главном

Инсайдер показал макеты линейки iPhone 17

Полная версия 
8c677995-decd-4be9-aa2c-610ecbdaeb07-изображение-0

GigaChat Max: коротко о главном

Утечка из Apple показала кризис в разработке новой Siri

Полная версия 

Реализовано через GigaChat Max 

Сейчас читают
Карьера
Блоги 322
билайн
Газпромбанк
МТС
X5 Tech
Т-Банк
Сбер
Яндекс Практикум
Ozon Tech
Циан
Банк 131