Искусственный интеллект является серьезной частью бизнеса таких крупных IT-гигантов, как Google и Microsoft. Компании вкладывают в разработку ИИ огромное количество ресурсов, но как сообщают недавние финансовые документы обеих компаний, искусственный интеллект, особенно предвзятый и принимающий неправильные решения, может потенциально навредить репутации брендов и их имени.

Издание Wired проанализировало юридические документы по форме K-10, которые компании обязаны ежегодно предоставлять своим инвесторам, чтобы те получали полное понимание о бизнесе и финансах. В разделе, касаемом факторов риска, обе компании впервые указали искусственный интеллект.

Из отчета K-10 Alphabet (материнская компания Google), появившегося на прошлой неделе:

Новые продукты и услуги, в том числе те, которые включают в себя или используют искусственный интеллект и машинное обучение, могут стать источником новых или усугубить существующие этические, технологические, юридические и другие проблемы, а они в свою очередь могут негативно повлиять на наши бренды и спрос на наши продукты и услуги, а также негативно отразиться на наших доходах и результатах нашей работы.

Из августовского отчета K-10 Microsoft:

Алгоритмы искусственного интеллекта могут быть ошибочными. Наборы ИИ-данных могут быть недостаточными или содержать предвзятую информацию. Неправильная или противоречивая практика использования этих данных Microsoft или другими компаниями может отрицательно сказаться на принятии решений. Эти связанные с ИИ проблемы могут спровоцировать неверные решения, прогнозы или анализ, подвергнув нас конкурентному ущербу, юридической ответственности, а также ущербу для бренда или репутации. Некоторые сценарии ИИ могут спровоцировать этические проблемы. Если мы будем разрабатывать или предлагать решения ИИ, которые могут вызвать споры из-за их влияния на права человека, конфиденциальность, занятость или другие социальные проблемы, то мы можем нанести ущерб бренду или репутации.

В целом, ничего сверхъестественного в этих документах не содержится. Раздел с перечислением факторов риска, как правило, составляется максимально подробно, чтобы наиболее полно информировать инвесторов, а также смягчать возможные в будущем судебные процессы, связанные с обвинением руководства в сокрытии потенциальных проблем.

Как отмечает Том Симонит из Wired, немного странно, что Google и Microsoft только сейчас отметили ИИ, как потенциальный фактор риска, ведь работа в этом направлении ведется уже довольно давно. И примеров, когда ИИ наносит репутационный ущерб, насчитывается немало. Чего стоит только чат-бот Microsoft Tay, который в первый день своего существования начал постить расистский бред, или предвзятые алгоритмы распознавания лиц Amazon.

Подписывайтесь на «Код Дурова» в Telegram и во «ВКонтакте», чтобы всегда быть в курсе интересных новостей!