Илон Маск назвал три качества, без которых искусственный интеллект может стать угрозой

Кодик кратко объясняет суть статьи
Илон Маск подчеркнул необходимость соблюдения трех принципов — истины, красоты и любопытства — для безопасного развития искусственного интеллекта. Игнорируя эти основы, ИИ рискует терять связь с реальностью, создавая ошибочные и потенциально опасные выводы. Маск привел пример распространенной проблемы галлюцинаций, когда ИИ выдает недостоверную информацию, как случай с ложным уведомлением от Apple Intelligence о победителе турнира по дартсу. Он добавил, что ИИ должен не только ориентироваться на факты, но и проявлять эстетическое восприятие и интерес к человечеству, иначе технология станет инструментом разрушения. Позиция Маска близка мнению Джеффри Хинтона, предупреждающего о риске гибели человечества от ИИ и подчеркивающего важность разработки безопасных систем.
Читайте в Telegram
|
Илон Маск в подкасте с индийским предпринимателем Нихилом Каматом заявил, что безопасное развитие искусственного интеллекта возможно только при соблюдении трёх ключевых принципов — истины, красоты и любопытства.
По его словам, игнорирование этих основ увеличивает риск того, что ИИ будет создавать опасные и ошибочные выводы, теряя связь с объективной реальностью.
- Маск отметил, что ИИ, считывая информацию из интернета, неизбежно сталкивается с ложью, что может нарушить его логические механизмы и приводить к «абсурдным» или разрушительным результатам.
- В качестве примера Маск указал на проблему галлюцинаций — ситуация, когда ИИ-системы выдают неправдивые ответы. Он напомнил, что в начале 2025 года функция Apple Intelligence на iPhone распространила ложное уведомление о победе британского дартсмена Люка Литтлера на чемпионате PDC ещё до реального финала.
- Маск также заявил, что ИИ должен не только стремиться к фактам, но и демонстрировать эстетическое восприятие и интерес к природе реальности и будущему человечества. В противном случае технология может превратиться в инструмент разрушения, а не прогресса.
- Его позиция созвучна предупреждениям одного из пионеров искусственного интеллекта Джеффри Хинтона, который оценивал вероятность гибели человечества от ИИ в 10–20 %. Среди краткосрочных рисков Хинтон выделял галлюцинации и угрозу массовой автоматизации низкоквалифицированных рабочих мест. По его словам, надежда остаётся на то, что при достаточном объёме исследований и ресурсов разработчики смогут создать системы ИИ, которые «никогда не захотят причинить человеку вред».







