Илон Маск назвал три качества, без которых искусственный интеллект может стать угрозой

Илон Маск в подкасте с индийским предпринимателем Нихилом Каматом заявил, что безопасное развитие искусственного интеллекта возможно только при соблюдении трёх ключевых принципов — истины, красоты и любопытства.
По его словам, игнорирование этих основ увеличивает риск того, что ИИ будет создавать опасные и ошибочные выводы, теряя связь с объективной реальностью.
- Маск отметил, что ИИ, считывая информацию из интернета, неизбежно сталкивается с ложью, что может нарушить его логические механизмы и приводить к «абсурдным» или разрушительным результатам.
- В качестве примера Маск указал на проблему галлюцинаций — ситуация, когда ИИ-системы выдают неправдивые ответы. Он напомнил, что в начале 2025 года функция Apple Intelligence на iPhone распространила ложное уведомление о победе британского дартсмена Люка Литтлера на чемпионате PDC ещё до реального финала.
- Маск также заявил, что ИИ должен не только стремиться к фактам, но и демонстрировать эстетическое восприятие и интерес к природе реальности и будущему человечества. В противном случае технология может превратиться в инструмент разрушения, а не прогресса.
- Его позиция созвучна предупреждениям одного из пионеров искусственного интеллекта Джеффри Хинтона, который оценивал вероятность гибели человечества от ИИ в 10–20 %. Среди краткосрочных рисков Хинтон выделял галлюцинации и угрозу массовой автоматизации низкоквалифицированных рабочих мест. По его словам, надежда остаётся на то, что при достаточном объёме исследований и ресурсов разработчики смогут создать системы ИИ, которые «никогда не захотят причинить человеку вред».
Читать первым в Telegram-канале «Код Дурова»
























































