Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Бывший CEO Google недавно опубликовал документ «Суперинтеллект-стратегия», в котором он выступает против государственного проекта по разработке AGI по модели «Манхэттенского проекта»
В последнее время мир все чаще задумывается о будущем искусственного интеллекта. Бывший CEO Google, Эрик Шмидт, недавно опубликовал документ "Суперинтеллект-стратегия", в котором он выступает против государственного проекта по разработке искусственного общего интеллекта (AGI) по модели "Манхэттенского проекта". Шмидт убежден, что такой подход может привести к непредсказуемым последствиям, включая опасность международной напряженности и потенциальных кибератак.

Как сообщают западные СМИ, Шмидт считает, что попытки спровоцировать гонку в области AGI могут провоцировать соперничающие страны на ответные меры, что в конечном итоге поставит под угрозу не только технологическое, но и геополитическое лидерство США. Шмидт вместе с другими экспертами предлагает вместо этого ужесточить меры безопасности и расширить сотрудничество на международном уровне с целью снижения рисков, связанных с AGI.
Концепция Mutual Assured AI Malfunction
Одной из ключевых концепций, предложенных Шмидтом, является "Взаимно гарантируемая неисправность ИИ" (MAIM). Эта стратегия призвана не допустить создания опасного искусственного интеллекта, используя методы дестабилизации потенциальных угроз на ранней стадии. Это включает в себя использование кибератак для дезактивации враждебных систем AGI, а также ограничение на доступ к современным чипам и открытым моделям ИИ.
Международное сотрудничество и безопасность
В условиях существующей глобальной неопределенности Шмидт категорически выступает за укрепление международного сотрудничества. Он убежден, что единственный способ достичь безопасного AGI — это согласованные усилия по созданию глобальных стандартов безопасности для ИИ.Концепция MAIM и призыв к международному сотрудничеству — это важный шаг в осознании проблемы и попытке найти сотрудничество вместо конфронтации. Это требует значительных изменений в политике стран и готовности поставить безопасность выше национальных интересов.
Перспективы будущего
Путь к безопасному AGI будет сложным и потребует не только научных достижений, но и ответственного подхода. Если мы хотим избежать катастрофических последствий неконтролируемого роста ИИ, нам следует сосредоточиться на развитии оборонных стратегий и наращивании международного сотрудничества.
Нарастающие опасения о будущем AGI и его потенциальных последствиях заставляют экспертов и политику пересматривать свои подходы к развитию этой технологии. Важно, чтобы при спешке к новым достижениям мы не забыли о безопасности человечества и стали действовать согласованно на международном уровне.
-
Как получить доступ к мировым серверам и снизить пинг
07.03.2025 206 -
MacBook Air M4: Apple снова смогла запустить интригу в сети
04.03.2025 456 -
Крупнейший лесной пожар в Японии: Префектура Иватэ в огне
03.03.2025 553