Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»

Бывший CEO Google недавно опубликовал документ «Суперинтеллект-стратегия», в котором он выступает против государственного проекта по разработке AGI по модели «Манхэттенского проекта»

07.03.2025    
 12731
Автор: Jasper Finch

В последнее время мир все чаще задумывается о будущем искусственного интеллекта. Бывший CEO Google, Эрик Шмидт, недавно опубликовал документ "Суперинтеллект-стратегия", в котором он выступает против государственного проекта по разработке искусственного общего интеллекта (AGI) по модели "Манхэттенского проекта". Шмидт убежден, что такой подход может привести к непредсказуемым последствиям, включая опасность международной напряженности и потенциальных кибератак.

Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»

Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»

Как сообщают западные СМИ, Шмидт считает, что попытки спровоцировать гонку в области AGI могут провоцировать соперничающие страны на ответные меры, что в конечном итоге поставит под угрозу не только технологическое, но и геополитическое лидерство США. Шмидт вместе с другими экспертами предлагает вместо этого ужесточить меры безопасности и расширить сотрудничество на международном уровне с целью снижения рисков, связанных с AGI.

Концепция Mutual Assured AI Malfunction

Одной из ключевых концепций, предложенных Шмидтом, является "Взаимно гарантируемая неисправность ИИ" (MAIM). Эта стратегия призвана не допустить создания опасного искусственного интеллекта, используя методы дестабилизации потенциальных угроз на ранней стадии. Это включает в себя использование кибератак для дезактивации враждебных систем AGI, а также ограничение на доступ к современным чипам и открытым моделям ИИ.

Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»

Международное сотрудничество и безопасность

В условиях существующей глобальной неопределенности Шмидт категорически выступает за укрепление международного сотрудничества. Он убежден, что единственный способ достичь безопасного AGI — это согласованные усилия по созданию глобальных стандартов безопасности для ИИ. 

Это предполагает внесение изменений в правила экспорта технологий, контроль над распространением мощных ИИ и открытие обсуждений о будущем этой технологии.

Концепция MAIM и призыв к международному сотрудничеству — это важный шаг в осознании проблемы и попытке найти сотрудничество вместо конфронтации. Это требует значительных изменений в политике стран и готовности поставить безопасность выше национальных интересов.

Перспективы будущего

Путь к безопасному AGI будет сложным и потребует не только научных достижений, но и ответственного подхода. Если мы хотим избежать катастрофических последствий неконтролируемого роста ИИ, нам следует сосредоточиться на развитии оборонных стратегий и наращивании международного сотрудничества. 

Нарастающие опасения о будущем AGI и его потенциальных последствиях заставляют экспертов и политику пересматривать свои подходы к развитию этой технологии. Важно, чтобы при спешке к новым достижениям мы не забыли о безопасности человечества и стали действовать согласованно на международном уровне.



ЕЩЕ В РАЗДЕЛЕ Экономика

СВЕЖИЕ НОВОСТИ