Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Бывший CEO Google недавно опубликовал документ «Суперинтеллект-стратегия», в котором он выступает против государственного проекта по разработке AGI по модели «Манхэттенского проекта»
В последнее время мир все чаще задумывается о будущем искусственного интеллекта. Бывший CEO Google, Эрик Шмидт, недавно опубликовал документ "Суперинтеллект-стратегия", в котором он выступает против государственного проекта по разработке искусственного общего интеллекта (AGI) по модели "Манхэттенского проекта". Шмидт убежден, что такой подход может привести к непредсказуемым последствиям, включая опасность международной напряженности и потенциальных кибератак.
Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Как сообщают западные СМИ, Шмидт считает, что попытки спровоцировать гонку в области AGI могут провоцировать соперничающие страны на ответные меры, что в конечном итоге поставит под угрозу не только технологическое, но и геополитическое лидерство США. Шмидт вместе с другими экспертами предлагает вместо этого ужесточить меры безопасности и расширить сотрудничество на международном уровне с целью снижения рисков, связанных с AGI.
Концепция Mutual Assured AI Malfunction
Одной из ключевых концепций, предложенных Шмидтом, является "Взаимно гарантируемая неисправность ИИ" (MAIM). Эта стратегия призвана не допустить создания опасного искусственного интеллекта, используя методы дестабилизации потенциальных угроз на ранней стадии. Это включает в себя использование кибератак для дезактивации враждебных систем AGI, а также ограничение на доступ к современным чипам и открытым моделям ИИ.
Международное сотрудничество и безопасность
В условиях существующей глобальной неопределенности Шмидт категорически выступает за укрепление международного сотрудничества. Он убежден, что единственный способ достичь безопасного AGI — это согласованные усилия по созданию глобальных стандартов безопасности для ИИ.Концепция MAIM и призыв к международному сотрудничеству — это важный шаг в осознании проблемы и попытке найти сотрудничество вместо конфронтации. Это требует значительных изменений в политике стран и готовности поставить безопасность выше национальных интересов.
Перспективы будущего
Путь к безопасному AGI будет сложным и потребует не только научных достижений, но и ответственного подхода. Если мы хотим избежать катастрофических последствий неконтролируемого роста ИИ, нам следует сосредоточиться на развитии оборонных стратегий и наращивании международного сотрудничества.
Нарастающие опасения о будущем AGI и его потенциальных последствиях заставляют экспертов и политику пересматривать свои подходы к развитию этой технологии. Важно, чтобы при спешке к новым достижениям мы не забыли о безопасности человечества и стали действовать согласованно на международном уровне.
-
AI управлял истребителем Gripen E в боевых испытаниях Швеции
11.06.2025 261 -
Первый в мире лабораторный лосось на столах ресторанов США
11.06.2025 266 -
Врата ада в Туркменистане медленно, но уверенно закрываются
11.06.2025 295 -
Трамп подписал указ об использовании AI в школах США
11.06.2025 298 -
США и Китай продлевают торговое перемирие после переговоров
11.06.2025 301 -
Протесты в Лос-Анджелесе: введён комендантский час в центре
11.06.2025 302 -
Доходы OpenAI выросли до $10 млрд к июню 2025 года
10.06.2025 351 -
Сучасний гіпсокартон – ідеальний вибір для швидкого ремонту
10.06.2025 347 -
Nintendo Switch 2 покоряет рынок: что нового в консоли?
10.06.2025 377