Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Бывший CEO Google недавно опубликовал документ «Суперинтеллект-стратегия», в котором он выступает против государственного проекта по разработке AGI по модели «Манхэттенского проекта»
В последнее время мир все чаще задумывается о будущем искусственного интеллекта. Бывший CEO Google, Эрик Шмидт, недавно опубликовал документ "Суперинтеллект-стратегия", в котором он выступает против государственного проекта по разработке искусственного общего интеллекта (AGI) по модели "Манхэттенского проекта". Шмидт убежден, что такой подход может привести к непредсказуемым последствиям, включая опасность международной напряженности и потенциальных кибератак.
Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Как сообщают западные СМИ, Шмидт считает, что попытки спровоцировать гонку в области AGI могут провоцировать соперничающие страны на ответные меры, что в конечном итоге поставит под угрозу не только технологическое, но и геополитическое лидерство США. Шмидт вместе с другими экспертами предлагает вместо этого ужесточить меры безопасности и расширить сотрудничество на международном уровне с целью снижения рисков, связанных с AGI.
Концепция Mutual Assured AI Malfunction
Одной из ключевых концепций, предложенных Шмидтом, является "Взаимно гарантируемая неисправность ИИ" (MAIM). Эта стратегия призвана не допустить создания опасного искусственного интеллекта, используя методы дестабилизации потенциальных угроз на ранней стадии. Это включает в себя использование кибератак для дезактивации враждебных систем AGI, а также ограничение на доступ к современным чипам и открытым моделям ИИ.
Международное сотрудничество и безопасность
В условиях существующей глобальной неопределенности Шмидт категорически выступает за укрепление международного сотрудничества. Он убежден, что единственный способ достичь безопасного AGI — это согласованные усилия по созданию глобальных стандартов безопасности для ИИ.Концепция MAIM и призыв к международному сотрудничеству — это важный шаг в осознании проблемы и попытке найти сотрудничество вместо конфронтации. Это требует значительных изменений в политике стран и готовности поставить безопасность выше национальных интересов.
Перспективы будущего
Путь к безопасному AGI будет сложным и потребует не только научных достижений, но и ответственного подхода. Если мы хотим избежать катастрофических последствий неконтролируемого роста ИИ, нам следует сосредоточиться на развитии оборонных стратегий и наращивании международного сотрудничества.
Нарастающие опасения о будущем AGI и его потенциальных последствиях заставляют экспертов и политику пересматривать свои подходы к развитию этой технологии. Важно, чтобы при спешке к новым достижениям мы не забыли о безопасности человечества и стали действовать согласованно на международном уровне.
-
Россия атаковала Украину 728 дронами: подробности удара
09.07.2025 231 -
Marey от Moonvalley: революция в кинопроизводстве с ИИ
09.07.2025 258 -
The thrill of guitar learning: Unlocking musical creativity
08.07.2025 339 -
Kingston представила компактный NV3 M.2 2230 SSD с PCIe 4.0
07.07.2025 416 -
Рекомендації щодо вибору ременів
07.07.2025 434 -
Прощальный концерт Оззи Осборна с Black Sabbath в Бирмингеме
07.07.2025 430 -
Термоядерный синтез: тритий теперь производят в реакторе
07.07.2025 438 -
Новая партия Илона Маска: что известно о «Партии Америки»
07.07.2025 432 -
Наводнение в Техасе унесло 52 жизни, 27 девочек пропали
07.07.2025 444