Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Бывший CEO Google недавно опубликовал документ «Суперинтеллект-стратегия», в котором он выступает против государственного проекта по разработке AGI по модели «Манхэттенского проекта»
В последнее время мир все чаще задумывается о будущем искусственного интеллекта. Бывший CEO Google, Эрик Шмидт, недавно опубликовал документ "Суперинтеллект-стратегия", в котором он выступает против государственного проекта по разработке искусственного общего интеллекта (AGI) по модели "Манхэттенского проекта". Шмидт убежден, что такой подход может привести к непредсказуемым последствиям, включая опасность международной напряженности и потенциальных кибератак.
Бывший CEO Google выступает против AGI в формате «Манхэттенского проекта»
Как сообщают западные СМИ, Шмидт считает, что попытки спровоцировать гонку в области AGI могут провоцировать соперничающие страны на ответные меры, что в конечном итоге поставит под угрозу не только технологическое, но и геополитическое лидерство США. Шмидт вместе с другими экспертами предлагает вместо этого ужесточить меры безопасности и расширить сотрудничество на международном уровне с целью снижения рисков, связанных с AGI.
Концепция Mutual Assured AI Malfunction
Одной из ключевых концепций, предложенных Шмидтом, является "Взаимно гарантируемая неисправность ИИ" (MAIM). Эта стратегия призвана не допустить создания опасного искусственного интеллекта, используя методы дестабилизации потенциальных угроз на ранней стадии. Это включает в себя использование кибератак для дезактивации враждебных систем AGI, а также ограничение на доступ к современным чипам и открытым моделям ИИ.
Международное сотрудничество и безопасность
В условиях существующей глобальной неопределенности Шмидт категорически выступает за укрепление международного сотрудничества. Он убежден, что единственный способ достичь безопасного AGI — это согласованные усилия по созданию глобальных стандартов безопасности для ИИ.Концепция MAIM и призыв к международному сотрудничеству — это важный шаг в осознании проблемы и попытке найти сотрудничество вместо конфронтации. Это требует значительных изменений в политике стран и готовности поставить безопасность выше национальных интересов.
Перспективы будущего
Путь к безопасному AGI будет сложным и потребует не только научных достижений, но и ответственного подхода. Если мы хотим избежать катастрофических последствий неконтролируемого роста ИИ, нам следует сосредоточиться на развитии оборонных стратегий и наращивании международного сотрудничества.
Нарастающие опасения о будущем AGI и его потенциальных последствиях заставляют экспертов и политику пересматривать свои подходы к развитию этой технологии. Важно, чтобы при спешке к новым достижениям мы не забыли о безопасности человечества и стали действовать согласованно на международном уровне.
-
Cube 3D от Roblox: открытый ИИ для генерации 3D-контента
18.03.2025 203 -
Все Android-игры на ПК? Что нового в Google Play Games
17.03.2025 283 -
«Электрический штат» провалился с бюджетом в $320 млн?
17.03.2025 284 -
Blue Ghost запечатлел солнечное затмение с поверхности Луны
17.03.2025 287 -
Формула-1 2025: Хэмилтон и Ferrari начали сезон с проблем
16.03.2025 361 -
SpaceX Crew-10: Новый экипаж на МКС и возвращение ветеранов
16.03.2025 366 -
Марк Карни принял присягу и стал премьер-министром Канады
15.03.2025 440 -
Gemini Robotics от Google DeepMind — прорыв в робототехнике
14.03.2025 476 -
Печать стикеров — процесс, технологии и применение в рекламе
14.03.2025 484 -
Путин поддержал перемирие c Украиной, но... с условиями
13.03.2025 555 -
На орбите Сатурна обнаружено 128 новых спутников
13.03.2025 583