Элон Маск, Стивен Хокинг, Стив Возняк и ведущие мировые ученые в области развития искусственного интеллекта (ИИ) считают, что человечество может зайти слишком далеко в гонке вооружений и призывают сделать все возможное, дабы мир не настигла катастрофа.
[read_1]Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором призывает отказаться от «гонки ИИ-вооружений» (AI Arms Race).
Письмо подписали более тысячи ученых и ведущих представителей информационного бизнеса. Суть сводится к тому, что гонка вооружений выходит на новый уровень: разработку и внедрение оружия с собственным искусственным интеллектом. ИИ-вооружение может контролироваться издалека без непосредственного участия живого человека в зоне боевых действий.
«Автономное оружие станет «автоматом Калашникова» будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что оно станет вездесущим и дешевым для массового производства. То, как скоро это оружие появится на черном рынке – лишь вопрос времени. Автономное оружие идеально подходит для заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп», — говорится в письме.
Авторы сообщения указывают и на явные преимущества данного вида вооружения, которые включают сохранение человеческих жизней. Но, в то же время, приходят к однозначному выводу, что ИИ-вооружение будет нести собой катастрофическую опасность для человечества, и новый виток гонки вооружений следует немедленно прекратить.
[read_2]
«Точно так же, как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, большинство ученых, работающих над ИИ, не заинтересованы в создании ИИ-вооружения», — утверждают авторы письма.
Под открытым письмом подписались выдающиеся ученые в сфере разработки искусственного интеллекта из множества стран мира. Помимо этого, Элон Маск, Стивен Хокинг, Стив Возняк и другие известные IT-предприниматели высказались в поддержку остановки гонки ИИ-вооружения.
«Искусственный интеллект может стать полезен человечеству во множестве аспектов (…) Но запускать гонку ИИ-вооружений – плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения», — резюмируют ученые.
Источник:
vlasti.net