Искусственный интеллект: ученые призывают остановить гонку вооружений

Элон Маск, Стивен Хокинг, Стив Возняк и ведущие мировые ученые в области развития искусственного интеллекта (ИИ) считают, что человечество может зайти слишком далеко в гонке вооружений.

 28.07.2015    
 2007

Элон Маск, Стивен Хокинг, Стив Возняк и ведущие мировые ученые в области развития искусственного интеллекта (ИИ) считают, что человечество может зайти слишком далеко в гонке вооружений и призывают сделать все возможное, дабы мир не настигла катастрофа.

[read_1]Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором призывает отказаться от «гонки ИИ-вооружений» (AI Arms Race).

Письмо подписали более тысячи ученых и ведущих представителей информационного бизнеса. Суть сводится к тому, что гонка вооружений выходит на новый уровень: разработку и внедрение оружия с собственным искусственным интеллектом. ИИ-вооружение может контролироваться издалека без непосредственного участия живого человека в зоне боевых действий.

«Автономное оружие станет «автоматом Калашникова» будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что оно станет вездесущим и дешевым для массового производства. То, как скоро это оружие появится на черном рынке – лишь вопрос времени. Автономное оружие идеально подходит для заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп», — говорится в письме.

Авторы сообщения указывают и на явные преимущества данного вида вооружения, которые включают сохранение человеческих жизней. Но, в то же время, приходят к однозначному выводу, что ИИ-вооружение будет нести собой катастрофическую опасность для человечества, и новый виток гонки вооружений следует немедленно прекратить.

[read_2]«Точно так же, как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, большинство ученых, работающих над ИИ, не заинтересованы в создании ИИ-вооружения», — утверждают авторы письма.

Под открытым письмом подписались выдающиеся ученые в сфере разработки искусственного интеллекта из множества стран мира. Помимо этого, Элон Маск, Стивен Хокинг, Стив Возняк и другие известные IT-предприниматели высказались в поддержку остановки гонки ИИ-вооружения.

«Искусственный интеллект может стать полезен человечеству во множестве аспектов (…) Но запускать гонку ИИ-вооружений – плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения», — резюмируют ученые.

Источник: vlasti.net


ЕЩЕ В РАЗДЕЛЕ Технологии

Безкоштовні оголошення України
НОВОСТИ С ВИДЕО
ВИДЕО
Технологии будущего: прозрачный OLED-телевизор от LG уже в продаже по предзаказу
Технологии будущего: прозрачный OLED-телевизор от LG уже в продаже по предзаказу
20.12.2024   320
ВИДЕО
Трейлер «Ведьмак 4» показали на The Game Awards 2024 — начало новой саги (ВИДЕО)
Трейлер «Ведьмак 4» показали на The Game Awards 2024 — начало новой саги (ВИДЕО)
13.12.2024   822
ВИДЕО
Новая камера от Nokia для промышленности: Обзор 360°, 8K разрешение и поддержка 5G
Новая камера от Nokia для промышленности: Обзор 360°, 8K разрешение и поддержка 5G
11.12.2024   1238
ВИДЕО
Next-SBC: мощный одноплатный ПК с процессором Ryzen 7 7840HS (ВИДЕО)
Next-SBC: мощный одноплатный ПК с процессором Ryzen 7 7840HS (ВИДЕО)
21.11.2024   3296
ВИДЕО
Runway представила Act-One: революцию в анимации с помощью ИИ (ВИДЕО)
Runway представила Act-One: революцию в анимации с помощью ИИ (ВИДЕО)
25.10.2024   6894
ПОПУЛЯРНЫЕ НОВОСТИ
Сайт может содержать материалы категории 18+    Материалы со знаком   публикуются на правах рекламы.    Размещения рекламы: vashgolos.netdsffdsg987f@gmail.com

При копировании материалов сайта для интернет-изданий обязательна прямая, открытая для поисковых систем гиперссылка.
Администрация сайта не несет ответственности за содержание и достоверность рекламных материалов размещенных на данном сайте, а так же за возможный причененный вред от их использования.

© 2014-2024 "ВАШ ГОЛОС" - vashgolos.net   /   Мнение и взгляды администрации сайта могут не совпадать с мнением или взглядами авторов материала.