Учені проти застосування термінаторів під час воєн

поділитись
Вчені попередили про небезпеку використання штучного інтелекту при створенні бойової техніки і новітніх систем озброєння

Учені попередили про небезпеку використання штучного інтелекту при створенні бойової техніки і новітніх систем озброєння. Більше тисячі інженерів і дослідників підписали відкритий лист про це.

"Якщо яка-небудь велика військова держава спробує вирватися вперед у розвитку зброї з штучним інтелектом, то глобальна гонка озброєнь практично неминуча. Кінцева точка цієї технологічної траєкторії очевидна: автономна зброя стане завтрашнім "Калашниковим", — наголосили вчені у своєму зверненні.

Автори листа закликають відмовитися від використання штучного інтелекту при створенні бойової техніки. Вони попереджають, що гонка подібних озброєнь призведе до непередбачуваних наслідків.

Читайте також: Вчені навчили робота-водоміра стрибати по воді (відео)

Питання про створення бойових роботів обговорювалося в ООН. Міжнародна організація розглядає можливість заборони певних типів автономних бойових систем.

Багато відомих людей підписали листа. Серед них, відомий фізик і космолог Стівен Хокінг, підприємець Елон Маск і один із засновників компанії Apple Стів Возняк.

Документ планується передати делегатам міжнародної конференції по штучному інтелекту в Буенос-Айресі.

Автор матеріалу: 
Znaj.ua
Розробника вперше в історії звільнив робот, а керівництво не змогло йому в цьому перешкодити
0
0
20:11 21.06.2018
Годинник отримають незвичайний вигляд гаджета від Apple
0
0
17:40 21.06.2018
Консоль не отримає обіцяних можливостей
0
0
16:49 21.06.2018
Інформацію про смартфон виявили в мережі
0
0
16:36 21.06.2018
Оновлення не пішли на користь грі
0
0
16:13 21.06.2018