ООН провела в Женеве обсуждение проблемы автономного оружия. Целью встречи была разработка правил, которые бы делали невозможным применение роботов-убийц на войне. Однако, эксперты выразили сомнения по поводу того, будут ли террористы придерживаться этих правил.

Итогом недельного обсуждения стал доклад об опасности применения террористами боевых роботов. По мнению части специалистов, использование роботов на поле боя сможет уменьшить количество жертв. Однако, в критических ситуациях люди должны брать контроль на себя, считают эксперты. Участники обсуждения считают применение роботов без человеческого контроля неприемлемым. Так же как и перекладывание ответственности за здоровье и жизнь человека на роботов.

Проблема автономного оружия все чаще становится темой для обсуждения. В прошлом году более тысячи специалистов по робототехнике и технологиях, включая Стивена Хокинга, Илона Маска и Стива Возняка, предупредили, что автономное оружие может появиться уже в ближайшие годы, а не в течение десятилетий, как считалось ранее. В своем открытом письме они отметили, что глобальная гонка вооружений практически неизбежна. А ее итогом станет то, что автономное оружие превратят в автомат Калашникова завтрашнего дня.

Разработкой автономного оружия, по данным лондонской организаци Campaign to Stop Killer Robots, сегодня занимаются США, Китай, Израиль, Южная Корея, Россия и Великобритания.

Читайте также: Стивен Хокинг опасается восстания машин

Популярные статьи сейчас
НМТ 2024: абитуриентам рассказали, кому не светит поступление в ВУЗ Украинцам пенсионного возраста дадут временное пособие: какие документы нужно подать ПриватБанк отменил плату за важную услугу: до конца года не возьмут ни копейки Платить по 2,64 грн за кВт будут не все: какими будут майские платежки за свет
Показать еще

Напомним, что недавно известный популяризатор науки Стивен Хокинг в интервью Ларри Кингу рассказал о своих опасениях относительно "гонки вооружений" искусственного интеллекта. Ученый считает, что допустить сосуществование с людьми искусственного интеллекта можно только в том случае, если он не сможет причинить человечеству вреда.

Ученые из DeepMind (подразделение Google, которое занимается разработкой ИИ) и специалисты из Оксфордского университета разрабатывают "красную кнопку" для устройств с алгоритмами ИИ, которая смогла бы в экстренных ситуациях их отключить.