ООН провела в Женеве обсуждение проблемы автономного оружия. Целью встречи была разработка правил, которые бы делали невозможным применение роботов-убийц на войне. Однако, эксперты выразили сомнения по поводу того, будут ли террористы придерживаться этих правил.

Итогом недельного обсуждения стал доклад об опасности применения террористами боевых роботов. По мнению части специалистов, использование роботов на поле боя сможет уменьшить количество жертв. Однако, в критических ситуациях люди должны брать контроль на себя, считают эксперты. Участники обсуждения считают применение роботов без человеческого контроля неприемлемым. Так же как и перекладывание ответственности за здоровье и жизнь человека на роботов.

Проблема автономного оружия все чаще становится темой для обсуждения. В прошлом году более тысячи специалистов по робототехнике и технологиях, включая Стивена Хокинга, Илона Маска и Стива Возняка, предупредили, что автономное оружие может появиться уже в ближайшие годы, а не в течение десятилетий, как считалось ранее. В своем открытом письме они отметили, что глобальная гонка вооружений практически неизбежна. А ее итогом станет то, что автономное оружие превратят в автомат Калашникова завтрашнего дня.

Разработкой автономного оружия, по данным лондонской организаци Campaign to Stop Killer Robots, сегодня занимаются США, Китай, Израиль, Южная Корея, Россия и Великобритания.

Читайте также: Стивен Хокинг опасается восстания машин

Популярные статьи сейчас
Больше никаких льгот: пенсионеров заставят платить налог на землю 1000 гривен от государства: как получить помощь пенсионерам Денежную помощь дадут не всем: что нужно подтвердить Пенсионеров заставят вернуть часть выплат государству
Показать еще

Напомним, что недавно известный популяризатор науки Стивен Хокинг в интервью Ларри Кингу рассказал о своих опасениях относительно "гонки вооружений" искусственного интеллекта. Ученый считает, что допустить сосуществование с людьми искусственного интеллекта можно только в том случае, если он не сможет причинить человечеству вреда.

Ученые из DeepMind (подразделение Google, которое занимается разработкой ИИ) и специалисты из Оксфордского университета разрабатывают "красную кнопку" для устройств с алгоритмами ИИ, которая смогла бы в экстренных ситуациях их отключить.