ООН провела в Женеве обсуждение проблемы автономного оружия. Целью встречи была разработка правил, которые бы делали невозможным применение роботов-убийц на войне. Однако, эксперты выразили сомнения по поводу того, будут ли террористы придерживаться этих правил.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяИтогом недельного обсуждения стал доклад об опасности применения террористами боевых роботов. По мнению части специалистов, использование роботов на поле боя сможет уменьшить количество жертв. Однако, в критических ситуациях люди должны брать контроль на себя, считают эксперты. Участники обсуждения считают применение роботов без человеческого контроля неприемлемым. Так же как и перекладывание ответственности за здоровье и жизнь человека на роботов.
Проблема автономного оружия все чаще становится темой для обсуждения. В прошлом году более тысячи специалистов по робототехнике и технологиях, включая Стивена Хокинга, Илона Маска и Стива Возняка, предупредили, что автономное оружие может появиться уже в ближайшие годы, а не в течение десятилетий, как считалось ранее. В своем открытом письме они отметили, что глобальная гонка вооружений практически неизбежна. А ее итогом станет то, что автономное оружие превратят в автомат Калашникова завтрашнего дня.
Разработкой автономного оружия, по данным лондонской организаци Campaign to Stop Killer Robots, сегодня занимаются США, Китай, Израиль, Южная Корея, Россия и Великобритания.
Читайте также: Стивен Хокинг опасается восстания машин
Напомним, что недавно известный популяризатор науки Стивен Хокинг в интервью Ларри Кингу рассказал о своих опасениях относительно "гонки вооружений" искусственного интеллекта. Ученый считает, что допустить сосуществование с людьми искусственного интеллекта можно только в том случае, если он не сможет причинить человечеству вреда.
Ученые из DeepMind (подразделение Google, которое занимается разработкой ИИ) и специалисты из Оксфордского университета разрабатывают "красную кнопку" для устройств с алгоритмами ИИ, которая смогла бы в экстренных ситуациях их отключить.