ООН провела в Женеві обговорення проблеми автономної зброї. Метою зустрічі було вироблення правил, які б унеможливлювали застосування роботів-вбивць на війні. Однак, експерти висловили сумніви з приводу того, чи терористи будуть дотримуватися цих правил.

Підсумком тижневого обговорення стала доповідь про небезпеку застосування терористами бойових роботів. На думку частини фахівців, використання роботів на полі бою зможе зменшити кількість жертв. Однак, в критичних ситуаціях люди повинні брати контроль на себе, вважають експерти. Учасники обговорення вважають застосування роботів без людського контролю неприйнятним. Так само як і перекладання відповідальності за здоров'я і життя людини на роботів.

Проблема автономної зброї все частіше стає темою для обговорення. В минулому році понад тисячу фахівців з робототехніки і технологіях, включаючи Стівена Хокінга, Ілона Маска і Стіва Возняка, попередили, що автономна зброя може з'явитись вже в найближчі роки, а не протягом десятиліть, як вважалося раніше. У своєму відкритому листі вони зазначили, що глобальна гонка озброєнь практично неминуча. А її підсумком стане те, що автономну зброю перетворять на автомат Калашникова завтрашнього дня.

Розробкою автономного зброї, за даними лондонської організаці Campaign to Stop Killer Robots, сьогодні займаються США, Китай, Ізраїль, Південна Корея, Росія і Великобританія.

Читайте також: Стівен Хокінг побоюється повстання машин

Популярні новини зараз
Дощі, грози і навіть заморозки: шашлик на Великдень доведеться відкласти, синоптики попередили про негоду Через це пройдуть всі чоловіки: українцям підготували нове правило Чергуватимуть представники ТЦК: де українцям тепер можуть вручити повістку Стосується всіх пенсіонерів: ПФУ поділився важливою інструкцією
Показати ще

Нагадаємо, що нещодавно відомий популяризатор науки Стівен Хокінг в інтерв'ю Ларрі Кінгу розповів про свої побоювання щодо "гонки озброєнь" штучного інтелекту. Вчений вважає, що допустити співіснування з людьми штучного інтелекту можна лише в тому випадку, якщо він не зможе заподіяти людству шкоди.

Вчені з DeepMind (підрозділ Google, що займається розробкою штучного інтелекту) і фахівці з Оксфордського університету розробляють "червону кнопку" для пристроїв з алгоритмами ШТ, яка змогла б в екстрених ситуаціях їх відключити.