ООН провела в Женеві обговорення проблеми автономної зброї. Метою зустрічі було вироблення правил, які б унеможливлювали застосування роботів-вбивць на війні. Однак, експерти висловили сумніви з приводу того, чи терористи будуть дотримуватися цих правил.

Підсумком тижневого обговорення стала доповідь про небезпеку застосування терористами бойових роботів. На думку частини фахівців, використання роботів на полі бою зможе зменшити кількість жертв. Однак, в критичних ситуаціях люди повинні брати контроль на себе, вважають експерти. Учасники обговорення вважають застосування роботів без людського контролю неприйнятним. Так само як і перекладання відповідальності за здоров'я і життя людини на роботів.

Проблема автономної зброї все частіше стає темою для обговорення. В минулому році понад тисячу фахівців з робототехніки і технологіях, включаючи Стівена Хокінга, Ілона Маска і Стіва Возняка, попередили, що автономна зброя може з'явитись вже в найближчі роки, а не протягом десятиліть, як вважалося раніше. У своєму відкритому листі вони зазначили, що глобальна гонка озброєнь практично неминуча. А її підсумком стане те, що автономну зброю перетворять на автомат Калашникова завтрашнього дня.

Розробкою автономного зброї, за даними лондонської організаці Campaign to Stop Killer Robots, сьогодні займаються США, Китай, Ізраїль, Південна Корея, Росія і Великобританія.

Читайте також: Стівен Хокінг побоюється повстання машин

Популярні новини зараз
Індексація пенсії у 2026 році: у кого зростуть виплати аж на 14% Гроші на побутові потреби: працюючим українцям доступна одноразова допомога ТЦК працюють за новою схемою: як змінилася мобілізація у 2026 році Стануть другим сортом: що готують ухилянтам після війни
Показати ще

Нагадаємо, що нещодавно відомий популяризатор науки Стівен Хокінг в інтерв'ю Ларрі Кінгу розповів про свої побоювання щодо "гонки озброєнь" штучного інтелекту. Вчений вважає, що допустити співіснування з людьми штучного інтелекту можна лише в тому випадку, якщо він не зможе заподіяти людству шкоди.

Вчені з DeepMind (підрозділ Google, що займається розробкою штучного інтелекту) і фахівці з Оксфордського університету розробляють "червону кнопку" для пристроїв з алгоритмами ШТ, яка змогла б в екстрених ситуаціях їх відключити.