Сьогоднішній рівень розвитку аудіо і відео техніки дозволяє створювати досить реалістичні матеріали, що не мають відношення до дійсності. Алгоритми навчені на базі сотень тисяч фотографій і відеозаписів здатні створювати зображення людей, які ніколи не жили на землі. Інженери і правозахисники стурбовані безконтрольним поширенням подібних технологій і вважають, що в сукупності з сучасними ЗМІ вони можуть стати інструментами масових маніпуляцій, повідомляє Радіо Свобода.

Наслідки подібних фейків можуть бути самими непередбачуваними. Межі можливого коливаються від масової паніки до початку військових дій. Особливо небезпечним може стати фальсифікація відео і аудіо звернень великих політиків, адже більшість громадян не в силах будуть відрізнити підроблене відео від справжнього. Програми здатні виявити підробку вже існують, але вони завжди на півкроку відстають від індустрії підробок. Крім того, розвиток подібної техніки лише показує в якому напрямку далі варто розвиватися шахраям.

Ще одним аспектом проблеми є здатність штучного інтелекту чітко прораховувати емоційний ефект, що потребується від того чи іншого матеріалу. Треба зізнатися, що своїми реакціями в соцмережах ми постачаємо глобальну базу необхідним матеріалом для подібного аналізу. Фахівці переконані, можливість развязанния штучним інтелектом військових дій більш ніж реальна. Навчаючись на великих масивах людських реакцій, машина зрештою стане так само, як і людина в рівній мірі схильної до моральних і аморальних вчинків.

Раніше портал "Знай.ua" повідомляв про озвіріння роботів

Популярні новини зараз
Гороскоп на п'ятницю 22 листопада для всіх знаків Зодіаку: день для змін та простих радостей "Бусифікацію" обіцяють викорінити: ТЦК застосують новий підхід до мобілізації Масштабне березневе підвищення пенсій: 2300 отримають не всі Мобілізацію урівняли для всіх: українцям оголосили вердикт щодо економічного бронювання
Показати ще