Сьогоднішній рівень розвитку аудіо і відео техніки дозволяє створювати досить реалістичні матеріали, що не мають відношення до дійсності. Алгоритми навчені на базі сотень тисяч фотографій і відеозаписів здатні створювати зображення людей, які ніколи не жили на землі. Інженери і правозахисники стурбовані безконтрольним поширенням подібних технологій і вважають, що в сукупності з сучасними ЗМІ вони можуть стати інструментами масових маніпуляцій, повідомляє Радіо Свобода.

Наслідки подібних фейків можуть бути самими непередбачуваними. Межі можливого коливаються від масової паніки до початку військових дій. Особливо небезпечним може стати фальсифікація відео і аудіо звернень великих політиків, адже більшість громадян не в силах будуть відрізнити підроблене відео від справжнього. Програми здатні виявити підробку вже існують, але вони завжди на півкроку відстають від індустрії підробок. Крім того, розвиток подібної техніки лише показує в якому напрямку далі варто розвиватися шахраям.

Ще одним аспектом проблеми є здатність штучного інтелекту чітко прораховувати емоційний ефект, що потребується від того чи іншого матеріалу. Треба зізнатися, що своїми реакціями в соцмережах ми постачаємо глобальну базу необхідним матеріалом для подібного аналізу. Фахівці переконані, можливість развязанния штучним інтелектом військових дій більш ніж реальна. Навчаючись на великих масивах людських реакцій, машина зрештою стане так само, як і людина в рівній мірі схильної до моральних і аморальних вчинків.

Раніше портал "Знай.ua" повідомляв про озвіріння роботів

Популярні новини зараз
Астролог побачив у травні "лихо" для України Дніпровська дівчина-хатико повернулася, але тепер вона нападає на людей Розписуватися буде не потрібно: коли повістка вважатиметься врученою Українські пенсіонери отримають по 500 гривень "бонусу": хто у списку "літніх" щасливчиків
Показати ще