Сегодняшний уровень развития аудио и видео техники позволяет создавать довольно реалистичные материалы, не имеющие отношения к действительности. Алгоритмы обученные на базе сотен тысяч фотографий и видеозаписей способны создавать изображения людей, никогда не живших на земле. Инженеры и правозащитники встревожены бесконтрольным распространением подобных технологий и считают, что в совокупности с современными СМИ они могут стать инструментами массовых манипуляций, сообщает Радио Свобода.

Последствия подобных фейков могут быть самыми непредсказуемыми. Границы возможного колеблются от массовой паники до начала военных действий. Особенно опасным может стать фальсификация видео и аудио обращений крупных политиков, ведь большинство граждан не в силах будут отличить поддельное видео от настоящего. Программы способные обнаружить подделку уже существуют, но они всегда на полшага отстают от индустрии подделок. Кроме того, развитие подобное техники лишь показывает в каком направлении дальше стоит развиваться мошенникам.

Еще одним аспектом проблемы является способность искусственного интеллекта четко просчитывать эмоциональный эффект, требующийся от того или иного материала. Надо признаться, что своими реакциями в соцсетях мы снабжаем глобальную базу необходимым материалом для подобного анализа. Специалисты убеждены, возможность развязанния искусственным интеллектом военных действий более чем реальна. Обучаясь на больших массивах человеческих реакций, машина в конце концов станет так же, как и человек в равной степени склонной к моральным и аморальным поступкам.

Ранее портал "Знай.ua" сообщал об озверении роботов

Популярные статьи сейчас
Гороскоп на пятницу 22 ноября для всех знаков Зодиака: день для перемен и простых радостей Пенсионерам "навесят" новое финансовое бремя: никаких льгот не ждите Масштабное мартовское повышение пенсий: 2300 получат не все Доллары с "заначки" могут разочаровать: начали действовать новые правила обмена валюты
Показать еще