Сегодняшний уровень развития аудио и видео техники позволяет создавать довольно реалистичные материалы, не имеющие отношения к действительности. Алгоритмы обученные на базе сотен тысяч фотографий и видеозаписей способны создавать изображения людей, никогда не живших на земле. Инженеры и правозащитники встревожены бесконтрольным распространением подобных технологий и считают, что в совокупности с современными СМИ они могут стать инструментами массовых манипуляций, сообщает Радио Свобода.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяПоследствия подобных фейков могут быть самыми непредсказуемыми. Границы возможного колеблются от массовой паники до начала военных действий. Особенно опасным может стать фальсификация видео и аудио обращений крупных политиков, ведь большинство граждан не в силах будут отличить поддельное видео от настоящего. Программы способные обнаружить подделку уже существуют, но они всегда на полшага отстают от индустрии подделок. Кроме того, развитие подобное техники лишь показывает в каком направлении дальше стоит развиваться мошенникам.
Еще одним аспектом проблемы является способность искусственного интеллекта четко просчитывать эмоциональный эффект, требующийся от того или иного материала. Надо признаться, что своими реакциями в соцсетях мы снабжаем глобальную базу необходимым материалом для подобного анализа. Специалисты убеждены, возможность развязанния искусственным интеллектом военных действий более чем реальна. Обучаясь на больших массивах человеческих реакций, машина в конце концов станет так же, как и человек в равной степени склонной к моральным и аморальным поступкам.
Ранее портал "Знай.ua" сообщал об озверении роботов