Сегодняшний уровень развития аудио и видео техники позволяет создавать довольно реалистичные материалы, не имеющие отношения к действительности. Алгоритмы обученные на базе сотен тысяч фотографий и видеозаписей способны создавать изображения людей, никогда не живших на земле. Инженеры и правозащитники встревожены бесконтрольным распространением подобных технологий и считают, что в совокупности с современными СМИ они могут стать инструментами массовых манипуляций, сообщает Радио Свобода.

Последствия подобных фейков могут быть самыми непредсказуемыми. Границы возможного колеблются от массовой паники до начала военных действий. Особенно опасным может стать фальсификация видео и аудио обращений крупных политиков, ведь большинство граждан не в силах будут отличить поддельное видео от настоящего. Программы способные обнаружить подделку уже существуют, но они всегда на полшага отстают от индустрии подделок. Кроме того, развитие подобное техники лишь показывает в каком направлении дальше стоит развиваться мошенникам.

Еще одним аспектом проблемы является способность искусственного интеллекта четко просчитывать эмоциональный эффект, требующийся от того или иного материала. Надо признаться, что своими реакциями в соцсетях мы снабжаем глобальную базу необходимым материалом для подобного анализа. Специалисты убеждены, возможность развязанния искусственным интеллектом военных действий более чем реальна. Обучаясь на больших массивах человеческих реакций, машина в конце концов станет так же, как и человек в равной степени склонной к моральным и аморальным поступкам.

Ранее портал "Знай.ua" сообщал об озверении роботов

Популярные статьи сейчас

Поэтому пройдут все мужчины: украинцам подготовили новое правило

Платите по 700 грн за свет или живите без него: украинцев ставят перед фактом

Семьи получат по 5000 гривен: кто в списке

Коммунальные платежи отменяются: названа категория лиц, которой можно не платить

Показать еще