Сьогоднішній рівень розвитку аудіо і відео техніки дозволяє створювати досить реалістичні матеріали, що не мають відношення до дійсності. Алгоритми навчені на базі сотень тисяч фотографій і відеозаписів здатні створювати зображення людей, які ніколи не жили на землі. Інженери і правозахисники стурбовані безконтрольним поширенням подібних технологій і вважають, що в сукупності з сучасними ЗМІ вони можуть стати інструментами масових маніпуляцій, повідомляє Радіо Свобода.

Наслідки подібних фейків можуть бути самими непередбачуваними. Межі можливого коливаються від масової паніки до початку військових дій. Особливо небезпечним може стати фальсифікація відео і аудіо звернень великих політиків, адже більшість громадян не в силах будуть відрізнити підроблене відео від справжнього. Програми здатні виявити підробку вже існують, але вони завжди на півкроку відстають від індустрії підробок. Крім того, розвиток подібної техніки лише показує в якому напрямку далі варто розвиватися шахраям.

Ще одним аспектом проблеми є здатність штучного інтелекту чітко прораховувати емоційний ефект, що потребується від того чи іншого матеріалу. Треба зізнатися, що своїми реакціями в соцмережах ми постачаємо глобальну базу необхідним матеріалом для подібного аналізу. Фахівці переконані, можливість развязанния штучним інтелектом військових дій більш ніж реальна. Навчаючись на великих масивах людських реакцій, машина зрештою стане так само, як і людина в рівній мірі схильної до моральних і аморальних вчинків.

Раніше портал "Знай.ua" повідомляв про озвіріння роботів

Популярні новини зараз

Деяким українцям уріжуть пенсії з 1 січня: кому зменшать виплати

Від 1200 грн і більше: хто має право на надбавку до пенсії

Соцпрацівники ходитимуть по домівках: до кого прийдуть з перевіркою

В Україні з 1 січня запровадять нові правила розрахунків карткою

Показати ще