Після того, як штучний інтелект створив фільм на основі уривків з існуючих кінокартин, його вміння прогнозувати успіх інших стрічок не здається такою вже фантастикою.
Штучний інтелект в цей раз зайшов ще далі, і навчився прогнозувати успіх фільмів.
Програма (як і компанію, її назвали ScriptBook) аналізує кіносценарії з допомогою алгоритмів і виносить вердикт – чи буде стрічка мати успіх або провалиться в прокаті.
Для тестування програми були обрані всі кінокартини компанії Sony Pictures за період з 2015 по 2017 рік. Інновація зберегла б студії ціле стан: ScriptBook визначив 22 з 32 фільмів, які провалилися в прокаті.
Мобілізацію в Україні посилять: ТЦК змусять працювати ефективніше
Всіх чоловіків змусять встановити "Резерв+": які зміни чекають мобілізацію
Зміни в правилах обміну валюти: заначка може перетворитися на розчарування
Українців попередили про три місяці без пенсії: у кого будуть проблеми з ПФУ
Однак нереальний анали дуже простий на практиці: користувач ScriptBook завантажує PDF-файл сценарію, і сервіс аналізує його якість за параметрами.
Також ІІ називає цільову аудиторію картини і пророкує касові збори.
Нагадаємо, що Apple незабаром може використовувати LG в якості альтернативного постачальника для своїх OLED-панелей, які використовуються в пристроях iPhone X.
Компанія LG в якості вторинного постачальника допоможе прискорювачам OLED-технологій з технологічним гігантом швидше створювати свої девайси, при цьому скоротивши витрати. Раніше Apple покладалася виключно на Samsung, для поставки OLED-дисплеїв, однак компанія зажадала занадто велику суму за свої послуги.
Раніше портал "Знай.uа" повідомив, що голова лондонської поліції Крессида Дік заявив, що влада не очікують великої кількості арештів від технології розпізнавання осіб в столиці Великобританії, і лише 2 відсотки точності системи їх влаштовує.
Лондон — одне з міст Великобританії, де тестується технологія розпізнавання осіб (AFR) на публічних заходах, концертах, фестивалях і навіть футбольних матчах.
Однак недосконалість системи дозволяє розпізнавати правильно лише 2% осіб, інші випадки є помилковими, оскільки система неправильно ідентифікує людей, і навіть злочинців не вдається зловити.
Громадська організація Big Brother Watch відзначає, що технологія розпізнавання осіб розгорнута без належних для цього публічних дебатів. Організація запевняє, що така система може перетворити всі громадські місця у біометричні контрольно-пропускні пункти.