Після того, як штучний інтелект створив фільм на основі уривків з існуючих кінокартин, його вміння прогнозувати успіх інших стрічок не здається такою вже фантастикою.


Штучний інтелект в цей раз зайшов ще далі, і навчився прогнозувати успіх фільмів.
Програма (як і компанію, її назвали ScriptBook) аналізує кіносценарії з допомогою алгоритмів і виносить вердикт – чи буде стрічка мати успіх або провалиться в прокаті.
Для тестування програми були обрані всі кінокартини компанії Sony Pictures за період з 2015 по 2017 рік. Інновація зберегла б студії ціле стан: ScriptBook визначив 22 з 32 фільмів, які провалилися в прокаті.
Податкова буде безсильна: за які перекази не потрібно сплачувати податки - легальні лазівки
Українцям будуть виплачувати дві пенсії одночасно: хто отримає більше грошей
Клієнти на межі бунту: ПриватБанк стягує комісію за відсутність операцій по карті
Хворі стають здоровими: українцям масово анулюють діагнози - ВЛК закінчується повістками


Однак нереальний анали дуже простий на практиці: користувач ScriptBook завантажує PDF-файл сценарію, і сервіс аналізує його якість за параметрами.
Також ІІ називає цільову аудиторію картини і пророкує касові збори.
Нагадаємо, що Apple незабаром може використовувати LG в якості альтернативного постачальника для своїх OLED-панелей, які використовуються в пристроях iPhone X.
Компанія LG в якості вторинного постачальника допоможе прискорювачам OLED-технологій з технологічним гігантом швидше створювати свої девайси, при цьому скоротивши витрати. Раніше Apple покладалася виключно на Samsung, для поставки OLED-дисплеїв, однак компанія зажадала занадто велику суму за свої послуги.
Раніше портал "Знай.uа" повідомив, що голова лондонської поліції Крессида Дік заявив, що влада не очікують великої кількості арештів від технології розпізнавання осіб в столиці Великобританії, і лише 2 відсотки точності системи їх влаштовує.
Лондон — одне з міст Великобританії, де тестується технологія розпізнавання осіб (AFR) на публічних заходах, концертах, фестивалях і навіть футбольних матчах.
Однак недосконалість системи дозволяє розпізнавати правильно лише 2% осіб, інші випадки є помилковими, оскільки система неправильно ідентифікує людей, і навіть злочинців не вдається зловити.
Громадська організація Big Brother Watch відзначає, що технологія розпізнавання осіб розгорнута без належних для цього публічних дебатів. Організація запевняє, що така система може перетворити всі громадські місця у біометричні контрольно-пропускні пункти.