Учені попередили про небезпеку використання штучного інтелекту при створенні бойової техніки і новітніх систем озброєння. Більше тисячі інженерів і дослідників підписали відкритий лист про це.
"Якщо яка-небудь велика військова держава спробує вирватися вперед у розвитку зброї з штучним інтелектом, то глобальна гонка озброєнь практично неминуча. Кінцева точка цієї технологічної траєкторії очевидна: автономна зброя стане завтрашнім "Калашниковим", — наголосили вчені у своєму зверненні.
Автори листа закликають відмовитися від використання штучного інтелекту при створенні бойової техніки. Вони попереджають, що гонка подібних озброєнь призведе до непередбачуваних наслідків.
Читайте також: Вчені навчили робота-водоміра стрибати по воді (відео)
Питання про створення бойових роботів обговорювалося в ООН. Міжнародна організація розглядає можливість заборони певних типів автономних бойових систем.
Пенсію зменшать або призупинять: які пенсіонери у зоні ризику
ПриватБанк скасовує знижки: скільки доведеться платити за грошові перекази
Перевірять кожного по 10 разів: мобілізацію та перевірки хочуть посилити
Оцифрування трудових книжок веде до втрати стажу: Пенсійний фонд не враховує роки праці
Багато відомих людей підписали листа. Серед них, відомий фізик і космолог Стівен Хокінг, підприємець Елон Маск і один із засновників компанії Apple Стів Возняк.
Документ планується передати делегатам міжнародної конференції по штучному інтелекту в Буенос-Айресі.