ООН провела в Женеве обсуждение проблемы автономного оружия. Целью встречи была разработка правил, которые бы делали невозможным применение роботов-убийц на войне. Однако, эксперты выразили сомнения по поводу того, будут ли террористы придерживаться этих правил.

Итогом недельного обсуждения стал доклад об опасности применения террористами боевых роботов. По мнению части специалистов, использование роботов на поле боя сможет уменьшить количество жертв. Однако, в критических ситуациях люди должны брать контроль на себя, считают эксперты. Участники обсуждения считают применение роботов без человеческого контроля неприемлемым. Так же как и перекладывание ответственности за здоровье и жизнь человека на роботов.

Проблема автономного оружия все чаще становится темой для обсуждения. В прошлом году более тысячи специалистов по робототехнике и технологиях, включая Стивена Хокинга, Илона Маска и Стива Возняка, предупредили, что автономное оружие может появиться уже в ближайшие годы, а не в течение десятилетий, как считалось ранее. В своем открытом письме они отметили, что глобальная гонка вооружений практически неизбежна. А ее итогом станет то, что автономное оружие превратят в автомат Калашникова завтрашнего дня.

Разработкой автономного оружия, по данным лондонской организаци Campaign to Stop Killer Robots, сегодня занимаются США, Китай, Израиль, Южная Корея, Россия и Великобритания.

Читайте также: Стивен Хокинг опасается восстания машин

Популярные статьи сейчас

Пенсии повысятся почти на 600 гривен: у кого и при каком условии

ТЦК лупят с уклонистов миллионы: фиктивные повестки, "обновление данных", служба по блату

Уклонистам запустят новое ограничение: тысячи мужчин подвергнутся наказанию

Показатели счетчиков не будут принимать: платить придется по другому принципу

Показать еще

Напомним, что недавно известный популяризатор науки Стивен Хокинг в интервью Ларри Кингу рассказал о своих опасениях относительно "гонки вооружений" искусственного интеллекта. Ученый считает, что допустить сосуществование с людьми искусственного интеллекта можно только в том случае, если он не сможет причинить человечеству вреда.

Ученые из DeepMind (подразделение Google, которое занимается разработкой ИИ) и специалисты из Оксфордского университета разрабатывают "красную кнопку" для устройств с алгоритмами ИИ, которая смогла бы в экстренных ситуациях их отключить.