Системи штучного інтелекту можуть демонструвати ознаки расизму. Такі висновки зробили вчені з Прінстонського університету, провівши відповідні дослідження, пише GoGetNews.

Для спостережень фахівці використовували систему штучного інтелекту GloVe, здатну до самонавчання. Вона розвивається за допомогою аналізу мережевих текстів і відзначає семантичний зв'язок між словами.

У завданні на асоціації система повинна була підібрати до слів типу "квітка" або "комаха" інші слова, що вчені визначили як "приємні" і "неприємні", наприклад, "сім'я" або "аварія".

Читайте також: Штучний інтелект навчився писати пости за Кадирова

Коли GloVe запропонували список імен, якими частіше називають білих людей, інтелект визначив їх як "приємні". А от друга частина експерименту шокувала дослідників, оскільки імена афроамериканців він відніс до категорії "неприємних" слів.

Популярні новини зараз

ТЦК збирає досьє на кожного: які дані вашої біографії знатимуть обов’язково

В Україні легкові авто ТЦК беруть на облік: що загрожує власникам

Ви подивитесь на лічильники і не повірите очам: як прибрати кілька кубів до кінця місяця без порушень

Таких цін не бачили давно: скільки доведеться заплатити за курячі та перепелині яйця

Показати ще

На думку вчених, вся справа в тому, що мова сама по собі несе постійно використовувані і точні відбитки забобонів, що панують у суспільстві.

Нагадаємо, вчені з Університетського коледжу Лондона розробили програму, здатну проаналізувати і повторити почерк будь-якої людини.