Дослідники з Массачусетського технологічного університету і Стенфорда вивчили три популярні комерційні ШІ-алгоритму розпізнавання осіб і виявили в них ознаки сексизму та расизму. Виявилося, що при аналізі фотографій білих чоловіків алгоритми невірно визначали стать лише у 0,8% випадків, а у разі темношкірих жінок — у 34,7%. Подробиці дослідження повідомляє Science Daily.

Джой Буоламвини, провідний автор дослідження, вперше зіткнулася з проблемою упередженості алгоритмів кілька років тому. Для свого аспірантського проекту вона використовувала комерційну програму для розпізнавання осіб. Команда Джой була етнічно і расово строкатою, в ході роботи виявилося, що алгоритм надійно працює тільки з її єдиним білим учасником. Буоламвини, сама темношкіра, спробувала проаналізувати власні фото, і виявилось, що система або зовсім не розпізнає її особу, або невірно визначає стать.

Щоб дослідити подібні помилки систематично, дослідниця зібрала добірку зображень, де темношкірі і жінки були представлені набагато краще, ніж у стандартних тестах, що використовуються для перевірки систем розпізнавання осіб. Всього в добірці було більше 1200 зображень. Потім всі зображення були оцінені по шкалі відтінків шкіри Фіцпатріка.

Популярні новини зараз

Дають лише 3 дні: в Україні змінилися правила повісток поштою, що це змінює для чоловіків

Податкова перевіряє українців за кордоном: що вже відомо

Українцям виплатять по 4 500 гривень: кому пощастить отримати допомогу

Українців попередили про три місяці без пенсії: у кого будуть проблеми з ПФУ

Показати ще

Зібрана добірка використовувалася, щоб перевірити три комерційні системи розпізнавання осіб, створені провідними технологічними компаніями. Виявилося, що всі вони набагато точніше працюють з фотографіями білих чоловіків, а у випадку жінок і темношкірих відсоток помилок зростає. Для жінок з темною шкірою — з оцінкою IV, V або VI за шкалою Фіцпатріка — коефіцієнт помилок склав 20,8%, 34,5% та 34,7% відповідно.

Раніше портал "Знай.uа" повідомив, що нейромережа стане "призначати" злочинців.