Дослідники з Массачусетського технологічного університету і Стенфорда вивчили три популярні комерційні ШІ-алгоритму розпізнавання осіб і виявили в них ознаки сексизму та расизму. Виявилося, що при аналізі фотографій білих чоловіків алгоритми невірно визначали стать лише у 0,8% випадків, а у разі темношкірих жінок — у 34,7%. Подробиці дослідження повідомляє Science Daily.

Джой Буоламвини, провідний автор дослідження, вперше зіткнулася з проблемою упередженості алгоритмів кілька років тому. Для свого аспірантського проекту вона використовувала комерційну програму для розпізнавання осіб. Команда Джой була етнічно і расово строкатою, в ході роботи виявилося, що алгоритм надійно працює тільки з її єдиним білим учасником. Буоламвини, сама темношкіра, спробувала проаналізувати власні фото, і виявилось, що система або зовсім не розпізнає її особу, або невірно визначає стать.

Щоб дослідити подібні помилки систематично, дослідниця зібрала добірку зображень, де темношкірі і жінки були представлені набагато краще, ніж у стандартних тестах, що використовуються для перевірки систем розпізнавання осіб. Всього в добірці було більше 1200 зображень. Потім всі зображення були оцінені по шкалі відтінків шкіри Фіцпатріка.

Популярні новини зараз
Пенсіонери отримають підвищену пенсію: які умови Якою буде погода у травні для українців: чи ховати парасольки та куфайки після квітневих дощів Фруктів не наїмося: який дефіцит чекає Україну Українцям 60+ нададуть грошову допомогу, можна запросити рідних: як подати заявку
Показати ще

Зібрана добірка використовувалася, щоб перевірити три комерційні системи розпізнавання осіб, створені провідними технологічними компаніями. Виявилося, що всі вони набагато точніше працюють з фотографіями білих чоловіків, а у випадку жінок і темношкірих відсоток помилок зростає. Для жінок з темною шкірою — з оцінкою IV, V або VI за шкалою Фіцпатріка — коефіцієнт помилок склав 20,8%, 34,5% та 34,7% відповідно.

Раніше портал "Знай.uа" повідомив, що нейромережа стане "призначати" злочинців.