Исследователи из Массачусетского технологического университета и Стэнфорда изучили три популярные коммерческие ИИ-алгоритма распознавания лиц и выявили в них признаки сексизма и расизма. Оказалось, что при анализе фотографий белых мужчин алгоритмы неверно определяли пол только в 0,8% случаев, а в случае темнокожих женщин — в 34,7%. Подробности исследования сообщает Science Daily.
Подпишись на наш Viber: новости, юмор и развлечения!
Подписаться
Джой Буоламвини, ведущий автор исследования, впервые столкнулась с проблемой предвзятости алгоритмов несколько лет назад. Для своего аспирантского проекта она использовала коммерческую программу для распознавания лиц. Команда Джой была этнически и расово пестрой, в ходе работы оказалось, что алгоритм надежно работает только с ее единственным белым участником. Буоламвини, сама темнокожая, попыталась проанализировать собственные фото, и оказалось, что система либо вовсе не распознает ее лицо, либо неверно определяет пол.
Чтобы исследовать подобные ошибки систематически, исследовательница собрала подборку изображений, где темнокожие и женщины были представлены намного лучше, чем в стандартных тестах, используемых для проверки систем распознавания лиц. Всего в подборке было более 1200 изображений. Затем все изображения были оценены по шкале оттенков кожи Фицпатрика.
Собранная подборка использовалась, чтобы проверить три коммерческие системы распознавания лиц, созданные ведущими технологическими корпорациями. Оказалось, что все они намного точнее работают с фотографиями белых мужчин, а в случае женщин и темнокожих процент ошибок растет. Для женщин с темной кожей — с оценкой IV, V или VI по шкале Фицпатрика — коэффициент ошибок составил 20,8%, 34,5% процента и 34,7% соответственно.
Ранее портал "Знай.ua" сообщил, что нейросеть станет "назначать" преступников.