Лицевой анализ ИИ демонстрирует как расовую, так и гендерную предвзятость
Исследователи из Массачусетского технологического института и Стэнфордского университета обнаружили, как три различные программы анализа лица демонстрируют как смещения полов, так и цвета кожи.
В частности, команда изучила точность показателей распознавания лиц, разбитых по признаку пола и расы. «Исследователи из одной крупной американской технологической компании заявили, что для системы распознавания лиц, которую они разработали, показатель точности составляет более 97 процентов. Но набор данных, используемый для оценки ее производительности, составлялся из более 77 процентов мужчин и более 83 процентов белых». Эта узкая база тестов приводит к более высокой частоте ошибок для всех, кто не является белым или мужчиной.
Чтобы проверить эти системы, исследователь Массачусетского технологического института Джой Буоламвини собрал более 1200 изображений, в которых содержалась большая доля женщин и людей с цветным и закодированным цветом кожи на основе шкалы оттенков кожи Фицпатрика по согласованию с дерматологическим хирургом. После этого Буоламвини проверил системы распознавания лиц своим новым набором данных.
Результаты были полными с точки зрения гендерной классификации. «Для женщин с более темной кожей ... показатели ошибок составили 20,8 %, 34,5 % и 34,7 %», - говорится в релизе. «Но с двумя из систем показатели ошибок для женщин с самой темной кожей в наборе данных ... были еще хуже: 46,5% и 46,8%. По существу, для этих женщин система могла бы также указывать случайный пол».
Наверняка были обвинения в предвзятости в технических алгоритмах ранее, и хорошо известно, что системы распознавания лиц часто не работают также на более темных тонах кожи. Даже с учетом этих данных эти цифры ошеломляют, и важно, чтобы компании, работающие над таким программным обеспечением, учитывали широту разнообразия, существующую в своей пользовательской базе, а не ограничивали себя белыми мужчинами.