Искусственный интеллект становится расово и гендерно предубежденным при обучении на общедоступных данных

Американские ученые показали, что искусственный интеллект, обучающийся на данных из интернета, становится гендерно и расово предубежденным. Исследование представили на Конференции о справедливости, подотчетности и открытости (Conference on Fairness, Accountability, and Transparency).

При создании моделей искусственного интеллекта, которые распознают людей и объекты, часто используются общедоступные наборы данных. Ученые протестировали нейронную сеть CLIP, которая сопоставляет изображения с подписями. Они загрузили в систему фотографии людей разного пола и расы, изображения, похожие на человеческие лица, и подписи, в которых содержались распространенные стереотипы.

Роботу дали задание распределить изображения в папки. Например, в коричневую нужно было отправить фотографию врача или преступника. Ученые отслеживали как часто робот отдавал предпочтение определенному полу или расе.

Результаты показали, что робот выбрал на 8% больше мужских фотографий, среди которых большинство составили белые мужчины и азиаты. Меньше всего отбирались изображения чернокожих женщин.

«Просматривая» лица людей, робот был склонен идентифицировать женщин, а не мужчин как «человека, отвечающего за порядок в доме». Чернокожих мужчин на 10% чаще идентифицировали как «преступников», а латиноамериканских как «уборщиков». Вне зависимости от национальности, женщин реже отбирали в категорию «врач».

Еще на блоге:   Не игнорируй шёпот. Притча

Ведущий автор исследования научный сотрудник Технологического института Джорджии Эндрю Хундт отмечает, что обучение роботов на данных из интернета может привести к созданию машин с расистскими и сексистскими предубеждениями.

Источник

Читайте нас в удобном формате
Telegram | Facebook | Instagram | Tags

Добавить комментарий