ИИ не создает неравенство — он учится ему у нас
Исследователи говорят, что предвзятость ИИ — это не просто техническая ошибка, а отражение неравенства в обществе. ИИ учится на данных, которые создают люди, а люди часто действуют с предубеждениями. В итоге ИИ не создает неравенство, а повторяет и усиливает его.
Результаты опубликованы в Technological Forecasting and Social Change.
Наше исследование показывает, как ИИ может усугублять существующие проблемы, — говорит профессор Биркан.
Например, Amazon использовал ИИ для найма сотрудников, и система отдавала предпочтение мужчинам. Это усилило гендерное неравенство. Другой пример — государственные системы, которые ищут мошенников. Они часто ошибочно обвиняют семьи мигрантов, что приводит к серьезным последствиям. Эти случаи показывают: если ИИ не контролировать, он будет усиливать дискриминацию, а не бороться с ней. Без прозрачности и ответственности ИИ станет инструментом, который поддерживает неравенство, а не разрушает его.
ИИ создается в сложной системе, где компании, разработчики и политики решают, как его использовать. От их решений зависит, станет ли ИИ инструментом для справедливости или усилит неравенство. ИИ работает на основе данных, которые отражают предубеждения общества. Это влияет на важные сферы: найм на работу, работу полиции, распределение социальной помощи. Профессор Биркан подчеркивает: управление ИИ должно выйти за рамки технологических компаний. Поскольку ИИ использует данные, созданные людьми, важно, чтобы его разработка и регулирование были прозрачными и учитывали интересы всех. Иначе ИИ будет только увеличивать разрыв между людьми.
Но исследование дает надежду.
Мы не должны мириться с недостатками ИИ, — говорит профессор Биркан.
Нужно создавать правила, которые помогут ИИ работать на справедливость, а не против нее. Если мы с самого начала сделаем ИИ честным и ответственным, он сможет стать инструментом для позитивных изменений, а не для усиления неравенства.
Ранее ученые сообщили, что ИИ помогает прогнозировать исход хоккейных матчей.