Nature Human Behaviour: Заблуждение ИИ усиливает наши собственные заблуждения

18.12.20241227

Системы искусственного интеллекта склонны перенимать человеческие заблуждения и усиливать их, заставляя людей, использующих этот ИИ, становиться еще более предвзятыми, говорится в новом исследовании ученых Калифорнийского университета.

Nature Human Behaviour: Заблуждение ИИ усиливает наши собственные заблуждения

Предвзятость человека и ИИ может создать петлю обратной связи, при этом небольшая изначальная предвзятость увеличивает риск человеческой ошибки, говорится в выводах, опубликованных в журнале Nature Human Behaviour.

Исследователи продемонстрировали, что предвзятость ИИ может иметь последствия в реальном мире: они обнаружили, что люди, взаимодействующие с предвзятыми ИИ, чаще недооценивают успеваемость женщин и переоценивают вероятность того, что белые мужчины будут занимать высокие должности.

Соавтор исследования профессор Тали Шарот (UCL Psychology & Language Sciences, Центр вычислительной психиатрии и исследований старения имени Макса Планка UCL и Массачусетский технологический институт) сказала:

Люди по своей природе предвзяты, поэтому, когда мы обучаем системы искусственного интеллекта на наборах данных, которые были получены людьми, алгоритмы искусственного интеллекта усваивают человеческие предрассудки, заложенные в этих данных. Затем ИИ стремится использовать и усиливать эти предубеждения, чтобы повысить точность прогнозов.

Мы обнаружили, что люди, взаимодействующие с предвзятыми системами ИИ, сами могут стать еще более предвзятыми, создавая потенциальный эффект снежного кома, когда минутные предубеждения в исходных наборах данных усиливаются ИИ, что приводит к усилению предубеждений человека, использующего ИИ.

Исследователи провели серию экспериментов с более чем 1200 участниками, которые выполняли задания и взаимодействовали с системами ИИ.

Перед одним из экспериментов исследователи обучили алгоритм ИИ на наборе данных ответов участников. Людей просили оценить, выглядит ли группа лиц на фотографии счастливой или грустной, и они продемонстрировали небольшую тенденцию оценивать лица как грустные чаще, чем счастливые. ИИ усвоил это предубеждение и усилил его, сделав склонность оценивать лица как грустные более высокой.

Затем другая группа участников выполнила то же задание, но им также сообщили, какое суждение вынес ИИ по каждой фотографии. После некоторого взаимодействия с системой ИИ эта группа людей усвоила предвзятость ИИ и с еще большей вероятностью говорила, что лица выглядят грустными, чем до взаимодействия с ИИ. Это свидетельствует о том, что ИИ усвоил предвзятость из набора данных, полученных от человека, а затем усилил предвзятость, присущую другой группе людей.

Исследователи обнаружили аналогичные результаты в экспериментах с использованием совершенно разных задач, включая оценку направления движения набора точек по экрану или, что особенно важно, оценку выполнения задания другим человеком. При этом люди были особенно склонны переоценивать результаты мужчин после взаимодействия с предвзятой системой ИИ (которая была создана с присущим ей гендерным предубеждением, чтобы имитировать предубеждения многих существующих ИИ). Участники, как правило, не знали о степени влияния ИИ.

Когда людям ложно говорили, что они взаимодействуют с другим человеком, а на самом деле они взаимодействовали с ИИ, они усваивали предвзятость в меньшей степени, что, по мнению исследователей, может быть связано с тем, что люди ожидают от ИИ большей точности, чем от человека, при решении некоторых задач.

Исследователи также провели эксперименты с широко используемой системой генеративного ИИ Stable Diffusion. В одном из экспериментов исследователи попросили ИИ сгенерировать фотографии финансовых менеджеров, что дало необъективные результаты, так как белые мужчины были представлены в большем количестве, чем их реальная доля. Затем они попросили участников исследования просмотреть серию фотографий голов и выбрать, кто из них с наибольшей вероятностью является финансовым менеджером, до и после того, как им были представлены изображения, сгенерированные ИИ. Исследователи обнаружили, что после просмотра изображений, созданных Stable Diffusion, участники были более склонны указывать, что белый мужчина с наибольшей вероятностью является финансовым менеджером, чем до этого.

Соавтор исследования доктор Моше Гликман (UCL Psychology & Language Sciences и Max Planck UCL Centre for Computational Psychiatry and Ageing Research) сказал:

Не только предвзятые люди способствуют созданию предвзятых ИИ, но и предвзятые системы ИИ могут изменить собственные убеждения людей, так что люди, использующие инструменты ИИ, могут стать более предвзятыми в самых разных областях — от социальных суждений до базового восприятия.

Однако важно отметить, что взаимодействие с точными ИИ может улучшить суждения людей, поэтому очень важно, чтобы системы ИИ были максимально беспристрастными и точными.

Профессор Шарот добавил:

Разработчики алгоритмов несут большую ответственность за создание систем ИИ; влияние предвзятости ИИ может иметь глубокие последствия, поскольку ИИ становится все более распространенным во многих аспектах нашей жизни.

Ранее ученые выяснили, насколько этичным считают использование ИИ в мире.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы