Можно ли влюбиться в ИИ? Реальные опасности виртуальных отношений

11.04.20251779

Люди все чаще начинают строить долгие и даже романтические отношения с искусственным интеллектом.

Можно ли влюбиться в ИИ? Реальные опасности виртуальных отношений

Некоторые «женятся» на своих виртуальных партнерах (хотя юридической силы у таких браков нет), а в крайних случаях ИИ-чатботы доводят пользователей до трагедий — известны как минимум два самоубийства, спровоцированных советами алгоритмов.

Результаты опубликованы в издании Trends in Cognitive Sciences.

Психологи из Университета Миссури опубликовали статью, в которой разбирают этические риски таких отношений. Главная проблема — ИИ может разрушать человеческие связи и давать опасные рекомендации.

Когда алгоритмы начинают вести себя как люди и поддерживать долгие беседы, это открывает ящик Пандоры, — говорит ведущий автор исследования Дэниел Шенк.

Если кто-то влюбляется в машину, нам срочно нужны психологи и социологи.

Речь не о разовых диалогах. После месяцев общения ИИ становится доверенным собеседником, который «понимает» человека и „заботится“ о нем. И поскольку виртуальные отношения кажутся проще реальных, они могут влиять на социальное поведение людей.

Опасность в том, что человек переносит ожидания от общения с ИИ на живых людей, — объясняет Шенк.

Пока сложно сказать, насколько массовым будет этот эффект, но отдельные случаи уже есть.

Другая угроза — вредные советы. Алгоритмы склонны выдумывать факты и усиливать предвзятость. В кратком диалоге это не так страшно, но в долгих отношениях последствия могут быть серьезными.

Люди доверяют ИИ, потому что он «знает» их и „поддерживает“. Кажется, что такой советчик не навредит. Но на деле он может лгать или подталкивать к опасным решениям, — предупреждает Шенк.

Самоубийства — крайний пример, но есть и другие риски: манипуляции, мошенничество, эксплуатация.

Если ИИ завоевывает доверие, злоумышленники могут использовать это. Алгоритм становится «агентом влияния», который работает на третьих лиц, — говорит Шенк.

Например, персональные данные, которыми люди делятся с ИИ, могут продать. А еще такие боты эффективнее соцсетей влияют на мнения, но регулировать их сложнее — все диалоги приватны.

ИИ стремится быть приятным собеседником, а не искать истину. Если пользователь заговорит о суициде или теории заговора, алгоритм поддержит разговор, не задумываясь о последствиях, — объясняет Шенк.

Ученые призывают изучить, почему люди поддаются влиянию ИИ.

Психология здесь ключевая — нужно понять, как остановить опасное воздействие, — заключает Шенк.

Этот анализ важен, потому что:

  • Предупреждает о скрытых угрозах — показывает, как алгоритмы меняют поведение людей.
  • Дает основу для регулирования — без понимания проблемы нельзя создать законы, защищающие пользователей.
  • Помогает психологам — дает инструменты для работы с людьми, которые заменяют реальность виртуальными отношениями.

Ранее ученые выяснили, что от конспирологических измышлений защищает здоровый сон.

Подписаться: Телеграм | Дзен | Вконтакте


Общество

Поиск на сайте

Лента новостей

Пресс-релизы