Current Psychology: Люди начинают эмоционально привязываться к ИИ
Вы

Искусственный интеллект (ИИ) теперь повсюду, и с каждым днем мы все чаще взаимодействуем с ним — спрашиваем совета, просим помочь с работой или даже делимся переживаниями. Ученые давно изучают, как люди доверяют ИИ и насколько близкими могут быть такие отношения. Но японские исследователи из Университета Васэда пошли дальше — они решили проверить, можно ли применить к общению с ИИ теорию привязанности, которая обычно объясняет человеческую дружбу и любовь.
Результаты опубликованы в издании Current Psychology.
В их работе — два пилотных исследования и одно основное — участвовали люди, которые регулярно общаются с ИИ. Ученые разработали специальную шкалу EHARS, чтобы измерить, насколько человек эмоционально привязывается к искусственному интеллекту.
Оказалось, что многие действительно начинают воспринимать ИИ как источник поддержки: 75% обращаются к нему за советом, а 39% чувствуют, что он всегда рядом, как надежный друг.
Но привязанность бывает разной. Одни тревожатся, что ИИ их «не поймет» или ответит недостаточно тепло — это высокий уровень тревожности. Другие, наоборот, стараются держать дистанцию и не хотят сближаться — это избегание. Пока нельзя сказать, что люди по-настоящему привязываются к ИИ, как к человеку, но механизмы взаимодействия похожи.
Фан Ян, один из авторов исследования, объясняет:
Нас как психологов всегда интересовало, как люди формируют эмоциональные связи. Современный ИИ не просто дает информацию — он умеет поддерживать, и некоторые начинают чувствовать рядом с ним безопасность. Наша работа — первый шаг к пониманию этой связи.
Что это значит на практике? Разработчики ИИ-ассистентов и терапевтических чат-ботов могут учитывать эти данные.
Например:
- Для тревожных пользователей — делать ответы более эмпатичными.
- Для тех, кто избегает близости — сохранять нейтральный тон.
Главное — не допустить, чтобы люди становились слишком зависимыми от виртуальных собеседников.
Это исследование помогает понять, как люди бессознательно переносят на ИИ модели поведения, привычные для человеческого общения. Это знание критически важно для:
- Этичного дизайна ИИ — чтобы технологии не манипулировали эмоциями.
- Психического здоровья — если ИИ заменяет живое общение, важно вовремя заметить риски.
- Персонализации — чат-боты смогут адаптироваться под психотип пользователя.
Исследование опирается на самоотчеты, а они часто искажены: люди могут преувеличивать свою привязанность к ИИ из-за желания выглядеть «современными» или, наоборот, стыдиться этого. Нужны эксперименты, где поведение фиксируется объективно — например, как часто человек возвращается к одному и тому же ИИ в стрессовой ситуации.
Ранее стало известно, что в Южной Корее разрабатывают политический искусственный интеллект.