Ученые взвесили совесть водителей, чтобы усовестить ИИ
Представьте, что автомобиль без водителя должен выбрать между двумя плохими вариантами — как его научить не ошибаться?

Ученые придумали, как изучать моральный выбор водителей за рулем, чтобы научить искусственный интеллект в беспилотных автомобилях принимать этичные решения.
Для проверки метода они пригласили самых строгих критиков — философов.
Результаты опубликованы в издании Frontiers in Psychology.
Люди редко садятся за руль с намерением причинить вред, — говорит Велько Дублевич, автор исследования и профессор программы «Наука, технология и общество» в Университете Северной Каролины. — Аварии обычно происходят из-за мелких решений: проехать на желтый, превысить скорость на 5 км/ч или не остановиться перед знаком. Как мы принимаем такие решения? И что вообще делает их моральными?
Чтобы собрать данные для обучения ИИ, ученые разработали методику на основе модели Агент-Действие-Последствие.
Она учитывает три фактора:
- Агент — мотивы и характер человека;
- Действие — что именно он сделал;
- Последствие — к чему это привело.
Участникам (в этом случае — 274 философам с учеными степенями) предлагали разные дорожные ситуации и спрашивали, насколько моральными были решения водителей.
При этом у каждого философа был свой подход к этике:
- Утилитаристы оценивали последствия;
- Деонтологи смотрели на соблюдение правил;
- Сторонники этики добродетелей — на характер человека.
Утилитаризм — этическая теория, где решение считается моральным, если приносит максимум пользы для максимального числа людей. Например, если беспилотник жертвует одним человеком, чтобы спасти пятерых, это утилитарный выбор.
Но результат удивил: все сошлись во мнениях, несмотря на разницу в подходах. Это значит, метод работает и его можно применять шире.
Что следует сделать дальше? Тестировать на разных культурах и языках, чтобы понять, насколько универсальны эти принципы.
Главная ценность — в создании объективной базы для обучения ИИ. Сейчас алгоритмы учатся на данных, но если эти данные не учитывают моральные нюансы, беспилотники могут принимать спорные решения (например, жертвовать пешеходом ради спасения пассажиров). Методика позволяет:
- Собирать единые стандарты морального выбора;
- Избежать культурных перекосов (если тестировать в разных странах);
- Снизить хаос в регулировании — законы для автономных машин пока размыты.
Отметим, что философы — не лучшая выборка для валидации. Они профессионально анализируют абстракции, но обычные водители принимают решения интуитивно, под давлением стресса. Без тестов на реальных участниках движения данные могут оказаться слишком «стерильными».
Ранее ученые заявили, что дорожная разметка — не главный элемент дорожной безопасности.



















