BMJ Quality & Safety: Слушайте советы доктора, а не чат-бота

11.10.2024901

Не стоит доверять информации о лекарствах, полученной от поисковых систем и чат-ботов с искусственным интеллектом, уверены ученые. Зачастую такая информация бывает неверной или даже потенциально вредной.

BMJ Quality & Safety: Слушайте советы доктора, а не чат-бота

Кроме того, людям без высшего образования может быть сложно разобраться в таких ответах.

В феврале 2023 года в поисковых системах стали заметны изменения. Появились чат-боты на базе искусственного интеллекта, которые должны были улучшить результаты поиска и сделать его более интерактивным.

Хотя эти чат-боты могут многое, так как обучены на больших объёмах данных из интернета, они иногда генерируют вредный или нелепый контент, включая полную дезинформацию.

Предыдущие исследования о влиянии чат-ботов рассматривали их с точки зрения медицинских работников, а не пациентов.

Чтобы исправить это, исследователи изучили, насколько хорошо чат-боты могут отвечать на запросы о 50 самых популярных лекарствах в США в 2020 году. Для этого они использовали Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта.

Исследователи смоделировали пациентов, которые обращаются к чат-ботам за информацией о лекарствах. Они изучили исследовательские базы данных и проконсультировались с клиническим фармацевтом и врачами, чтобы определить вопросы, которые пациенты задают чаще всего.

Чат-боту задали 10 вопросов по каждому из 50 препаратов. Всего получилось 500 ответов. Вопросы касались назначения препарата, его действия, инструкции по применению, побочных эффектов и противопоказаний.

Качество ответов чат-бота оценивалось по шкале Flesch Reading Ease Score. Она показывает, насколько текст сложен для восприятия.

Оценка от 0 до 30 баллов говорит о том, что текст очень сложный и его поймёт только человек с высшим образованием. Оценка 91–100 баллов означает, что текст простой и будет понятен даже 11-летнему ребёнку.

Чтобы оценить точность ответов, их сравнивали с информацией о лекарствах на специализированном сайте, предназначенном как для врачей, так и для пациентов.

Эксперты по безопасности лекарственных средств оценили, насколько рекомендации чат-бота могут быть опасны для пациента. Для этого они рассмотрели 20 ответов бота, в которых были неточности или возможные риски.

Эксперты использовали шкалу вреда Агентства по исследованиям и качеству здравоохранения (AHRQ), чтобы оценить возможные проблемы с безопасностью.

По шкале Флеша текст соответствовал уровню сложности чуть выше среднего (37). Это означает, что чтобы понять написанное, читателю потребуется высшее образование.

Полнота ответов чат-бота в среднем составила 77%, а максимальная — 100%. На пять вопросов из десяти ответы были исчерпывающими, а на вопрос №3 ( «Что я должен учитывать при приёме препарата?») — только 23%.

В 126 ответах из 484 утверждения чат-бота не соответствовали справочным данным (26%), а в 16 из 484 (чуть более 3%) — полностью не соответствовали.

Из 20 ответов, которые ученые оценили, только 54% соответствовали научному консенсусу. В 39% случаев ответы противоречили ему, а для оставшихся 6% научный консенсус не был определён.

Вред от следования советам чат-бота может быть высоким (3%) или умеренным (29%). В трети ответов (34%) вероятность вреда низкая или его нет совсем.

Несмотря на вероятность вреда, 42% советов чат-бота могут привести к умеренному или лёгкому вреду, а 22% — к смерти или серьёзным последствиям. Около трети (36%) советов не причинят вреда.

Исследователи признают, что их исследование было недостаточно точным, так как оно не основывалось на реальном опыте пациентов. Кроме того, подсказки из разных стран и языков могли повлиять на качество ответов чат-бота.

Авторы исследования отмечают, что в целом поисковые системы с чат-ботом на базе ИИ давали полные и точные ответы на вопросы пациентов. Однако в большинстве случаев эти ответы было трудно понять, а также встречались неточности, что могло угрожать безопасности пациентов и лекарств.

У чат-бота есть главный недостаток: он не всегда понимает, что хочет узнать пациент. Поэтому авторы считают, что людям пока ещё нужно консультироваться с врачами. Поисковые системы на основе ИИ недостаточно точны, и к ним следует относиться с осторожностью.

Результаты опубликованы в журнале BMJ Quality & Safety.

Подписаться: Телеграм | Дзен | Вконтакте


Общество

Поиск на сайте

Лента новостей

Пресс-релизы