JAMA Oncology: ChatGPT еще не готов заменить врачей-онкологов
Когда исследователи попросили чатбот назначить лечение, то правильные и неправильные рекомендации смешивались в трети ответов, что затрудняло выявление ошибок.

Для многих пациентов Интернет служит мощным инструментом самообразования по медицинским вопросам. Поскольку ChatGPT теперь находится у пациентов под рукой, исследователи из больницы Brigham and Women's Hospital, являющейся одним из основателей системы здравоохранения Mass General Brigham, проанализировали, насколько последовательно чат-бот с искусственным интеллектом дает рекомендации по лечению рака, соответствующие рекомендациям Национальной комплексной онкологической сети (National Comprehensive Cancer Network, NCCN). Результаты исследования, опубликованные в журнале JAMA Oncology, свидетельствуют о том, что примерно в трети случаев ChatGPT 3.5 давал неадекватные ( «несогласованные») рекомендации, что подчеркивает необходимость информирования пациентов об ограничениях этой технологии.
Пациенты должны чувствовать себя вправе самостоятельно просвещаться относительно своих медицинских состояний, но они всегда должны обсуждать их с врачом, а ресурсы в Интернете не должны использоваться изолированно, — сказал автор соответствующего исследования Даниэль Биттерман, доктор медицины, сотрудник отделения радиационной онкологии и программы искусственного интеллекта в медицине (AIM) клиники Mass General Brigham.
Ответы ChatGPT могут звучать очень похоже на человеческие и быть весьма убедительными. Но когда речь идет о принятии клинических решений, существует очень много тонкостей, связанных с уникальной ситуацией каждого пациента. Правильный ответ может быть очень тонким и не всегда может быть получен с помощью ChatGPT или другой большой языковой модели.
Появление инструментов искусственного интеллекта в здравоохранении стало революционным и способно позитивно изменить весь процесс оказания медицинской помощи. Mass General Brigham, являясь одной из ведущих интегрированных академических систем здравоохранения и крупнейшим инновационным предприятием страны, играет ведущую роль в проведении тщательных исследований новых и новейших технологий, чтобы обеспечить ответственное внедрение искусственного интеллекта в оказание медицинской помощи, поддержку персонала и административные процессы.
Хотя на принятие врачебных решений может влиять множество факторов, Биттерман и его коллеги решили оценить, насколько рекомендации ChatGPT соответствуют рекомендациям NCCN, которые используются врачами в учреждениях по всей стране. Они сосредоточили внимание на трех наиболее распространенных видах рака (рак молочной железы, рак простаты и рак легкого) и предложили ChatGPT предложить подход к лечению каждого вида рака в зависимости от степени тяжести заболевания. В общей сложности исследователи включили 26 уникальных описаний диагнозов и использовали четыре несколько отличающихся друг от друга запроса к ChatGPT о подходе к лечению, в результате чего было получено 104 запроса.
Почти все ответы (98%) включали по крайней мере один подход к лечению, согласующийся с рекомендациями NCCN. Однако 34% ответов содержали также одну или несколько несогласованных рекомендаций, которые иногда было трудно обнаружить на фоне других рекомендаций. Под несогласованными рекомендациями понимались те, которые были верны лишь частично; например, при местно-распространенном раке молочной железы рекомендовалось только хирургическое вмешательство без упоминания других методов лечения. Примечательно, что полное согласие в оценках имело место только в 62% случаев, что свидетельствует как о сложности самих рекомендаций NCCN, так и о том, что результаты работы ChatGPT могут быть нечеткими или сложными для интерпретации.
В 12,5% случаев ChatGPT выдавал «галлюцинации», или рекомендации по лечению, полностью отсутствующие в рекомендациях NCCN. К ним относились рекомендации по применению новых методов лечения или лечебной терапии при некурабельных формах рака. Авторы подчеркнули, что такая форма дезинформации может неверно формировать ожидания пациентов в отношении лечения и потенциально влиять на взаимоотношения между врачом и пациентом.
В дальнейшем исследователи изучают, насколько хорошо пациенты и врачи могут отличить медицинские рекомендации, написанные врачом, от большой языковой модели, подобной ChatGPT. Кроме того, для дальнейшей оценки клинических знаний ChatGPT они предлагают более подробные клинические случаи.
Авторы использовали GPT-3.5-turbo-0301, одну из самых больших моделей, доступных на момент проведения исследования, и класс моделей, который в настоящее время используется в открытой версии ChatGPT (более новая версия, GPT-4, доступна только при платной подписке). Также использовались рекомендации NCCN от 2021 года, поскольку GPT-3.5-turbo-0301 был разработан на основе данных до сентября 2021 года. Хотя результаты могут отличаться при использовании других моделей и/или клинических рекомендаций, исследователи подчеркивают, что многие языковые модели схожи по способу построения и ограничениям, которыми они обладают.
Вопрос о том, насколько языковые модели обеспечивают последовательные логические ответы, остается открытым, поскольку часто наблюдаются галлюцинации, или ложные, выдуманные ответы, — заключает первый автор исследования Шань Чен (Shan Chen), MS, из программы AIM.
Пользователи, скорее всего, будут искать ответы у языковых моделей для самообразования по вопросам, связанным со здоровьем, — подобно тому, как используется поиск в Google. В то же время нам необходимо повышать осведомленность о том, что чатботы и другие языковые модели не могут заменить квалифицированных медиков.
.



















