ИИ на подкастах: как болтовня ученых делает машины умнее
Что, если ИИ сможет учиться не только на книгах, но и на живых обсуждениях ученых?

Генеративный искусственный интеллект, особенно большие языковые модели (LLM), изменил подход к анализу данных и созданию текстов. Эти модели учатся на огромных массивах информации и выдают осмысленные, грамотные ответы — это особенно важно для науки и медицины. Но их возможности в точных и медицинских дисциплинах (STEMM) раскрыты не до конца, особенно когда речь идет о работе с нестандартными данными, например, аудио.
Генеративный ИИ — это программы, которые создают новый контент (текст, изображения, музыку), анализируя огромные объемы данных. Они не просто копируют, а учатся закономерностям и генерируют оригинальные, но правдоподобные результаты.
Ученые из Бостонского университета разработали программу PodGPT, которая учится на научных и медицинских подкастах, чтобы лучше понимать и отвечать на сложные вопросы.
Результаты опубликованы в издании npj Biomedical Innovations.
Мы используем живую речь, а не просто тексты, чтобы модель лучше улавливала контекст и стиль обсуждений в науке, — объясняет Виджая Колалачама, профессор медицины и компьютерных наук.
Команда собрала более 3700 часов подкастов, перевела их в текст и обучила модель. Затем проверили ее на тестах по биологии, математике, медицине и даже на других языках.
Оказалось, что аудиоданные серьезно улучшили понимание и точность ответов.
Это значит, что любые аудиозаписи — лекции, интервью — можно использовать для обучения ИИ. А еще это шаг к доступности науки на разных языках, — говорит Колалачама.
По мнению исследователей, такая технология не только упростит доступ к знаниям, но и поможет людям лучше разбираться в медицине, принимать осознанные решения о здоровье.
Модель может помочь в диагностике болезней — от Альцгеймера до рака, — а также в обучении, например, в сфере экологии или эпидемиологии.
Исследование полезно тем, что:
- Улучшает понимание контекста — живая речь из подкастов содержит нюансы, которых нет в учебниках.
- Расширяет доступ к знаниям — можно обучать ИИ на лекциях, даже если они не оцифрованы в текст.
- Помогает в медицине — врачи смогут быстрее получать точные ответы на сложные вопросы.
Но главное — это шаг к более «человечным» алгоритмам, которые говорят не сухим языком справочников, а так, как объясняют эксперты в беседах.
Основная слабость — ограниченность данных. Подкасты часто содержат неструктурированные обсуждения, шумы, субъективные мнения. Если модель начнет воспроизводить ошибки ведущих или гостей, это снизит надежность выводов. Нужна строгая проверка точности.
Ранее ученые выяснили, что большие языковые модели могут ошибаться из-за мелочей в контексте запросов, и потому ИИ-врачам, например, доверять рановато.



















