Исследование выявляет подводные камни и возможности генеративного ИИ в системах обмена сообщениями с пациентами»/></p> <p> Фото: Pixabay/CC0 Public Domain </p> <p>Новое исследование исследователей из Mass General Brigham демонстрирует, что большие языковые модели (LLM), тип генеративного искусственного интеллекта, могут помочь снизить рабочую нагрузку врача. и улучшить обучение пациентов при их использовании для составления ответов на сообщения пациентов.</p> <p>Исследование также выявило ограничения LLM, которые могут повлиять на безопасность пациентов, что позволяет предположить, что бдительный надзор за сообщениями, генерируемыми LLM, необходим для безопасного использования. Результаты, опубликованные в <i>Журнал Lancet Digital Health</i> подчеркивает необходимость взвешенного подхода к внедрению LLM.</p> <p>Растущие административные и документальные обязанности привели к увеличению выгорания врачей. Чтобы упростить и автоматизировать рабочие процессы врачей, поставщики электронных медицинских карт (EHR) внедрили генеративные алгоритмы искусственного интеллекта, которые помогают врачам составлять сообщения для пациентов; однако эффективность, безопасность и клиническое воздействие их использования были неизвестны.</p> <p>«Генераторный ИИ потенциально может обеспечить «лучшее из обоих миров» сценарий снижения нагрузки на врача и лучшего обучения пациента в процессе», — сказала соавтор Даниэль Биттерман, доктор медицинских наук, преподаватель кафедры искусственного интеллекта в медицине. AIM) в больнице Mass General Brigham и врачом отделения радиационной онкологии в Brigham and Women's Hospital.</p> <p>«Однако, исходя из опыта нашей команды в работе с LLM, у нас есть опасения по поводу потенциальных рисков, связанных с интеграцией LLM в системы обмена сообщениями. Поскольку интеграция LLM в EHR становится все более распространенной, нашей целью в этом исследовании было выявить соответствующие преимущества и недостатки. «</p> <p>Для исследования исследователи использовали GPT-4 OpenAI, основополагающий LLM, для создания 100 сценариев о пациентах с раком и сопутствующих вопросов для пациентов. В исследовании не использовались вопросы реальных пациентов. Шесть радиационных онкологов вручную отвечали на вопросы; затем GPT-4 генерировал ответы на вопросы.</p> <p>Наконец, тем же радиационным онкологам были предоставлены ответы, сгенерированные LLM, для просмотра и редактирования. Онкологи-радиологи не знали, написал ли ответы GPT-4 или человек, и в 31% случаев считали, что ответ, сгенерированный LLM, был написан человеком.</p> <p>В среднем ответы, подготовленные врачом, были короче, чем ответы, полученные с помощью LLM. GPT-4, как правило, включал больше образовательной информации для пациентов, но был менее директивным в своих инструкциях. Врачи сообщили, что LLM-помощь повысила их воспринимаемую эффективность и сочли ответы, сгенерированные LLM, безопасными в 82,1% случаев и приемлемыми для отправки пациенту без дальнейшего редактирования в 58,3% случаев.</p> <p>Исследователи также выявили некоторые недостатки: если оставить их без редактирования, 7,1% ответов, генерируемых LLM, могут представлять риск для пациента, а 0,6% ответов могут представлять риск смерти, чаще всего потому, что ответ GPT-4 не смог срочно проинструктировать пациента. обратиться за немедленной медицинской помощью.</p> <p>Примечательно, что ответы, сгенерированные LLM/отредактированные врачом, были более похожи по длине и содержанию на ответы, сгенерированные LLM, по сравнению с ответами, полученными вручную. Во многих случаях врачи сохраняли образовательный контент, созданный LLM, что свидетельствует о том, что они считали его ценным. Хотя это может способствовать обучению пациентов, исследователи подчеркивают, что чрезмерное доверие к программам LLM также может создавать риски, учитывая их продемонстрированные недостатки.</p> <p>В дальнейшем авторы исследования изучают, как пациенты воспринимают общение на основе LLM и как расовые и демографические характеристики пациентов влияют на ответы, генерируемые LLM, на основе известных алгоритмических предубеждений в LLM.</p> <p>«Сохранение человека в рамках LLM». цикл — это важный шаг безопасности, когда дело доходит до использования ИИ в медицине, но это не единственное решение», — сказал Биттерман.</p> <p>«Поскольку поставщики услуг больше полагаются на LLM, мы можем упустить ошибки, которые могут привести к Это исследование демонстрирует необходимость систем мониторинга качества LLM, обучения врачей правильному контролю результатов LLM, повышения грамотности в области искусственного интеллекта как пациентов, так и врачей, а также на фундаментальном уровне лучшего понимания того, как решать проблемы. ошибки, которые допускают студенты LLM».</p> <p><strong>Дополнительная информация:</strong> Chen, S et al. Эффект использования большой языковой модели для ответа на сообщения пациентов, <i>The Lancet Digital Health</i> (2024). DOI: 10.1016/S2589-7500(24)00060-8/Предоставлено генералом Массачусетса Бригамом.</p> </div> <footer> <div class=