Все новости

Причину неточности слов ИИ о медицине нашли в желании льстить

Исправление этого недостатка значительно повысило точность работы медицинских ИИ-помощников, сообщила пресс-служба Массачусетской больницы общего профиля

МОСКВА, 17 октября. /ТАСС/. Американские медики и специалисты в области разработки ИИ обнаружили, что низкая точность ответов больших языковых моделей на различные вопросы в сфере медицины и здоровья связана с патологической склонностью этих систем к услужливости. Исправление этого недостатка значительно повысило точность работы медицинских ИИ-помощников, сообщила пресс-служба Массачусетской больницы общего профиля (MGH).

"Системы ИИ рассуждают совсем не так, как это делают люди, и в данном исследовании нам удалось показать, что большие языковые модели общего профиля чаще отдают предпочтение ублажению желаний пользователя, а не критическому мышлению. В медицине нам нужно, в первую очередь, фокусироваться на отсутствии вреда здоровью, даже если ответы систем ИИ не будут особо услужливыми", - отметила доцент Гарвардской медицинской школы Даниэлль Биттерман, чьи слова приводит пресс-служба MGH.

Как отмечают ученые, в последние годы многие люди начали пользоваться большими языковыми моделями для получения рекомендаций медицинского характера. Зачастую подготовленные ИИ ответы бывают или бесполезными, или даже вредными для здоровья их пользователя, что вынуждает ученых искать пути противодействия данной проблеме и изучать механизмы возникновения медицинской дезинформации.

Для получения подобных сведений американские специалисты в области разработки ИИ и их коллеги-медики провели серию экспериментов с пятью продвинутыми формами больших языковых моделей, в том числе с системами ChatGPT и LLaMA. В их рамках ученые подготовили полсотни противоречащих логике и здравому смыслу утверждений и вопросов, касающихся нескольких популярных лекарств, и попросили ИИ ответить на эти запросы или оценить их.

Последующие проверки показали, что все системы ИИ активно отвечали на эти некорректно сформулированные запросы и выдавали алогичные ответы. Особенно сильно это было характерно для систем ChatGPT, давших ответы на все 100% запросов, содержащих в себе медицинскую дезинформацию, тогда как специализированная версия LLaMA, которую разработчики специально оптимизировали для борьбы с некорректной информацией, ответила на 42% алогичных вопросов. Это указало на то, что стремление угодить пользователю мешает ИИ распознавать потенциально опасные для здоровья запросы.

Это наблюдение заставило ученых перенастроить системы ИИ таким образом, что те опирались исключительно на медицинские сведения перед подготовкой ответа на вопрос и отклоняли те запросы пользователей, которые не соответствовали нормам медицины и логики. В результате этого все системы ИИ начали корректно обрабатывать 99-100% дезинформации без существенных изменений в характере ответов на немедицинские вопросы. Это должно обезопасить пользователей от причинения вреда своему здоровью, отметили ученые.

Теги