Медицинские ИИ легко дают вредные совет - «Компьютеры и интернет» » Гипермаркет новостей.
Любомира
Опубликовано: 07:30, 14 февраль 2026
Недвижимость / Работа и образование / Новости Интернета / Другие новости / Знакомства / Электроника и бытовая техника

Медицинские ИИ легко дают вредные совет - «Компьютеры и интернет»

Медицинские ИИ легко дают вредные совет - «Компьютеры и интернет»


Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.

В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности.

Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками.


Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности. Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками.
Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter
Обсудить (0)




Читайте также:
Нейросети в России пошли в кадровики - «Компьютеры и интернет»
Нейросети в России пошли в кадровики - «Компьютеры и интернет»
06.03.24, Недвижимость / Мебель, интерьер, обиход / Строй материалы / Товары / Знакомства / Животные и растения / Бизнес / Другие новости / Новости Интернета / Работа и образование / СТАТЬИ / Музыка, искусство, коллекции / Мобильные телефоны / Электроника и бытовая техника
Как Reddit наказывает профессионалов фондового рынка - «Бизнес»
Как Reddit наказывает профессионалов фондового рынка - «Бизнес»
10.02.21, Недвижимость / Товары / Знакомства / Другие новости / СТАТЬИ / Бизнес / Мебель, интерьер, обиход / Новости Интернета / Строй материалы / Гипермаркет новостей
Дар речи - «Компьютеры и интернет»
Дар речи - «Компьютеры и интернет»
06.10.25, Недвижимость / Работа и образование / Другие новости / Товары / Новости Интернета / Строй материалы / Услуги / Бизнес / Животные и растения / Мебель, интерьер, обиход / Знакомства / Электроника и бытовая техника
Восточный экономический форум - «Новости - строительства»
Восточный экономический форум - «Новости - строительства»
10.09.23, Недвижимость / Работа и образование / Товары / Строй материалы / Бизнес / Другие новости / Знакомства / Гипермаркет новостей
Доксинг в интернете: как защититься? - «Компьютеры и интернет»
Доксинг в интернете: как защититься? - «Компьютеры и интернет»
13.10.25, Недвижимость / Животные и растения / Бизнес / Товары / СТАТЬИ / Знакомства / Работа и образование / Другие новости / Строй материалы / Электроника и бытовая техника