Январь 2026   |   Обзор события   | 6

ИИ в медицине: доверие против галлюцинаций и этических рисков

Врачи всё чаще сталкиваются с неточной медицинской информацией, полученной пациентами в результате использования ИИ. Компании разрабатывают специализированные версии ИИ для здравоохранения, чтобы повысить безопасность и точность консультаций, но остаются вопросы по защите данных и ответственности технологических компаний.

ИСХОДНЫЙ НАРРАТИВ

Врачи и ИИ: новая эра цифровой медицины и вызовы доверия

По данным TechCrunch, использование ИИ в медицине становится всё более частой практикой. Врачи, такие как доктор Сина Бари, наблюдали, как пациенты приносят в клинику советы, полученные от ИИ, включая утверждения о рисках лекарств. В одном случае, пациент получил информацию о 45%-ной вероятности тромбоза лёгочной артерии от одного препарата. Однако, как выяснилось, эта статистика относилась к узкой группе больных туберкулёзом, что не имело отношения к состоянию пациента.

Несмотря на такие случаи, доктор Бари выразил позитивную оценку по поводу запуска ChatGPT Health — новой версии ИИ, которая будет предназначена исключительно для медицинских консультаций. Пользователи смогут обсуждать свои симптомы в более конфиденциальном режиме, а также загружать медицинские записи и синхронизировать данные с приложениями, такими как Apple Health и MyFitnessPal.

ChatGPT Health будет запущена в ближайшие недели. Эта версия не будет использовать сообщения пользователей в качестве обучающих данных для основной модели ИИ, что, как считают эксперты, повысит уровень доверия. «Это уже происходит, поэтому формализация процесса и введение защитных механизмов сделают ИИ ещё более полезным для пациентов», — отметил доктор Бари.

Однако специалисты по кибербезопасности подчёркивают, что передача медицинских данных в руки компаний, не соответствующих стандартам HIPAA, может вызвать вопросы. Itai Schwartz, сооснователь компании MIND, отметил, что такие действия требуют внимания со стороны регуляторов. «Внезапно медицинские данные начинают передаваться из организаций, соблюдающих нормы конфиденциальности, в сторонние компании. Интересно, как регуляторы будут реагировать», — заявил он.

Andrew Brackin, партнёр в Gradient, инвестирующей в технологии здравоохранения, отмечает, что медицинские консультации уже давно являются одной из ведущих сфер применения ИИ. «Сейчас более 230 миллионов человек еженедельно обращаются к ChatGPT с вопросами о здоровье. Это логично — компания стремится создать более безопасную и оптимизированную версию ИИ для этих целей», — сказал он.

Одной из проблем ИИ остаётся так называемые галлюцинации — когда модель выдаёт информацию, не соответствующую действительности. Согласно Factual Consistency Evaluation Model, разработанной Vectara, модель GPT-5 склонна к таким ошибкам больше, чем некоторые решения Google и Anthropic. Тем не менее, ИИ продолжает развиваться, и компании видят в нём потенциал для оптимизации медицинских процессов.

Dr. Nigam Shah, профессор медицины в Стэнфордском университете, считает, что более срочной задачей является доступность медицинских услуг. «Сейчас пациенты ждут от трёх до шести месяцев, чтобы попасть к терапевту. Если у вас есть выбор — ждать или получить некоторую поддержку от ИИ, вы, скорее всего, выберете второе», — заявил он.

Доктор Шах видит перспективу внедрения ИИ не столько в непосредственном общении с пациентами, сколько в поддержке врачей. Административные задачи, такие как оформление документов и запросы на предварительное одобрение страхования, занимают значительную часть рабочего времени врачей. Автоматизация этих процессов может сократить нагрузку и повысить эффективность.

В Стэнфорде разрабатывается ChatEHR — система, интегрированная в электронную медицинскую карту, которая позволяет врачам быстрее получать необходимую информацию. «Упрощение взаимодействия с электронной картой позволяет врачам меньше времени тратить на поиск данных и больше — на общение с пациентами», — отметила Dr. Sneha Jain, участник тестирования.

Anthropic также работает над продуктами, ориентированными на врача и страховую компанию. В этом году компания представила Claude for Healthcare, которая может автоматизировать рутинные задачи, такие как запросы на одобрение лечения. «Некоторые из вас получают сотни или тысячи таких запросов в неделю. Представьте, что вы сократите на 20–30 минут каждую операцию — это существенная экономия времени», — подчеркнул Mike Krieger, глава продуктовой стратегии Anthropic.

В то же время остаётся важным вопрос: как совместить медицинскую этику с бизнес-целями технологических компаний. «Это напряжение важно учитывать. Пациенты полагаются на врачей, чтобы быть осторожными и консервативными в своих действиях, — сказал доктор Бари. — В то время как компании, несмотря на благие намерения, в конечном итоге отвечают перед акционерами».

Интересно: Как обеспечить баланс между скоростью внедрения ИИ в медицину и сохранением стандартов конфиденциальности и точности, когда доверие пациентов становится критическим ресурсом?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Врачи, ИИ и границы доверия

Искусственный интеллект в медицине не только появился — он стремительно входит в повседневную практику. Но за кажущейся простотой и удобством скрываются сложные вопросы, связанные с этикой, безопасностью и доверием. Врачи, пациенты и технологические компании находятся на разных сторонах одного и того же процесса, где мотивы и цели не всегда совпадают.

Когда ИИ становится экспертом, а пациент — клиентом

С развитием таких продуктов, как ChatGPT Health, медицина меняет форму. Пациенты получают возможность получать консультации в режиме реального времени, загружать данные из приложений, таких как Apple Health, и даже обсуждать симптомы в конфиденциальном режиме. На первый взгляд, это прогресс: доступность, скорость, удобство. Но за этим стоит важный сдвиг — от врача как главного эксперта к ИИ как источнику информации.

Врачи, такие как доктор Сина Бари, видят в этом потенциал, но и риск. Пациенты, получив неправильную или неприменимую информацию, могут принимать решения, которые противоречат их реальному состоянию. В одном из примеров, ИИ предупредил о высоком риске тромбоза, но оказался неправ — его данные относились к другой, узкой группе пациентов. Это показывает, что ИИ пока не может заменить врачебный опыт, а скорее должен быть инструментом, а не авторитетом.

Важный нюанс: ИИ в медицине — не помощник, а партнер. Его задача — ускорить процессы и снизить нагрузку, а не брать на себя ответственность за диагнозы.

Защита данных и регулирование: кто контролирует, кто отвечает?

Создание специализированных версий ИИ, таких как ChatGPT Health, включает в себя и попытку решить проблему конфиденциальности. Эти модели не используют медицинские консультации для обучения, что снижает риски утечки данных. Но это не решает всех проблем. Передача данных в сторонние компании, особенно если они не соответствуют стандартам HIPAA, может создать щель, через которую регуляторы и пациенты начнут задавать критические вопросы.

Компании, такие как MIND и Gradient, уже предупреждают: медицинские данные — это чувствительная информация, и её передача вне медицинских учреждений требует прозрачности. Вопрос не в том, могут ли такие компании обработать данные безопасно, а в том, насколько они готовы к ответственности, если что-то пойдёт не так. А вот врачи и больницы, как правило, несут юридическую ответственность за утечки.

Стоит учитывать и рост сложности политик конфиденциальности. Политики крупных языковых моделей выросли в объёме на 53% по сравнению с политиками программного обеспечения 2019 года, достигнув в среднем 3 346 слов [!]. Это связано с расширением возможностей ИИ, введением новых типов данных и различиями в регулировании. Пользователям приходится изучать несколько документов, чтобы понять, как обрабатываются их данные. Высокий уровень сложности языка и неопределённые формулировки, такие как «может» или «возможно», затрудняют восприятие и снижают прозрачность.

Системы, которые экономят время, но не заменяют врача

В Стэнфордском университете и компаниях вроде Anthropic разрабатываются решения, которые помогают врачам с административной работой. Системы вроде ChatEHR и Claude for Healthcare автоматизируют заполнение медицинских документов, запросы на одобрение лечения, что экономит время и позволяет врачам сосредоточиться на пациентах. Это действительно важный шаг, но он не решает фундаментальной проблемы: ИИ пока не может заменить врача в диагностике, а лишь поддерживает его.

Важный нюанс: Врач — это не только специалист, но и человек, который несёт ответственность. ИИ может облегчить процесс, но не должен отнимать у врача эту ответственность.

Риски утечки данных и необходимость контроля

Рост популярности AI-чат-ботов в личной и профессиональной среде приводит к увеличению рисков утечки конфиденциальной информации, поскольку данные пользователей сохраняются в облачных системах с неясными политиками хранения и обработки [!]. В 2024 году число утечек через генеративные модели достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах, где сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности.

Крупные ИИ-компании используют данные пользовательских диалогов для тренировки моделей, что может включать конфиденциальную информацию [!]. Эксперты отмечают, что текущие правила не обеспечивают достаточной прозрачности в обработке и повторном использовании таких данных, а процесс удаления личной информации остаётся необязательным и недостаточно стандартизированным. Риски повышаются, так как компании не удаляют личную информацию перед повторным применением, а чат-боты способны запоминать и воспроизводить данные. Это создаёт потенциал для утечки информации и нарушения приватности.

Что дальше?

С ростом популярности ИИ в медицине, всё более актуальным становится вопрос баланса между скоростью внедрения и сохранением стандартов. Пациенты нуждаются в доступе к информации, врачи — в поддержке, а компании — в масштабируемости. Но каждый шаг в этом направлении должен сопровождаться прозрачностью, регулированием и ответственностью. Иначе доверие, которое сейчас растёт, может стать уязвимым.

В условиях масштабного внедрения ИИ, особенно в сфере здравоохранения, необходимо учитывать и риски утечки данных. Стратегия Министерства здравоохранения США по внедрению искусственного интеллекта предполагает обработку медицинских данных пациентов, что вызывает опасения относительно их конфиденциальности [!]. В документе не указаны чёткие меры защиты агрегированных данных, что усиливает сомнения в обеспечении безопасности. Увеличение числа ИИ-проектов в 2025 году на 70% по сравнению с 2024 годом подчёркивает необходимость строгого регулирования доступа к информации.

Важный нюанс: Внедрение ИИ в медицину требует не только технологической готовности, но и строгой политики конфиденциальности, чтобы защитить данные пациентов и укрепить доверие к новым решениям.

Заключение

Развитие искусственного интеллекта в медицине открывает новые возможности для пациентов и врачей, но также ставит перед бизнесом и регуляторами новые задачи. Управление рисками, связанными с обработкой данных, становится критически важным. Компаниям, внедряющим ИИ, стоит учитывать не только технические аспекты, но и юридические, этические и, что особенно важно, восприятие пользователей.

Важный нюанс: Успех внедрения ИИ в медицине зависит не только от его технических возможностей, но и от способности создать экосистему, в которой данные защищены, а доверие — устойчиво.

Коротко о главном

Что такое ChatGPT Health и как она будет работать?

ChatGPT Health — это новая версия ИИ, предназначенная исключительно для медицинских консультаций, позволяющая пользователям обсуждать симптомы в конфиденциальном режиме и синхронизировать данные с приложениями, такими как Apple Health и MyFitnessPal.

Почему ChatGPT Health не будет использовать данные пользователей для обучения?

Эта версия не будет использовать сообщения пациентов в качестве обучающих данных, чтобы повысить уровень доверия и избежать рисков, связанных с передачей медицинской информации в основную модель ИИ.

Почему специалисты обеспокоены передачей данных в сторонние компании?

Передача медицинских данных компаниям, не соответствующим стандартам HIPAA, вызывает опасения по поводу соблюдения конфиденциальности, особенно если эти данные начинают поступать из организаций, строго соблюдающих эти нормы.

Почему ИИ может ошибаться в медицинских рекомендациях?

Модель GPT-5 склонна к так называемым галлюцинациям — выдаче неверной информации, что делает её менее надёжной по сравнению с некоторыми решениями Google и Anthropic, согласно оценке Factual Consistency Evaluation Model.

Как ИИ может помочь врачам в повседневной работе?

ИИ может автоматизировать рутинные административные задачи, такие как оформление документов и запросы на одобрение страхования, что сократит рабочую нагрузку и повысит эффективность работы врачей.

Какие проекты ИИ уже внедряются в медицинские учреждения?

В Стэнфордском университете разрабатывается ChatEHR — система, интегрированная в электронную медицинскую карту, которая ускоряет доступ к данным и позволяет врачам тратить меньше времени на поиск информации.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Здоровье и медицина

Оценка значимости: 6 из 10

Использование ИИ в медицине затрагивает несколько сфер — здравоохранение, технологии, этику и безопасность данных, что указывает на среднюю многогранность влияния. Хотя речь идёт о глобальных трендах, прямое влияние на российскую аудиторию пока ограничено, так как основные события и компании, упомянутые в тексте, находятся за пределами России. Однако тема цифровой медицины и защита персональных данных могут быть актуальными в долгосрочной перспективе, особенно при развитии собственных решений в этой области.

Материалы по теме

Политики конфиденциальности ИИ становятся длиннее и сложнее для понимания

Удлинение и усложнение политик конфиденциальности ИИ на 53% по сравнению с 2019 годом подчёркивает проблему недоступности информации для пользователей. Это усиливает аргумент о снижении прозрачности и затруднении понимания, как именно обрабатываются данные, особенно в медицинском контексте.

Подробнее →
Рост утечек данных через AI-чат-боты: как защитить конфиденциальность

Рост утечек данных через AI-чат-боты в 2024 году, особенно в медицинской сфере, служит основанием для критики текущего подхода к хранению и обработке конфиденциальной информации. Данные усиливают тревогу по поводу масштабных рисков, связанных с передачей медицинских данных в публичные ИИ-сервисы.

Подробнее →
Крупные ИИ-компании используют данные пользователей для тренировки моделей без прозрачности

Использование личных диалогов с ИИ для тренировки моделей без прозрачности и удаления личной информации усиливает опасения относительно утечек и нарушения приватности. Это поддерживает аргумент о том, что текущие правила не обеспечивают достаточной защиты пользовательских данных.

Подробнее →
Минздрав США запускает масштабную стратегию ИИ: эффективность или риски?

Стратегия Минздрава США по внедрению ИИ, не сопровождаемая чёткими мерами защиты агрегированных данных, служит примером недостаточной регуляторной базы. Это подчёркивает необходимость строгого регулирования в условиях роста числа ИИ-проектов на 70% в 2025 году.

Подробнее →