Нейросети следят за вашим здоровьем: можно ли им доверять
В январе 2026 года OpenAI запустила ChatGPT Health — сервис, который читает медкарту, подключается к и анализирует показатели здоровья. Google встроила нейросеть Gemini в свое приложение Fitbit. Apple готовит Health+ для айфонов.
Сегодня искусственный интеллект (ИИ) умеет подсказывать направление, но не ставить диагноз. Разбираем, что именно представили технокомпании, когда и как это работает и где уже допущены грубые ошибки.
- Что техногиганты выпустили на рынок
- Когда ИИ действительно помог
- Что говорят исследования
- Где ИИ уже серьезно ошибся
- Куда уходят ваши данные
- Вывод: когда ИИ можно доверять, а когда нет
- Что нужно для работы с такими сервисами
- Часто задаваемые вопросы
Проконсультируйтесь с врачом
Мы не врачи и не можем давать вам советы, ставить диагноз или что-либо запрещать. У нас вы можете прочитать лишь о фактах, подтвержденных медицинскими исследованиями.
Что техногиганты выпустили на рынок
Интеграция показателей здоровья в нейросети — уже не концепты и не анонсы. Продукты работают, конкуренция на пике.
Гонка за медицинскими данными пользователей шла несколько лет и в начале 2026 года вышла на новый уровень — в открытый доступ.
ChatGPT Health (OpenAI)
Выделенный раздел ChatGPT с подключением Apple Health, MyFitnessPal и загрузкой медицинских документов.
По данным OpenAI, более 40 миллионов человек ежедневно задают вопросы о здоровье в ChatGPT, и новый продукт структурирует эту потребность.
Компания декларирует, что медицинские данные не используются для обучения модели.
Claude for Healthcare (Anthropic)
Запуск в январе 2026-го, почти одновременно с ChatGPT Health. Anthropic единственная из всей гонки сразу заявила о соответствии .
Claude читает медкарты, интегрируется с базой в реальном времени. Данные для обучения не использует.
Сколько платят за участие в медицинских исследованиях и можно ли считать их этичными
Читать статьюFitbit / Gemini Health Coach (Google)
Персональный ИИ-тренер внутри приложения Fitbit анализирует активность, сон и частоту сердечных сокращений, а затем дает рекомендации.
Параллельно Google разрабатывает Med-Gemini — специализированную модель для анализа медицинских снимков и геномных данных.
Grok (xAI)
В январе 2026 года Илон Маск публично призвал пользователей X загружать томограммы , и рентгеновские снимки в нейросеть для «второго мнения». Заодно пообещал загрузить свои (но сдержал ли обещание, неизвестно).
Реакция медицинского сообщества оказалась неоднозначной.
В отличие от конкурентов, у Grok нет отдельной надстройки для работы с медданными.
Microsoft Copilot Health
12 марта 2026 года в игру вступила Microsoft. Ее нейросеть подключает Apple Health, Fitbit, Oura, Garmin, лабораторные платформы, 50 000+ американских клиник. Генерирует «связную историю» здоровья пользователя на основе данных из всех источников.
В качестве базы знаний Copilot использует Harvard Health, , — это заметно серьезнее, чем у конкурентов.
Пока доступен только англоязычным пользователям в США по приглашениям.
Perplexity Health
Запуск состоялся 24 марта 2026 года. Подключает Apple Health, Fitbit, Ultrahuman, Withings через единый (пока только в США). Работает как агент — мониторит данные в фоновом режиме и сам инициирует предупреждение, не ожидая вопроса от пользователя.
Согласно пресс-релизу, Perplexity «рассуждает» над данными, не имея прямого доступа к исходным записям на серверах.
Apple Health+
Пока в разработке, ожидается в iOS 27 во второй половине 2026 года.
В планах интеграция с ChatGPT и Siri. Улучшенный помощник сможет анализировать данные с Apple Watch в разговорном режиме.
Существование продукта не означает, что он работает как заявлено.
Ни один из перечисленных сервисов не несет юридической ответственности за медицинские рекомендации. Все они «информационные инструменты», о чем прямо указано в пользовательских соглашениях.
Когда ИИ действительно помог
Реальные истории с хорошим исходом важно зафиксировать, потому что именно они объясняют массовый интерес.
Одна пользовательница описала в ChatGPT симптомы, сопутствующие беременности. Тот посоветовал проверить давление — оказалось критически высоким. Врачи диагностировали тяжелую , роды стимулировали в тот же день.
Лорен Беннон несколько месяцев ходила к врачу с болями в суставах, подозревала артрит. ChatGPT порекомендовал проверить щитовидную железу. Там обнаружили рак.
Несколько пользователей сообщали, что Grok корректно интерпретировала биохимический анализ крови. Нейросеть указала на признаки, требующие дообследования.
Эти случаи — не исключения из правил. Они показывают реальный сценарий, в котором ИИ полезен:
- Человек замечает симптом.
- Не знает, как его интерпретировать.
- Получает подсказку в нужном направлении.
- Обращается к профильному врачу.
Проблема начинается там, где подсказка превращается в диагноз.
Что говорят исследования
Данные из независимых испытаний заметно расходятся с тем, что написано в пресс-релизах.
Исследование, опубликованное в журнале Nature (февраль 2026 года), проверило 22 версии ChatGPT на 45 клинических сценариях — 9900 тестов. Лучший результат показала модель o1-mini с точностью 74%. Это значит, что каждый четвертый случай модель оценивала неверно.
Более новые версии при этом не оказались точнее: исследователи не зафиксировали прогресса поколений.
По данным The New York Times, участники эксперимента с помощью чат-ботов верно определяли диагноз лишь в 34% случаев — столько же, сколько при обычном поиске в Google. Проще говоря, нейросеть не дает преимущества перед поисковиком.
Ученые Вашингтонского государственного университета протестировали ChatGPT на 700 медицинских и научных утверждениях. После поправки на случайное угадывание точность составила 60% — это оценка D по американской шкале. Причем иногда модель давала противоположные ответы на один и тот же вопрос при повторном запросе.
поставила злоупотребление чат-ботами на первое место в списке угроз здравоохранению 2026 года. Например, один рекомендовал неправильное размещение хирургического электрода, что грозило бы ожогами пациента. Другой ИИ-помощник в ответ на медицинские вопросы описал несуществующие части тела, звуча при этом как авторитетный эксперт.
Где ИИ уже серьезно ошибся
Исследователи , изучив ChatGPT Health, выявили проблемы с точностью и расовую предвзятость в рекомендациях. Модель давала разные советы пациентам с одинаковыми симптомами в зависимости от указанной этнической принадлежности.
Наиболее широкую огласку получил случай с Grok после призыва Маска загружать снимки. Врачи, которые отслеживали эксперимент, зафиксировали конкретные ошибки: рентген с «учебниковым» туберкулезом нейросеть описала как грыжу диска или стеноз позвоночного канала. Маммографический снимок с доброкачественной кистой молочной железы — как изображение яичек.
Показательно другое. На вопрос пользователя о соответствии HIPAA Grok ответил сам себе: «Grok не является медицинским специалистом и не соответствует HIPAA. Мы настоятельно не рекомендуем передавать чувствительные данные и советуем обращаться к врачам».
Нейросеть предупреждает об ограничениях, а ее создатель нет.
Куда уходят ваши данные
Когда вы загружаете анализы или подключаете трекер к ChatGPT Health, данные обрабатываются на серверах OpenAI. Компания декларирует, что не использует их для обучения моделей, но проверить это невозможно.
Исследование , представленное в 2025 году на конференции , показало: нейросети, обученные на медицинских картах, способны «запоминать» отдельные записи и воспроизводить их в ответах — даже когда исходные данные деперсонализированы. Это открывает возможность для утечек там, где защита казалась надежной.
Статистика подтверждает масштаб проблемы: Департамент здравоохранения США зафиксировал 747 утечек медицинских данных за два года, преимущественно через взломы. ИИ-интеграции расширяют поверхность атаки.
Apple частично будет решать проблему через обработку данных прямо на устройстве, без передачи на серверы. Но это не устранит вопрос точности интерпретаций.
Вывод: когда ИИ можно доверять, а когда нет
Что нужно для работы с такими сервисами
Технически — минимум. Например, ChatGPT Health входит в подписку ChatGPT Plus. Fitbit с Gemini Health Coach — подписка Fitbit Premium и аккаунт Google. У других продуктов похожие, стандартные требования.
Практически список длиннее: нужно понимать, что именно вы загружаете, кому это передаете и что будете делать с ответом. Без этого ни один из этих инструментов не станет помощником — просто очередной источник тревоги или, что хуже, ложной уверенности.
Разумная схема выглядит так: ИИ помогает заметить отклонение или сформулировать вопрос → врач ставит диагноз и назначает лечение.
Если что-то беспокоит, пройдите комплексное обследование у врача. Стоимость развернутой диагностики в частной клинике может оказаться существенной, но это оправдано по сравнению с риском для жизни.
К тому же, картой «Халва» диагностику можно оплатить частями без переплат. Это надежнее, чем доверять самое ценное системе, которая предугадывает ответы, а не обладает реальной экспертизой.

Халва поможет оплатить лечение в рассрочку* без переплат. Приятные бонусы: до 10% кешбэка за покупки и бесплатное обслуживание. Будьте здоровы!
Заявка на оформление карты
Часто задаваемые вопросы
Что вызывает сомнения в контексте связки нейросетей и метрик здоровья.
Почему нейросеть уверенно отвечает, даже когда ошибается?
Языковые модели не «знают» медицину — они предсказывают, какой текст статистически вероятен после вашего вопроса.
Если в обучающих данных большинство описаний грыжи диска звучало похоже на конкретный рентген, модель выдаст «грыжа» с высокой уверенностью — независимо от того, что на снимке на самом деле. Именно поэтому уверенный тон ответа не равен его точности.
Что делать, если ИИ выдал тревожный результат?
Не игнорировать, но и не паниковать. Запишите формулировку, с которой нейросеть выразила озабоченность, и обратитесь к врачу с конкретным вопросом: стоит ли проверить именно это.
ИИ выполняет свою реальную функцию — помогает прийти на прием подготовленным, а не заменяет сам прием.
Есть ли российские аналоги?
Прямых альтернатив — с подключением медкарт и носимых устройств в одном интерфейсе — пока нет.
Отдельные функции есть у «Яндекс 360» (напоминания о лекарствах) и в телемедицинских сервисах — «СберЗдоровье», «Доктис», «Теледоктор24». Они не анализируют данные трекеров, зато работают в российской юрисдикции и подпадают под действие 152-ФЗ «О персональных данных».
Могут ли страховые компании использовать данные, которые я загружаю в ИИ-сервисы?
Формально нет, если вы не давали на это согласия — надо как минимум нажать галочку.
Но пользовательские соглашения большинства ИИ-сервисов написаны так, что данные могут передавать партнерам «для улучшения качества». Кого именно считать партнером, каждая компания трактует по-своему.
Прежде чем подключать медкарту, прочитайте раздел о передаче данных третьим лицам в конкретном приложении. Это займет время, но это единственный способ понять реальные условия.

Подпишитесь на email-рассылку
Раз в неделю мы будем присылать вам лайфхаки о том, как обращаться с деньгами и повышать финансовую грамотность
Статьи по теме
Как решить задачу с помощью нейросети: ИИ-решебники для школьников и студентов

Как работает виртуальная машина и зачем она нужна
Как мошенники меняют номер телефона при звонке