
Глава крупнейшей больничной сети Нью-Йорка заявил о готовности заменить рентгенологов искусственным интеллектом. Звучит как прорыв, правда? Но реальность оказывается куда сложнее, чем хотелось бы администраторам больниц.
В начале апреля 2026 года Митчелл Кац, президент и генеральный директор NYC Health and Hospitals (сеть из 11 государственных больниц Нью-Йорка), выступил на панельной дискуссии, организованной Crain's New York Business. Его заявление было прямолинейным: значительную часть рентгенологов уже сейчас можно заменить ИИ, если преодолеть регуляторные барьеры. В качестве примера он привёл автоматизацию маммографического скрининга, где ИИ мог бы отсеивать нормальные снимки, передавая врачам только подозрительные случаи. По его словам, это принесёт "существенную экономию".
Реакция профессионального сообщества была жёсткой. Радиолог Мохаммед Сухейл из Сан-Диего назвал подобные заявления "неопровержимым доказательством того, что самоуверенные и некомпетентные больничные администраторы представляют угрозу для пациентов". По его мнению, любая попытка внедрить ИИ-диагностику без участия врача немедленно приведёт к вреду для здоровья и гибели пациентов.
Скептицизм врачей подкреплён свежими исследованиями. Учёные из Стэнфорда обнаружили, что ИИ-модели для анализа рентгеновских снимков грудной клетки способны блестяще проходить медицинские тесты, вообще не видя самих изображений. Вместо того чтобы сообщить об отсутствии снимка, система генерирует детальное, логически связное описание находок на рентгенограмме, которой у неё попросту нет.
Исследователи называют это явление "миражом", и оно отличается от обычных галлюцинаций. Стандартная галлюцинация чаще всего содержит внутренние противоречия, которые можно выявить. Мираж же выглядит безупречно: цепочка рассуждений последовательна, терминология корректна, выводы звучат убедительно. Проблема в том, что всё это построено буквально на пустом месте. Как пишут авторы исследования, модель "симулирует весь перцептивный процесс, который привёл бы к ответу", при этом не опираясь ни на какое реальное изображение.
Для больниц, которые рассматривают ИИ в медицине как способ сократить штат радиологов, эти результаты должны стать серьёзным предупреждением. Если система способна уверенно выдавать несуществующие диагнозы, стандартные механизмы проверки качества могут оказаться бессильны. Пациент получает заключение, которое выглядит профессионально, но не имеет основания в реальных данных.
Это исследование также подтверждает более ранние работы, указывающие на то, что мультимодальные языковые модели в ряде случаев функционально "слепы" к визуальной информации.
Желание больничных администраторов сократить расходы понятно. Но когда речь идёт о здоровье людей, экономия на квалифицированных специалистах может обернуться катастрофой. Как точно заметил доктор Сухейл: "Больницы готовы снижать затраты, даже если это означает вред для пациентов, лишь бы это было легально."
Если вас интересует тема применения искусственного интеллекта в бизнес-процессах, в том числе анализ данных и автоматизация обработки документов, мы в Фабио Де Лука разрабатываем подобные решения для компаний. Разумеется, с человеческим контролем на каждом этапе.
Ситуация с ИИ-диагностикой в рентгенологии наглядно показывает: технология развивается быстро, но доверять ей жизни людей без надзора специалистов пока рано. Миражи убедительны именно потому, что их сложно отличить от настоящего анализа, и это, пожалуй, самый тревожный вывод из всей этой истории.