Кейс 2. Медицинский тест: обновление уверенности (Байес)
Цель кейса
Этот кейс демонстрирует фундаментальную идею вероятности как степени уверенности: в байесовском подходе вероятность трактуется как степень уверенности и обновляется при поступлении новой информации.
Мы разберем классический пример с медицинским тестом и увидим, почему высокая точность теста не означает высокой уверенности в диагнозе. Главная цель – научиться мыслить в терминах априорной и апостериорной вероятности.
Сценарий
Предположим, существует редкое заболевание.
Известно следующее:
Болезнь встречается у 1 человека из 1000.
Чувствительность теста (вероятность положительного результата при наличии болезни) – 99%.
Специфичность теста (вероятность отрицательного результата у здорового человека) – 95%.
Пациент сдает тест и получает положительный результат.
Вопрос: какова вероятность того, что он действительно болен?
Интуитивный ответ часто звучит так: "примерно 99%". Но это неверно.
Причина – в редкости события.
Математическая постановка
Обозначим:
P(D) – вероятность болезни (априорная вероятность);
P(T+∣D) – вероятность положительного теста при болезни (чувствительность);
P(T+∣¬D) – вероятность положительного теста при отсутствии болезни.
Нас интересует: P(D∣T+) - то есть вероятность болезни при условии положительного результата теста.
По формуле Байеса:
Где
Реализация на PHP
Результат будет следующий:
То есть около 1.94%.
Интерпретация результата
Несмотря на высокую чувствительность теста (99%), итоговая вероятность болезни после положительного результата составляет менее 2%.
Почему?
Потому что болезнь крайне редкая. Ложноположительные результаты, возникающие у большого числа здоровых людей, статистически "перекрывают" истинно положительные случаи.
Другими словами:
априорная вероятность была очень низкой
один тест с данной специфичностью не смог радикально изменить уровень уверенности
Это и есть обновление уверенности – переход от P(D) к P(D∣T+).
Инженерный смысл
Этот пример важен не только для медицины. Он напрямую переносится на задачи машинного обучения:
редкий фрод (fraud – мошенничество) в платежах
редкие инциденты безопасности
редкие события в логах
поиск аномалий
Даже очень "точная" модель может давать много ложных срабатываний, если событие само по себе встречается редко.
Поэтому при оценке моделей важно учитывать:
базовую распространенность события
баланс классов
реальные последствия ложных срабатываний.
Типичная когнитивная ошибка
Люди склонны игнорировать априорную вероятность и концентрироваться только на точности теста. Это называется игнорированием базовой частоты (base rate neglect).
В ML эта ошибка проявляется так:
модель с 99% accuracy кажется "отличной"
но если положительный класс составляет 0.5% выборки, такая точность может быть иллюзией.
Выводы
В байесовском подходе вероятность – это обновляемая степень уверенности.
Априорная вероятность играет решающую роль при интерпретации результата.
Даже очень точный тест не дает высокой уверенности, если событие редкое.
Байесовское обновление – это универсальный механизм пересчета уверенности при появлении новых данных.
Этот кейс формирует фундаментальное понимание: модель или тест дают нам новый сигнал, но окончательная уверенность всегда зависит от контекста, в котором этот сигнал получен.
Чтобы самостоятельно протестировать этот код, установите примеры из официального репозитория GitHub или воспользуйтесь онлайн-демонстрацией для его запуска.
Last updated