Кейс 2. Медицинский тест: обновление уверенности (Байес)

Цель кейса

Этот кейс демонстрирует фундаментальную идею вероятности как степени уверенности: в байесовском подходе вероятность трактуется как степень уверенности и обновляется при поступлении новой информации.

Мы разберем классический пример с медицинским тестом и увидим, почему высокая точность теста не означает высокой уверенности в диагнозе. Главная цель – научиться мыслить в терминах априорной и апостериорной вероятности.

Сценарий

Предположим, существует редкое заболевание.

Известно следующее:

  • Болезнь встречается у 1 человека из 1000.

  • Чувствительность теста (вероятность положительного результата при наличии болезни) – 99%.

  • Специфичность теста (вероятность отрицательного результата у здорового человека) – 95%.

Пациент сдает тест и получает положительный результат.

Вопрос: какова вероятность того, что он действительно болен?

Интуитивный ответ часто звучит так: "примерно 99%". Но это неверно.

Причина – в редкости события.

Математическая постановка

Обозначим:

  • P(D)P(D) – вероятность болезни (априорная вероятность);

  • P(T+D)P(T+ \mid D) – вероятность положительного теста при болезни (чувствительность);

  • P(T+¬D)P(T+ \mid \neg D) – вероятность положительного теста при отсутствии болезни.

Нас интересует: P(DT+)P(D \mid T+) - то есть вероятность болезни при условии положительного результата теста.

По формуле Байеса:

P(DT+)=P(T+D)P(D)P(T+)P(D \mid T^+) = \frac{P(T^+ \mid D) \cdot P(D)}{P(T^+)}

Где

P(T+)=P(T+D)P(D)+P(T+¬D)P(¬D)P(T^+) = P(T^+ \mid D) \cdot P(D) + P(T^+ \mid \neg D) \cdot P(\neg D)

Реализация на PHP

Результат будет следующий:

То есть около 1.94%.

Интерпретация результата

Несмотря на высокую чувствительность теста (99%), итоговая вероятность болезни после положительного результата составляет менее 2%.

Почему?

Потому что болезнь крайне редкая. Ложноположительные результаты, возникающие у большого числа здоровых людей, статистически "перекрывают" истинно положительные случаи.

Другими словами:

  • априорная вероятность была очень низкой

  • один тест с данной специфичностью не смог радикально изменить уровень уверенности

Это и есть обновление уверенности – переход от P(D)P(D) к P(DT+)P(D \mid T+).

Инженерный смысл

Этот пример важен не только для медицины. Он напрямую переносится на задачи машинного обучения:

  • редкий фрод (fraud – мошенничество) в платежах

  • редкие инциденты безопасности

  • редкие события в логах

  • поиск аномалий

Даже очень "точная" модель может давать много ложных срабатываний, если событие само по себе встречается редко.

Поэтому при оценке моделей важно учитывать:

  • базовую распространенность события

  • баланс классов

  • реальные последствия ложных срабатываний.

Типичная когнитивная ошибка

Люди склонны игнорировать априорную вероятность и концентрироваться только на точности теста. Это называется игнорированием базовой частоты (base rate neglect).

В ML эта ошибка проявляется так:

  • модель с 99% accuracy кажется "отличной"

  • но если положительный класс составляет 0.5% выборки, такая точность может быть иллюзией.

Выводы

  1. В байесовском подходе вероятность – это обновляемая степень уверенности.

  2. Априорная вероятность играет решающую роль при интерпретации результата.

  3. Даже очень точный тест не дает высокой уверенности, если событие редкое.

  4. Байесовское обновление – это универсальный механизм пересчета уверенности при появлении новых данных.

Этот кейс формирует фундаментальное понимание: модель или тест дают нам новый сигнал, но окончательная уверенность всегда зависит от контекста, в котором этот сигнал получен.

circle-info

Чтобы самостоятельно протестировать этот код, установите примеры из официального репозитория GitHubarrow-up-right или воспользуйтесь онлайн-демонстрациейarrow-up-right для его запуска.

Last updated