Wzór Bayesa i problem rutynowych badań

  • Post author:

Policjant nie zna wzoru Bayesa i rutynowo zatrzymuje kierowców, by sprawdzić, czy są pod wpływem narkotyków. Ma do dyspozycji test o dokładności 99%. Jeśli badana osoba rzeczywiście brała narkotyki, otrzyma wynik pozytywny w 99% przypadków. Podobnie, jeśli jest „czysta”, w 99% przypadków dostanie wynik negatywny (w rzeczywistości taka symetria jest wątpliwa). Policjant zatrzymuje pierwszego kierowcę, testuje, wynik pozytywny. Czy rozsądnie jest myśleć, że jechał on pod wpływem narkotyków?

Pytanie może wydać się dziwne. Test jest przecież bardzo dokładny, więc chyba sprawa jest jasna? Jaka jest szansa, że przebadany kierowca jednak nie brał narkotyków? Jeden procent?

Prawdopodobieństwo warunkowe

To, co nas interesuje, to prawdopodobieństwo, że konkretna osoba jest pod wpływem narkotyków. Oznaczmy je przez P(N). Ale to nie jest losowo wybrany człowiek z populacji (ani nawet losowy kierowca), ale taki, który ma pozytywny wynik testu na obecność narkotyków. Mówimy wtedy o prawdopodobieństwie warunkowym i możemy je oznaczyć przez P(N|+). A czym jest dokładność naszego testu? Czy to nie jest właśnie to prawdopodobieństwo? Otóż nie — wartość 99% to P(+|N). Czyli JEŚLI dana osoba jest pod wpływem narkotyków, test w 99% przypadków da wynik pozytywny.

Na wypadek, gdyby różnica między tymi prawdopodobieństwami nie była oczywista. Rzuciłem kostką i masz zgadnąć, ile wypadło:

  • P(6), czyli prawdopodobieństwo, że wypadło 6, wynosi oczywiście 1/6.
  • P(6|parz), czyli prawdopodobieństwo, że wypadło 6, JEŚLI wiesz, że wypadła parzysta liczba oczek, wynosi 1/3.
  • P(parz|6), czyli prawdopodobieństwo, że wypadła parzysta liczba oczek, JEŚLI wiesz, że wypadło 6, oczywiście jest równe 1.

To nie są te same prawdopodobieństwa!

Prawdopodobieństwo a priori

No dobrze, w takim razie ile wynosi P(N|+)? Zacznijmy od tego, że nie da się policzyć takiego prawdopodobieństwa bez dodatkowej informacji. Potrzebujemy prawdopodobieństwa a priori, że badana osoba jest pod wpływem narkotyków. Innymi słowy, jaka jest szansa, że losowa wybrana osoba brała narkotyki, ZANIM poddaliśmy ją testowi? To jest właśnie P(N), od którego zaczęliśmy.

Co powinniśmy przyjąć za takie prawdopodobieństwo? Zakładając, że rzecz dzieje się w Polsce, możemy poszukać danych, z których wynikałoby, ilu Polaków ogólnie bierze narkotyki. Problem w tym, że nie każdy, kto jest pod wpływem narkotyków, siada za kółkiem (oczywiście jest to „problem” tylko dla naszych obliczeń ;)). A przecież o tej konkretnej osobie, którą właśnie zbadaliśmy, wiemy, że prowadzi auto. Dalej, znamy jej płeć i mniej więcej wiek (bo ją widzimy). To wszystko na pewno wpływa na szukane prawdopodobieństwo, a zatem żeby zrobić to naprawdę dobrze, trzeba by zbudować model. Ponieważ ten aspekt problemu nie jest celem mojego wpisu, po prostu przyjmijmy jakąś stałą wartość. Strzelam, że w Polsce mniej więcej 0,1% osób kieruje samochodem, będąc pod wpływem narkotyków. Później zobaczymy, co się stanie, jeśli przyjmiemy inną wartość.

I teraz jesteśmy w takiej sytuacji: z jednej strony test mówi, że dana osoba brała narkotyki — i test ten rzadko się myli. Z drugiej strony, wniosek, jaki chcemy wyciągnąć na podstawie wyniku tego testu, jest na tyle nieprawdopodobny, że może rozsądniej jest myśleć, że test się pomylił?

Wzór Bayesa

Z pomocą przychodzi wzór Bayesa (zwany też twierdzeniem Bayesa). Dzięki niemu łatwiej będzie nam ustalić, co powinniśmy myśleć:

    \[P(N|+) = \frac{P(+|N)P(N)}{P(+)}.\]


W skrócie, wzór mówi, jak przejść z prawdopodobieństwa (a priori), że dana osoba jest pod wpływem narkotyków, ZANIM wykonaliśmy test (czyli P(N)), na prawdopodobieństwo (a posteriori) takiego zdarzenia, ale już przy znanym wyniku testu (czyli P(N|+)).

Napisałem wyżej „w skrócie”, ale oczywiście wzór jest krótszy niż ten „skrót”…

Zastosujmy wzór Bayesa dla naszych danych. Z licznikiem nie ma problemu, natomiast w mianowniku mamy tajemnicze prawdopodobieństwo wyniku pozytywnego. Musi ono w jakiś sposób zależeć od dwóch czynników: ile osób kieruje pod wpływem narkotyków oraz jak często test zwraca poprawny wynik. Żeby to policzyć, skorzystamy z tzw. wzoru na prawdopodobieństwo całkowite:

    \[P(+) = P(+|N)P(N) + P(+|\neg N)P(\neg N).\]


P(\neg N) to prawdopodobieństwo, że dana osoba NIE brała narkotyków. Wzór rozbija szukane prawdopodobieństwo na dwa przypadki: wynik prawdziwie pozytywny, P(+|N), i fałszywie pozytywny, P(+|\neg N) (czyli gdy test się pomylił). Dlaczego akurat takie przypadki? Bo po pierwsze, są rozłączne (albo ktoś wziął narkotyki, albo nie), a tylko wtedy wzór jest poprawny. Po drugie, wszystkie prawdopodobieństwa we wzorze są nam znane (wynikają z założeń). Np. P(\neg N) = 1 - P(N) = 0{,}999.

Zbierzmy to wszystko:

    \[P(N|+) = \frac{P(+|N)P(N)}{P(+|N)P(N) + P(+|\neg N)P(\neg N)}.\]


Wzór Bayesa dla naszych danych:

    \[P(N|+) = \frac{0{,}99\cdot 0{,}001}{0{,}99\cdot 0{,}001 + 0.01\cdot 0{,}999} = 0{,}09.\]


Jaki z tego wniosek? Mimo że mamy przed sobą pozytywny wynik testu na obecność narkotyków, prawdopodobieństwo, że zbadana osoba rzeczywiście je wzięła, wynosi jedynie 9%. Czyli jest zdecydowanie bardziej prawdopodobne, że ich nie brała!

To zjawisko jest czasem zwane paradoksem wyniku fałszywie pozytywnego.

Przesłanki

Przykład pokazuje problem z rutynowymi badaniami. Gdy nie mamy żadnych przesłanek, żeby je zrobić, musimy ostrożnie podchodzić do wyników (chyba że test nigdy się nie myli). W takim razie dodajmy jakąś przesłankę: zatrzymaliśmy samochód, bo jechał zygzakiem. Od kierowcy nie czuć alkoholu, w takim razie przypuszczamy, że może być pod wpływem narkotyków. Załóżmy, że prawdopodobieństwo a priori, że taka osoba brała narkotyki, wynosi 50%. Robimy test i dostajemy wynik pozytywny. Ponownie stosujemy wzór Bayesa:

    \[P(N|+) = \frac{0{,}99\cdot 0{,}5}{0{,}99\cdot 0{,}5 + 0{,}01\cdot 0.5} = 0{,}99.\]


Prawdopodobieństwo, że mamy do czynienia z wynikiem prawdziwie pozytywnym, wynosi 99% — tyle, ile dokładność testu. Czyli jedynie w takiej symetrycznej sytuacji (P(N) = P(\neg N) = 0{,}5), szansa, że mimo pozytywnego wyniku testu badany nie brał narkotyków, wynosi 1%.

Ale w takim razie na podobnej zasadzie mogę nie uwierzyć w NEGATYWNY wynik testu, jeśli prawdopodobieństwo a priori będzie odpowiednio WYSOKIE. Jeśli zachowanie kierowcy jednoznacznie wskazuje na to, że jest pod wpływem narkotyków, to rozsądnie jest myśleć, że tak właśnie jest — mimo że test zwraca coś innego!

P-wartość i wzór Bayesa

To rozumowanie można odnieść do p-wartości. Korzystając ze wzoru Bayesa, jesteśmy w stanie policzyć, z jakim prawdopodobieństwem prawdziwa jest H0, mimo zaobserwowania danych, które zdają się jej przeczyć — bo np. p = 0{,}01. Jak pokazywałem w poniższych wpisach, to wcale nie jest równe 0,01:

Obliczenia dla p-wartości są jednak trudniejsze, bo trzeba jeszcze wprowadzić pojęcie mocy testu. Zajmiemy się tym następnym razem.

(Policzyłem, że użyłem słowa „prawdopodobieństwo” 30 razy — łącznie z tym zdaniem).


Jeśli moje teksty są dla Ciebie wartościowe, na podany niżej adres email mogę przesłać Ci wiadomość, gdy pojawią się nowe. Zapraszam też na mój kanał na youtube.