Du passt deine Überzeugung an, wenn du neue Informationen bekommst basierend auf Bayes’ Theorem:
P(A | B) = \frac{P(B | A)P(A)}{P(B)}- : Vorwissen/Hypothese (“Prior”)
- : aktualisiertes Wissen (“Posterior”)
- : wie gut erklärt die Hypothese die Daten?
- : wie wahrscheinlich sind die Daten? (“eher Normalisierungsfaktor”)
Zum Beispiel:
- : “Ich bin krank”
- : “Test ist negativ.”
Dann
- : Wahrscheinlichkeit krank zu sein vor dem Test
- : Wahrscheinlichkeit, krank zu sein trotz negativem Test
- : Wahrscheinlichkeit, dass der Test negativ ist, obwohl ich krank bin (= falsch negativ)
- : Wie häufig kommen negative Tests vor?