Bayesian inference

Du passt deine Überzeugung an, wenn du neue Informationen bekommst basierend auf Bayes’ Theorem:

P(A | B) = \frac{P(B | A)P(A)}{P(B)}
  • P(A)P(A): Vorwissen/Hypothese (“Prior”)
  • P(A|B)P(A | B): aktualisiertes Wissen (“Posterior”)
  • P(B|A)P(B | A): wie gut erklärt die Hypothese die Daten?
  • P(B)P(B): wie wahrscheinlich sind die Daten? (“eher Normalisierungsfaktor”)

Zum Beispiel:

  • AA: “Ich bin krank”
  • BB: “Test ist negativ.”

Dann

  • P(A)P(A): Wahrscheinlichkeit krank zu sein vor dem Test
  • P(A|B)P(A | B): Wahrscheinlichkeit, krank zu sein trotz negativem Test
  • P(B|A)P(B | A): Wahrscheinlichkeit, dass der Test negativ ist, obwohl ich krank bin (= falsch negativ)
  • P(B)P(B): Wie häufig kommen negative Tests vor?

Leave a message