Zum Inhalt springen

Satz von Bayes

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 15. August 2003 um 15:15 Uhr durch 134.106.146.46 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

[ [ pl:Twierdzenie Bayesa]][[de:Bayes-Theorem ] ] [ [ ja:ベイズの定理 ] ] ' ' ' Theorem Bayes' ' ' ' ist ein Resultat innen [ [ Wahrscheinlichkeitstheorie ] ], genannt nach dem Reverend [ [ Thomas Bayes ] ], das einen speziellen Fall von ihr in prüfte [ [ 18. Jahrhundert ] ]. Es wird in der statistischen Folgerung ' ' Updateschätzungen der Wahrscheinlichkeit verwendet, daß unterschiedliche Hypothesen zutreffend sind, gegründet auf ' ' Beobachtungs und einem Wissen von, wie wahrscheinlich jene Beobachtungen sind, jede Hypothese gegeben. Seine getrennte Version kann scheinen, über einer Identität hinaus wenig zu gehen, die manchmal genommen wird, um die Definition der Abhänigkeitswahrscheinlichkeit zu sein, aber es gibt auch eine ununterbrochene Version. Eine häufige Störung soll denken, daß Vertrauen auf Theorem Bayes' das Wesentliche von ist [ [ Bayesianism ] ], dessen Wesentliches wirklich die Grad-von-Glaubensdeutung der Wahrscheinlichkeit ist, kontrastierte zu den verschiedenen "Frequenz" Deutungen. Wir beginnen mit dem einfachsten Fall nur zwei Hypothesen, ' ' H1 und ' ' H2. Nehmen Sie an, daß wir wissen, daß genau ein der zwei Hypothesen zutreffend sein muß und ausserdem, daß wir ihre "vorherigen" Wahrscheinlichkeiten P(H1) und P(H2) = 1 kennen - P(H1 annehmen). Jetzt wird etwas "Daten" ' ' d- beobachtet, und wir kennen [ [ Abhänigkeitswahrscheinlichkeit|Abhänigkeitswahrscheinlichkeiten ] ] ' ' des d- gegeben ' ' H1 und ' ' H2, geschrieben als P(D-|' ' H1) und P(D-|' ' H2). Wir möchten die "hinteren" Wahrscheinlichkeiten von ' berechnen ' H1 und ' ' H2, die Beobachtung von ' ' D ' gegeben '. Theorem Bayes' gibt an, daß diese Wahrscheinlichkeiten als berechnet werden können:<math > P(H_1|\cdot P(D des D)- = c-\cdot P(H_1)|H_1) </Mathe >:<math > P(H_2|\cdot P(D des D)- = c-\cdot P(H_2)|H_2) </Mathe >, wo das konstante ' ' c- gewählt werden muß, damit die Summe der zwei Wahrscheinlichkeiten 1 ist, d.h.. < Mathe > c = \frac{1}{P(H_1) \cdot P(D|H_1) + P(H_2) \cdot P(D|H_2) } </Mathe > dieses Theorem ist eine einfache Konsequenz der Definition von Abhänigkeitswahrscheinlichkeiten. um zu veranschaulichen, nehmen Sie an, daß es zwei Schüsseln voll Plätzchen gibt. Schüssel #1 hat den Span mit 10 Schokoladen und 30 normale Plätzchen, während Schüssel #2 20 von jedem hat. Jemand wählt nach dem zufall eine Schüssel aus und dann wählt nach dem zufall ein Plätzchen aus. Das Plätzchen fällt aus, ein normales zu sein. Wie ist wahrscheinlich es, daß er es aus Schüssel heraus # 1 auswählte? Intuitiv scheint es frei, daß die Antwort mehr als 50% sein sollte, da es normalere Plätzchen in der Schüssel # 1 gibt. Die exakte Antwort wird durch Theorem Bayes' gegeben. ' ' entspricht H1 Schüssel # 1 und ' ' H2 Schüssel # 2. Da die Schüssel nach dem zufall ausgewählt wurde, wissen wir P(H1) = P(H2) = 50%. Das "Daten" ' ' d- besteht in der Beobachtung eines normalen Plätzchens. Vom Inhalt der Schüsseln, wissen wir daß P(D-|' ' H1) = 75% und P(D-|' ' H2) = 50%. Formel Bayes' erbringt dann:<math > \begin{matrix } P(H_1|D) U. = U. \frac{P(H_1) \cdot P(D|H_1)}{P(H_1) \cdot P(D|H_1) + P(H_2) \cdot P(D|H_2) } \ \ \ \ \ u. = u. \cdot des \frac{50%-\cdot 75%}{50% } des 75%- + 50%-\cdot 50% \ \ \ \ \ u. = u. 60%-\end{matrix} </Mathe > zuerst, schätzten wir, daß er Schüssel #1 mit der 50%-Wahrscheinlichkeit auswählen würde, aber, nachdem wir das normale Plätzchen beobachtet haben, justieren wir unsere Schätzung bis 60%. Das Theorem ist auch, wenn wir mehr als gerade zwei Hypothesen haben, Sagen ' ' H1, ' ' H2, ' ' H3... zutreffend, von dem genau man zutreffend ist. Nehmen Sie an, daß wir die ' ' ' vorherige Wahrscheinlichkeitsverteilung ' ' ' kennen: (P(H1), P(H2), P(H3)...) sowie ' ' ' [ [ Wahrscheinlichkeitsfunktions]]: (P(D-|' ' H1), P(D-|' ' H2), P(D-|' ' H3)...) Dann die ' ' ' hintere Wahrscheinlichkeitsverteilung ' ' ': (P(H1|' ' D ' '), P(H2|' ' D ' '), P(H3|' ' D ' ')...) kann indem das Multiplizieren der vorherigen Wahrscheinlichkeitsverteilung mit der Wahrscheinlichkeitsfunktion und dann normalisieren gefunden werden, damit wir:(P(D- haben|' ' H1), P(D-|' ' H2), P(D-|' ' H3)...) = ' ' c-× ((P(H1) P(D-|' ' H1), P(H2) P(D-|' ' H2), P(H3) P(D-|' ' H3)...). Hier wieder muß das konstante ' ' c- hinsichtlich so gewählt werden bilden die Summe von den hinteren Wahrscheinlichkeiten, die bis 1 gleich sind. Der ununterbrochene Fall vom Theorem Bayes' sagt auch die hinteren Verteilungsresultate vom Multiplizieren das vorherige mit der Wahrscheinlichkeit und dann von normalisieren. Die vorherigen und hinteren Verteilungen werden normalerweise mit ihren Wahrscheinlichkeitsdichtefunktionen gekennzeichnet. Z.B. nehmen Sie an, daß der Anteil Wählern, die "ja" wählen, eine unbekannte Zahl ' ' p- zwischen 0 und 1 ist. Eine Probe ' ' der n-wähler wird nach dem zufall von der Bevölkerung gezeichnet, und es wird beobachtet, daß ' ' x- jener ' ' n-wähler "ja" wählt. Die Wahrscheinlichkeitsfunktion ist dann: ' ' L(p) = ' ' [ Konstante ] ' ' px (1-p)n-x ' '. das mit dem vorherigen Wahrscheinlichkeitsdichtefuntion von ' ' p- multiplizierend und dann normalisierend, gibt die hintere Wahrscheinlichkeitsverteilung von ' ' p- und aktualisiert folglich Wahrscheinlichkeiten im Licht der neuen Daten, die durch die Meinungsumfrage gegeben werden. So, wenn die vorherige Wahrscheinlichkeitsverteilung von ' ' p- auf dem Abstand [ 0.1 ] konstant ist, dann würde die hintere Wahrscheinlichkeitsverteilung eine Dichte der Form haben: ' ' f(p|x) = ' ' [ Konstante ] ' ' px (1-p)n-x ' ' und ' ' dieses "Konstante" würde ' ' unterschiedliches von dem sein, das in der Wahrscheinlichkeitsfunktion erscheint. ' ' ' [ [ ]] Bayesianism ist das philosophische tenet, das die Richtlinien der mathematischen Wahrscheinlichkeit anwenden, nicht nur wenn Wahrscheinlichkeiten die relativen Häufigkeiten sind, die gelegentlichen Fällen zugewiesen werden, aber auch, wenn sie die Grad Glaube zugewiesen unsicheren Angelegenheiten sind. Die Aktualisierung dieser Grade Glaubens im Licht des neuen Beweises bezieht fast unveränderlich Anwendung von Theorem Bayes' mit ein. Sehen Sie auch: * [ [ bayesische Folgerung ] ] * [ [ Paradox Raven ] ] * [ [ Irrtum des Verfolgers ] ] * [ [ Meinungen in den Statistiken verbessernd ] ] * [ [ Rasiermesser Occams ] ] * [ [ bayesisches Netz ] ]