Aufbauend auf dem Bayes’schen Theorem hat sich die Bayes’sche Statistik entwickelt, welche im Rahmen der induktiven Statistik und des maschinellen Lernens zur Schätzung von Parametern und zum Testen von Hypothesen verwendet wird.

Bayes’sche Statistik als Erwei­te­rung von Verfahren des maschi­nellen Lernens

Beitrag teilen:

Thomas Bayes wurde Anfang des 18. Jahrhun­derts als Sohn eines Pfarrers in London geboren und wurde nach seinem Studium der Theologie ebenfalls Pfarrer. Seine weiteren Inter­essen galten der Logik und der Statistik, in denen er in seiner Freizeit auch forschte. Sein wesent­li­cher wissen­schaft­li­cher Beitrag ist das sogenannte Bayes’sche Theorem, welches erst drei Jahre nach seinem Tod veröf­fent­licht wurde

$P(A_k|E)=\frac{P(A_k)\cdot P(E|A_k)}{\sum_{i=1}^k P(A_i)\cdot P(E|A_i)}$

Als Beispiel für die Anwen­dung nehmen wir einen medizi­ni­schen Schnell­test, welcher bei 95% der erkrankten Personen ein positives Testergebnis liefert ($P(positiv|krank)=0,95$). Bei 2% der gesunden Menschen führt der Test fälsch­li­cher­weise ebenfalls zu einem positiven Ergebnis ($P(positiv|gesund)=0,02$). An der Krank­heit haben sich 2% aller Menschen infiziert ($P(krank)=0,02$ und entspre­chend $P(gesund)=0,98$) und alle Menschen konnten getestet werden. Frage: Wenn eine Person positiv getestet wurde, wie hoch ist dann die Wahrschein­lich­keit, dass sie die Krank­heit tatsäch­lich hat?

$P(krank|positiv)=\frac{P(krank)\cdot P(positiv|krank)}{P(krank)\cdot P(positv|krank)+P(gesund)\cdot P(positiv|gesund)}=49%$

Aufbauend auf dem Bayes’schen Theorem hat sich die Bayes’sche Statistik entwi­ckelt, welche im Rahmen der induk­tiven Statistik und des maschi­nellen Lernens zur Schät­zung von Parame­tern und zum Testen von Hypothesen verwendet wird. Dazu werden die Parameter initial mit angenom­menen Vertei­lungen belegt (sogenannten a-priori-Vertei­lungen). Iterativ werden die Vertei­lungen durch Statis­tiken von Stich­proben oder durch Ergeb­nisse von Experi­menten an die Problem­stel­lung angepasst (aus den a-priori-Vertei­lungen werden post-priori-Vertei­lungen).

Ein Beispiel, welches in der Literatur häufig heran­ge­zogen wird, ist die experi­men­telle Bestim­mung von Gewinn­wahr­schein­lich­keit bei einar­migen Banditen. Nehmen wir beispiels­weise drei Banditen mit unter­schied­li­chen (unbekannten) Gewinn­wahr­schein­lich­keiten (als Ergebnis eines Spiels gibt es nur Gewinn oder nicht Gewinn mit konstanter Gewinn­höhe). Da wir kein Vorwissen haben, nehmen wir für die Gewinn­wahr­schein­lich­keiten jeweils eine Beta-Vertei­lung mit den Parame­tern $a=1$ und $b=1$ (entspricht einer Gleich­ver­tei­lung) an. Zur Bestim­mung der post-priori-Vertei­lungen wählen wir iterativ (in Abhän­gig­keit der bereits gesam­melten Erfah­rungen) einen Banditen aus und passen dessen Gewinn­wahr­schein­lich­keits­kurve entspre­chend des Ergeb­nisses des Spiels an. Man kann das Vorgehen abbre­chen, wenn sich die Wahrschein­lich­keits­kurven der drei Banditen nicht mehr signi­fi­kant verän­dern.

In den folgenden Abbil­dungen sind die Ergeb­nisse für den beschrie­benen Versuch nach 5, 10, 20, 50, 100 und 200 Spiele darge­stellt. Die tatsäch­liche Gewinn­wahr­schein­lich­keit des blauen Banditen ist 0,2, die des grünen Banditen 0,5 und die des roten Banditen 0,75. Man erkennt die Entwick­lungen von den a-priori-Wahrschein­lich­keiten (alle Gewinn­wahr­schein­lich­keiten gleich wahrschein­lich) zu den post-priori-Wahrschein­lich­keiten.

Bayes’sche Statistik als Erweiterung von Verfahren des maschinellen Lernens

Neben den geschätzten Gewinn­wahr­schein­lich­keiten erkennt man in den Abbil­dungen die Streuung in den Ergeb­nissen. Diese lassen sich als Sicher­heit bzw. Unsicher­heit für die Annahme einer Gewinn­wahr­schein­lich­keit inter­pre­tieren. Um diesen Mehrwert an Infor­ma­tionen für unter­schied­liche Anwen­dungen nutzen zu können, werden Algorithmen des maschi­nellen Lernens und der künst­li­chen Intel­li­genz um Ansätze der Bayes’schen Statistik erwei­tert.

Zur Verdeut­li­chung: Stellen Sie sich vor, Sie haben eine Problem­stel­lung, welche auf Basis von Daten gelöst werden soll. Erfah­rungs­gemäß unter­liegen empiri­sche Daten einer gewissen Streuung, sind fehler­be­haftet, teilweise unvoll­ständig und, zusam­men­fas­send, nicht eindeutig. Sie trainieren mit diesen Daten Ihr Modell und bekommen als Ergebnis einen Wert, welcher augen­schein­lich das richtige Ergebnis zu Ihrer Problem­stel­lung darstellt. Wie kann das aber sein, wenn die Daten­basis nicht eindeutig ist? Der Lösungs­al­go­rithmus muss also so angepasst werden, dass alle Daten­pro­bleme im Ergebnis Berück­sich­ti­gung finden. Um dies zu errei­chen, entwi­ckelt man aktuell angepasste Lösungs­ver­fahren für relevante Algorithmen des maschi­nellen Lernens, welche die Streuung in den Daten in jedem Berech­nungs­schritt berück­sich­tigen und als Ergebnis eine Vertei­lung ausgeben. Ein Beispiel stellen künst­liche neuro­nale Netze dar, bei denen nicht nur die Ausgaben durch post-priori-Vertei­lungen ersetzt werden, sondern auch die Netzge­wichte. Neben den Lösungs­ver­fahren müssen auch Schnitt­stellen zur Weiter­ver­ar­bei­tung der Ergeb­nisse in Form von Vertei­lungen angepasst werden. Wir haben die Bayes’sche Statistik beispiels­weise genutzt, um in einem durch den mFund geför­derten Forschungs­pro­jektes Angebots­preise auf Basis einer stellen­weise schwach besetzten Daten­basis zu bestimmen.

Picture of Björn Piepenburg

Björn Piepen­burg

Projektanfrage

Vielen Dank für Ihr Interesse an den Leistungen von m²hycon. Wir freuen uns sehr, von Ihrem Projekt zu erfahren und legen großen Wert darauf, Sie ausführlich zu beraten.

Von Ihnen im Formular eingegebene Daten speichern und verwenden wir ausschließlich zur Bearbeitung Ihrer Anfrage. Ihre Daten werden verschlüsselt übermittelt. Wir verarbeiten Ihre personenbezogenen Daten im Einklang mit unserer Datenschutzerklärung.