Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Pro...
Author: Eva Krause
60 downloads 0 Views 366KB Size
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik

Bayes'sche Netze

VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes Pfeffer

Thomas Bayes Thomas Bayes [bɛi:z] * um 1702 in London † 17. April 1761 •

Bayestheorem (Satz von Bayes)



Bayesscher Wahrscheinlichkeitsbegriff



Bayessche Statistik



Bayes-Klassifikator



Bayessches Filter



Bayes'sches Netz



Bayessche Ökonometrie



Perfektes Bayessches Gleichgewicht (Spieltheorie)

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

2

Problemstellung • Wie kann Wissen über zufällige Ereignisse und kausale Zusammenhänge zwischen diesen mathematisch effizient gefasst werden um – aus Beobachtung auf die Wahrscheinlichkeit einer Folge zu schließen (Deduktion) – aus Beobachtung (Symptomen) auf die Wahrscheinlichkeit bekannter Ursachen zu schließen (Induktion) – aus Beobachtungen und grundlegendem Wissen über Zusammenhänge die Verbundwahrscheinlichkeit zu lernen?

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

3

Übersicht • Bayes'sche Netze – – – –

Einführung Modellierungsansatz Berechnung Typische Fragestellungen an ein Bayes'sches Netz

• Dynamische Bayes'sche Netze – Erweiterung um die Dimension Zeit – Modellierungsansatz – DBN = Generalisierung von Markov Modellen und Hidden Markov Modellen 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

4

Bayes'sche Netze

„Sssst“ 0,05

kein „Sssst“ 0,95

Chinesische Vase auf schiefer Ebene

• Graphentheorie + Wahrscheinlichkeitsrechnung • Gerichteter azyklischer Graph (DAG) mit – Knoten: diskretwertige Zufallsvariablen – Kanten: direkte stochastische Abhängigkeiten zwischen Variablen • Knoten ohne Eltern: – Wahrscheinlichkeit: P(A=i) ∀ i (i z.B. true, false oder Ssst, kein Ssst)

„Bumm“

• Knoten mit Eltern: – Bedingte Wahrscheinlichkeit: P(A=i|B=j,C=k) ∀ i,j,k

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

5

Beispiel (Beobachtungsszenario) • Ich wohne in Philippsburg und bin nicht zu Hause. • Mein Nachbar Harald ruft mich an, um mir mitzuteilen, dass in meinem Haus die Alarmanlage angegangen ist. • Meine Nachbarin Stefanie ruft an und teilt mir dasselbe mit. • Aber: – Die Alarmanlage wird manchmal auch durch leichte Erdbeben ausgelöst. – Harald verwechselt schon mal das Geräusch meines Telefons mit dem Geräusch der Alarmanlage.

• Variablen: – Erdbeben, Einbruch, Alarm, Anruf Stefanie und Anruf Harald 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

6

Modellierung • Erdbeben & Einbruch sind unabhängig – P(Erdbeben|Einbruch) = P(Erdbeben) – P(Einbruch|Erdbeben) = P(Einbruch)

• Kausale Zusammenhänge – Erdbeben oder Einbruch führen unabhängig voneinander mit bestimmten Wahrscheinlichkeiten zu einem Alarm – Alarm/Kein Alarm führen mit bestimmten Wahrscheinlichkeiten zu Anrufen der Nachbarn.

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

7

Bayes'sches Netz

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

8

Probabilistische Inferenzen • Diagnostische Inferenz:

– Geg: Effekt – Ges: Ursache – P(Alarm | Anruf Stefanie)

• Kausale Inferenz:

– Geg: Ursache – Ges: Effekt – P(Anruf Stefanie | Einbruch)

• Interkausale Inferenz:

– Geg: eine mögliche Ursache, Effekt – Ges: andere Ursache – P(Einbruch | Anruf Stefanie, Erdbeben)

• + Kombination aus 1-3 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

9

Inferenz nach Beobachtungen • Diagnostisch

Kausal

Interkausal

? Einbruch

Erdbeben

Einbruch

Erdbeben

Einbruch

Erdbeben

? Alarm

Anruf Harald

1.6.2011

Alarm

Anruf Stefanie

Anruf Harald

Alarm

?

Anruf

Stefanie

Anruf Harald

PLT2 (c) 2009-2011, Urbas, Pfeffer

Anruf Stefanie

10

Neues einfaches Beispiel • Hebebühne – Batterie, hebbares Teil – Batterieanzeige (Gauge), Bewegung

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

11

(Evidenz)

? (Query) Kausale Inferenz

• Wie wahrscheinlich ist es, dass wir das Teil heben können, wenn es hebbar ist? • P(M|L) • Allgemeiner Ansatz (Produktregel) – Q=Query, E=Evidenz – P(Q|E)=ΣP(Q,R=ri|E) mit R = Eltern(Q), ohne Evidenzen – ΣP(Q,R=ri|E) = ΣP(Q|R=ri,E)P(R=ri|E) 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

12

(Query)

?

(Evidenz)

Diagnostische Inferenz • Wie wahrscheinlich ist es, dass das Teil zu schwer ist, wenn wir sehen, dass sich nichts bewegt? • P(M|L) • Allgemeiner Ansatz (Bayes'sche Regel) – P(Q|E)= P(E|Q)P(Q)/P(E)

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

13

(Query)

(Evidenz)

?

(Evidenz)

Interkausale Inferenz • Wie wahrscheinlich ist es, dass das Teil nicht angehoben werden kann, wenn wir sehen, dass sich nichts bewegt und die Gauge eine leere Batterie anzeigt? • P(¬L|¬G, ¬M) • Ansatz wie bei kausaler Inferenz 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

14

Berechnung d. bedingten Wahrscheinlichkeit eines Knotens in einem einfach verbundenen Netz (1/2)

• Gesucht: P(X|E) • Vereinfachung: Netz nur einfach verbunden (Polytree) • Aufteilung in diagnostische und kausale Evidenz (unabhängig!) P(X|E) = α P(E-|X) P(X|E+) 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

15

Berechnung der bed. WS eines Knotens in einem einfach verbundenen Netz (2/2)

• … • Berechnung diagn.Evidenz P(X|E+) – Alle Kombinationen der Werte der Elternknoten gemäß WSTabelle von X betrachten und mit ihren WS gewichten, die rekursiv auf gleiche Weise berechnet werden.

• Berechnung kausalen Evidenz P(E-|X) – Alle Kombinationen der Werte der Kindknoten gemäß WSTabelle von X betrachten und mit ihren WS gewichten, die rekursiv auf gleiche Weise berechnet werden.

• Algorithmus 1.6.2011

Є

O(n)

PLT2 (c) 2009-2011, Urbas, Pfeffer

16

Belief-Net-Ask-Algorithmus • Beiträge von E+ und E– P(X|E+,E-) = (P(E-|X,E+)+P(X|E+))/P(E-|E+)

• X d-separiert E+ und E– Exkurs Abhängigkeit in BN, d-separation  F. 24ff – P(X|E) = a P(E-|X) P(X|E+)

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

17

Topologie: Mehrfach verbundene Netze • Ursache kann mehrere Effekte bewirken.

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

18

Effizienzsteigerung • Cluster Methode

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

19

Konditionierung • Wertebelegung

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

20

Abhängigkeiten in Bayes'schen Netzen • Definition | : Bei gegebenem Y sind X und Z bedingt unabhängig

• | JA

1.6.2011

| Nein | Ja PLT2 (c) 2009-2011, Urbas, Pfeffer

21

Kausale Verbindungen in BN • Seriell – B bekannt  A,C unabhängig

A

B C

• Divergent – A bekannt  B,C bedingt unabhängig

A

• Konvergent – C unbekannt  A,B unabhängig – C bekannt  A,B bedingt abhängig 1.6.2011

C

B B C

A

PLT2 (c) 2009-2011, Urbas, Pfeffer

22

D-Separation - Begriff / Definition D-Separation erlaubt eine allgemeine Aussage darüber, ob eine Knotenmenge X unabhängig von einer Knotenmenge Y ist (bei gegebener Evidenzknotenmenge E) • Zwei verschiedene Variablen X und Y sind d-separated (directiondependent-separated), falls auf allen (ungerichteten) Pfaden zwischen X und Y eine Variable Z existiert, so dass entweder – die Verbindung seriell oder divergent und Z ein Evidenzknoten ist oder – die Verbindung konvergent und weder Z noch Z's Nachfahren Evidenzknoten sind

• Sind zwei Knoten nicht d-separated, werden sie auch als dconnected bezeichnet 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

23

Topologische Interpretation • Jeder (ungerichtete) Pfad von X nach Y ist blockiert wenn er eine Evidenz enthält. • Ein Pfad ist blockiert durch einen Knoten z, wenn – z ∈ E und z ein- und ausgehenden Unterpfad hat – z ∈ E und beide Unterpfade ausgehend sind – z ∉ E, beide Pfade eingehend und ∀ Nachfolger z‘ von z gilt: z‘ ∉ E

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

24

D-Separation - Beispiel A

F C

B

G D

H

E

Welche Aussagen sind wahr? F d-separated von H bei geg. G C d-separated von G bei geg. F A d-separated von B bei geg. D A d-separated von B D d-separated von F bei geg. C, G 1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

25

Literatur & Bibliotheken • Literatur

– Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems. Morgan Kaufmann – Charniak, E. (1991) Bayesian Networks without Tears. AI Magazine. 1991. 50-63. – Korb, K. and Nicholson, A. (2003) Bayesian Artificial Intelligence, Chapman&Hall

• Bibliotheken

– Kevin Murphy's Bayesian Network Toolbox for MatLab: http://bnt.sourceforge.net – Lernen von Bayesschen Netzen in R http://www.mascherini.org/Mastino.html – Bayesian network tools in Java: http://bnj.sourceforge.net/ – Tutorial: http://aispace.org/bayes/ – AIspace Java-Applet: http://aispace.org/bayes/

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

26

Grundlagen - Unbedingte/Bedingte WSK • Unbedingte WS: P(A) • Bedingte WS: P(B|A) – WS des Ereignisses B unter der Bedingung, dass A bereits eingetreten ist – Rechenregeln: • PB∣A=P A∧B/ P A • Allgemeiner Multiplikationssatz für 2 Ereignisse:

P  A∧B  =P  A⋅P  B∣A =P  B ⋅P  A∣B 

• Allgemeiner Multiplikationssatz für n Ereignisse:

  n

P

¿ Ai = P  A1 ⋅P  A 2∣ A1 ⋅P  A3∣ A1∧ A2 ⋅⋅P  An ∣A 1 ∧∧ A n−1 

i=1

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

27

¿

Grundlagen – Totale WSK / Bayes-Satz •Formel der totalen Wahrscheinlichkeit: n

P  B  =∑ P  B∣Ai ⋅P Ai  •Der Bayes'sche Satz:

P  Ak ∣B =

1.6.2011

i=1

P  B∣ Ak ⋅P  Ak  P  B

=

P  B∣ Ak ⋅P  Ak  n

∑i=1 P  B∣Ai ⋅P  Ai 

PLT2 (c) 2009-2011, Urbas, Pfeffer

28

Darstellung kausaler Beziehungen durch bed. WS.

• Produktregel: Von der Ursache zur (wahrscheinlichen) Wirkung • P(A,B|C)= P(A|B,C)*P(B|C) = P(B|A,C)*P(A|C)

• Bayes'sche Regel: Von der Wirkung zur (wahrscheinlichen) Ursache • P(B|A,C)= P(A|B,C)*P(B|C) / P(A,C)

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

29

1.6.2011

PLT2 (c) 2009-2011, Urbas, Pfeffer

30

Suggest Documents