Reasoning and Decision-Making under Uncertainty 13. Session: Markov Logic (Networks) & Summary
Prof. Dr.-Ing. Stefan Kopp Center of Excellence „Cognitive Interaction Technology“ AG Sociable Agents
Sociable gents
Markov Logic! [Richardson & Domingos, 2006] Originated from Natural Language Processing Natural language is characterized by ‣ Complex relational structure ‣ High uncertainty (ambiguity, imperfect knowledge) First-order logic handles relational structure, probability handles uncertainty ‣ Let’s combine the two ‣ more powerful than PRMs
2
Sociable gents
First-Order Logic Constants, variables, functions, predicates ‣ E.g.: Anna, X, mother_of(X), friends(X,Y) Grounding: Replace all variables by constants ‣ E.g.: friends (Anna, Bob) World (model, interpretation) ‣ Assignment of truth values to all ground predicates
Sociable gents
Markov Logic Syntax: ‣ First-order logic + Weights Semantics: ‣ Templates for Markov/Bayesian networks Inference: ‣ Weighted satisfiability + MCMC [ Learning: ] ‣ Inductive Logic Programming (IPL)
4
Sociable gents
Markov Networks Undirected graphical models
B
A
with a different form of factorization
C
D
Potential functions defined over all cliques C Markov Network = product of potentials on variables
Z: Partition function
Sociable gents
Markov Logic Networks
Alternative factorization for a set of weighted binary features (simplified version of Boltzmann machine):
Weight of Feature i Feature i
Sociable gents
Markov Logic Networks A logical KB is a set of hard constraints on the set of possible worlds Let’s make them soft constraints: ‣ When a world violates a formula, it becomes less probable, not impossible! ‣ Give each formula a weight (Higher weight ⇒ Stronger constraint)
Sociable gents
Definition A Markov Logic Network (MLN) is a set of pairs (F, w) where ‣ F is a formula in first-order logic ‣ w is a real number Together with a set of constants, it defines a Markov network with ‣ one node for each grounding of each predicate in the MLN ‣ one feature for each grounding of each formula F in the MLN, with the corresponding weight w
Sociable gents
Markov Logic Networks MLN is template for ground Markov nets Probability of a world
x:
Weight of formula i
No. of true groundings of formula i in x
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B)
Smokes(A) Cancer(A)
Smokes(B) Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B) Friends(A,B) Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B) Friends(A,B) Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B) Friends(A,B) Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
More on MLNs Markov Logic Network ‣ is template for ground Markov nets ‣ Typed variables and constants greatly reduce size of ground Markov net ‣ Functions, existential quantifiers, etc. ‣ MLN without variables = Markov network (subsumes graphical models) Relation to First-order logic: ‣ Infinite weights ➔ First-order logic ‣ Satisfiable KB, positive weights ➔ Satisfying assignments = Modes of distribution ‣ MLNs allow contradictions between formulas Sociable gents
Inference: MPE/MAP Goal: Find most likely truth values of non-evidence ground atoms given evidence Idea: Apply weighted satisfiability solver (max‘es sum of weights of satisfied clauses) MaxWalkSat algorithm [Kautz et al., 1997] ‣ Start with random truth assignment ‣ With prob p, flip atom that max‘es weight sum; else flip random atom in unsatisfied clause ‣ Repeat n times ‣ Restart m times
Sociable gents
Conditional Inference P(Formula|MLN,C) = ? ‣ MCMC: Sample worlds, check formula holds P(Formula1|Formula2,MLN,C) = ? If Formula2 = Conjunction of ground atoms ‣ First construct min subset of network necessary to answer query -
-
Initialize Markov net to contain all query preconditions For each node in network ‣ Add node’s Markov blanket to network ‣ Remove any evidence nodes Repeat until done
‣ Then apply MCMC, Gibbs sampling, or other
Sociable gents
Relation to Other Approaches Representation
Logical language
Probabilistic language
Markov logic
First-order logic
Markov nets
RMNs (relational markov network)
Conjunctive queries Markov nets
PRMs (prob. relational model)
Frame systems
Bayes nets
KBMC (know.-based model construction)
Horn clauses
Bayes nets
SLPs (stochastic logic programs)
Horn clauses
Bayes nets
Sociable gents
Available tools ‣ ProbCog (TU München) -
http://ias.cs.tum.edu/research/probcog
‣ Tuffy (U Wisconsin-Madison) -
http://research.cs.wisc.edu/hazy/tuffy/
‣ Alchemy (U Washington) -
http://alchemy.cs.washington.edu/
See also: http://en.wikipedia.org/wiki/Markov_logic_network
18
Sociable gents
Example: tuffy
19
Sociable gents
Example: tuffy MAP inference: produce a most likely world ‣ suppose you want to find the most likely set of people with cancer
Marginal inference ‣ estimate the probability that each person has cancer
20
Sociable gents
Example: ProbCog (M. Beetz)
21
Sociable gents
Work with us! Research in the CITEC Sociable Agents Group applies advanced A.I. methods and cognitive models to increase interaction abilities of technical systems Many sources of uncertainty: ‣ complex communication system (language, nonverbal behavior) ‣ vague and underspecified meanings, implicit communication, etc. ‣ user-based inferences: intentions, beliefs, skills, mood, etc. ‣ predictability problems, learning problems ‣ architectural complexity of complete systems
22
Sociable gents
http://www.techfak.uni-bielefeld.de/ags/soa/theses/open-topics.html
23
Sociable gents
Summary of this lecture Ein idealer rationaler Agent ... 1. 2. 3. 4.
Überlegt nicht bevor er handelt Maximiert seine Kosten Verwendet eine externe Repräsentation Handelt um seine Ziele möglichst schnell zu erreichen
24
Sociable gents
Summary of this lecture Klassisches logisches Schließen ist 1. 2. 3. 4.
Nicht-monoton, modular und global Abduktiv, lokal und inferenziell Modular, lokal und monoton Super
25
Sociable gents
Summary of this lecture In klassischen logik-basierten KI-Systemen entsteht Unsicherheit durch 1. 2. 3. 4.
Unvollständiges Wissen und exaktes Schließen Zweiwertige Semantik und Nicht-Monotonie das Frame-Problem Default-Annahmen und Zurücknahme von Schlüssen
26
Sociable gents
Summary of this lecture Welches Entscheidungsproblem ist das schwerste weil unsicherste? 1. 2. 3. 4.
Single-state problem Sensorless, conformant problem Exploration problem Contingency problem
27
Sociable gents
Summary of this lecture Der Bayesianische Ansatz, Unsicherheit zu modellieren, interpretiert Wahrscheinlichkeit als ... 1. 2. 3. 4.
die Häufigkeit, eine Aussage in der Welt erfüllt zu finden Sicherheit einer möglichen Welt Subjektiver Grad des Glaubens/Sicherheit bzgl. einer Aussage Vagheit bzgl. der Erfülltheit einer Aussage
28
Sociable gents
Summary of this lecture Als „Conditioning“ bezeichnet man 1. das Tuppieren der Haare 2. das Einschränken möglicher Welten 3. das Anpassen einer Wahrscheinlichkeitsverteilung anhand von Evidenz 4. eine bedingte Wahrscheinlichkeit nach Anwenden der Bayes-Regel
29
Sociable gents
Summary of this lecture Marginalisierung entsteht aus der Anwendung von 1. 2. 3. 4. 5.
Bayes-Regel Gesetz der totalen Wahrscheinlichkeit Kettenregel Produktregel Keines von allem
30
Sociable gents
Summary of this lecture Ein Bayes-Netz repräsentiert formal 1. 2. 3. 4.
kausale Einflüsse zwischen Variablen im Grunde nur Wahrscheinlichkeitsverteilungen (Un-)Abhängigkeiten zwischen Zufallsvariablen einen naiven Klassifikator
31
Sociable gents
Summary of this lecture Die sogenannte „Markov Blanket“ eines Knotens enthält 1. 2. 3. 4.
Alle Nachbarn Alle Eltern, Kinder und Kindeskinder Alle Eltern, Kinder und Kindeseltern Alle Kinder, Geschwister und deren Kinder
32
Sociable gents
Summary of this lecture Gegeben alle Elternknoten, ist ein Knoten bedingt unabhängig von 1. 2. 3. 4.
Allen Nachbarn Allen Nicht-Nachfahren Allen Nachfahren Allen Nicht-Nachbarn
33
Sociable gents
Summary of this lecture
In diesem Bayes-Netz gilt: P(c,a,r,b,e) = ... 1. 2. 3. 4.
P(c|a,r,b,e)P(r|a,b,e)P(r|b,e)P(e)P(b) P(c|a,b)P(a|b,e)P(r|e)P(a)P(e) P(e)P(r|e)P(c|a)P(a|b,e)P(b) P(r,a,b,e|c)P(c)P(e)P(a)P(b)
34
Sociable gents
Summary of this lecture Welche Aussage ist falsch, wenn C, A und R gegeben sind? 1. 2. 3. 4.
Der Pfad E-A-C ist geblockt. Der Pfad R-E-A-B ist geblockt. Der Pfad B-A-C ist geblockt. Der Pfad A-E-R ist offen.
35
Sociable gents
Summary of this lecture Das MEU-Prinzip betrifft... 1. 2. 3. 4.
Die Mehrheit der EU-Bürger Die Auswahl von Aktionen nach gegebenen Utility-Werten Die Präferenzen bei der Planung von Handlungsfolgen Kriterien zur Aktionsauswahl nach erwartetem Nutzen
36
Sociable gents
Summary of this lecture Die Definition eines Markov-Entscheidungsproblems beinhaltet nicht 1. Ein Übergangsmodell 2. Eine Belohnungsfunktion 3. Einen Zielzustand 4. Einen Startzustand 5. Ein Beobachtungsmodell
37
Sociable gents
Summary of this lecture Maximum Likelihood Estimation ist ein Verfahren, um... 1. Die Struktur von Bayes-Netzen zu lernen 2. Den Wert einer Evidenz abzuschätzen 3. Die Parameter einer bedingten WS-Verteilung zu lernen 4. Fehlende Datenpunkte beim Parameterlernen zu rekonstruieren
38
Sociable gents