Upload
marlis-kanzler
View
104
Download
1
Embed Size (px)
Citation preview
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 1/15
Aspekte eine echtenInformationstheorie
1. Einführung
2. Informationsalgebren
3. Unsicherheit
4. Schlussbemerkungen
Inhalt:
Dr. Rolf HaenniZentrum für den wissenschaftlichen Nachwuchs
Universität Konstanz
Information
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 2/15
Die Welt ist voller Information
1. Einführung
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 3/15
Im Gegensatz dazu beruht die heutige Informatik oft auf der Annahme, dass Information konsistent, präzis und sicher ist
WidersprüchlicheInformation
WidersprüchlicheInformation
UnsichereInformationUnsichere
Information
PräziseInformation
PräziseInformation
Konsistente Information
Konsistente Information
SichereInformation
SichereInformation
UnpräziseInformationUnpräzise
Information
InhaltsleereInformationInhaltsleereInformation
Der Mensch findet sich in einer solchen Informationsspähre gut zurecht, auch wenn Information oft widersprüchlich, unpräzis, oder unsicher ist
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 4/15
Bemerkungen:
• Um die Informatik auf eine saubere theoretische Grundlage zu stellen, braucht es eine echte Informationstheorie
• Eine solche gibt es bis heute nur Ansatzweise
• Das berühmteste Beispiel ist die Informationstheorie von Shannon
untersucht nur den Gehalt einer Information
• Wesentlich allgemeiner sind die Informationsalgebren und Informationssysteme im Sinne von J. Kohlas und P.P. Shenoy (Springer 2003)
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 5/15
2. Informationsalgebren
• Information kann als Oberbegriff für Aussagen, Hinweise, Wissen, Beobachtungen, Fakten, … verstanden werden
• Aus einer abstrakten Sicht bezeichnen wir eine Information oder ein Informationsstück (piece of information) mit
“Atome” für eine echte Informationstheorie
• bezeichnet die Menge aller möglichen Informationen
• Das Ziel dieser Theorie ist es, die Natur (Aufbau, Struktur, Gesetze, Eigenschaften, usw.) von solchen abstrakten Informations-Objekten zu untersuchen
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 6/15
• Jede Information bezieht sich auf eine bestimmte Frage-stellung, die sogenannte Domäne
• bezeichnet die Menge der Informationen mit
• beantwortet die mit zusammenhängenden Fragen ganz oder teilweise
• bezeichnet die Menge aller möglichen Domänen
• Es kann vorkommen, dass eine Domäne in einer anderen Domäne enthalten ist:
• Die grösste Domäne, die sowohl in wie auch in enthalten ist, wird mit bezeichnet
• Die kleinste Domäne, die sowohl wie auch enthält, wird mit bezeichnet
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 7/15
• Mathematisch ausgedrückt ist ein Verbund (lattice)
• Beispiel: Menge der Teilmengen von
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 8/15
Die zwei wichtigsten Operationen für Informationen sind die Kombination und die Marginalisation:
• Kombination:
zwei Information und werden kombiniert,
wobei eine neue Information entsteht
enthält mehr Information als , dann und nur dann
wenn• Marginalisation:
eine Information mit Domäne wird auf eineneue Domäne projeziert, wobei eine neueInformation entsteht
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 9/15
Das Inferenz-Problem lässt sich wie folgt formulieren:
Gegeben:
verschiedene Informationen auf verschiedenen Domänen
Gesucht:
die Gesamtinformation marginalisiert auf eine Domäne , für die ein besonderes Interessebesteht
Mathematische Beschreibung einer der wesentlichen Aufgaben bzw. Fähigkeiten des
menschlichen Geistes
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 10/15
Beispiel 1:
Fakten:
F
Wissen:
Gesucht:
Lösung:
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 11/15
Beispiel 2:
Gesucht:
Lösungen:
Raucher RReise nach
Afrika A
Tuberkulose TBronchitis BKrebs K
Schattenauf X-Ray S
Husten H
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 12/15
Axiome:
(A1): Kommutative Halbgruppe:
(A2): Konsistenz der Domäne:
(A3): Stabilität der Marginalisation:
(A3): Transitivität der Marginalisation:
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 13/15
Axiome: (fort.)
(A5): Partielle Distributivität: ,
(A6): Idempotenz:
(A7): Leere Information:
Falls die oben genannten Axiome erfüllt sind, spricht man von Informationsalgebren, und das Inferenz-Problem kann dann mit lokaler Berechnung gelöst werden
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 14/15
Lokale Berechnung:
A B C D F G
H
E
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 15/15
3. Unsicherheit
• Information ist oft mit einer bestimmten Unsicherheit behaftet
• Um Unsicherheit zu modellieren, stellt die Mathematik die Wahrscheinlichkeitstheorie zu Verfügung
• Eine unsichere Information kann wie folgt beschrieben werden:
– Menge von verschiedenen Interpretationen
– Wahrscheinlichkeitsverteilung über
– Abbildung von nach
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 16/15
• Es kann gezeigt werden, dass eine unsichere Information selbst wieder eine Information ist, und dass dabei die Axiome der Informationsalgebra erfüllt sind
• Beispiel: Zeuge vor Gericht mit Alibi für Angeklagten X
„X ist schuldig“
„X ist unschuldig“
„X ist schuldig oder unschuldig“ leere Information
Dr. Rolf Haenni, University of Konstanz November 28, 2002
Page 17/15
4. Schlussbemerkungen
• Informationsalgebren bilden einen vielversprechenden Ansatz für eine echte Informationstheorie
• Eine solche ist wichtig, um
– das Phänomen Information besser zu verstehen
– eine Antwort auf die Frage “Was ist Information” zu geben
– die Informatik im Sinne einer Informationswissenschaft auf eine saubere theoretische Grundlage zu stellen
– Berechnungsmethoden von allgemeiner Gültigkeit zu entwickeln