Upload
vuongkien
View
219
Download
2
Embed Size (px)
Citation preview
LEOPOLD-FRANZENS-UNIVERSITÄT INNSBRUCK
INSTITUT FÜR PSYCHOLOGIE
SS 2008
Forschungsseminar: Neuere psychologische Fachliteratur
Cognitive Science
Leiter: Ao.Univ.-Prof. Dr. Karl Leidlmair
John Searle
Karin Kaufmann 0517353
Michael Mathis 0317563
Katharina Zech 0415202
Innsbruck, 28. April 2008
1
1. Biographie.............................................................................................2
2. Philosophie des Geistes.......................................................................2
3. Künstliche Intelligenz............................................................................4
4. Das Programm von Roger Schank.......................................................5
5. Gedankenexperiment............................................................................6
6. Kann eine Maschine denken.................................................................9
7. Intentionalität.......................................................................................10
8. Kritik....................................................................................................12
8.1. Der System Reply (Berkeley)..................................................13
8.2. Der Robot Reply (Yale)...........................................................13
8.3. Ned Block…………………………………...…………………….14
8.4. Jerry Alan Fodor………………………….………………………15
8.5. Bruce Bridgeman………………………….……………………..16
8.6. Roger Schank.................................................……….............18
9. Literaturverzeichnis.............................................................................20
2
1. Biographie John Rogers Searle ist ein amerikanischer Philosoph. Er wurde
1932 in Denver/USA geboren und studierte von 1949 bis 1952
an der Universität von Wisconsin und von 1952 bis 1959 an der
Oxford University Philosophie. Seit 1959 ist er bis heute
ordentlicher Professor an der Universität von Kalifornien –
Berkeley.
Innerhalb der Philosophie beschäftigt er sich vor allem mit der
Sprachphilosophie und der Philosophie des Geistes. Eng verbunden damit ist der
Themenbereich Künstliche Intelligenz (KI). Searle hat sich zu den Grenzen der
Verwirklichung von KI aus seiner Sicht mehrfach geäußert, unter anderem durch sein
Gedankenexperiment vom "Chinesischen Zimmer". Von zentraler Bedeutung ist
hierbei der Begriff der Intentionalität im Sinne von Gerichtet-sein-auf-Etwas. Um den
Bereich dieser Fragestellungen geht es in der vorliegenden Arbeit.
2. Philosophie des Geistes Diese Teildisziplin der Philosophie beschäftigt sich mit dem Leib-Seele-Problem.
Neben Philosophen tragen Psychologen, Informatiker, Neurobiologen zu diesem
Forschungsbereich bei. Schon fast 2500 Jahre sucht die Wissenschaft nach
Antworten auf die Frage, in welcher Beziehung der Körper und die Seele zu einander
stehen. Es stellen sich verschiedene Fragen: Gibt es überhaupt geistige Zustände?
Und wenn ja, wie sind diese beschaffen und können diese erklärt werden? Sind sie
gänzlich verursacht durch die körperlichen Zustände oder sind sie etwas
Eigenständiges? Was ist Geistiges und was ist Körperliches, und wie weit ist es
möglich, diese Vorgänge zu imitieren im Rahmen der Künstlichen Intelligenz?
Mit diesen und mit ähnlichen Fragen beschäftigt sich die Geistphilosophie. Heute
werden größten teils andere Begriffe verwendet für Leib und Seele, nämlich Geist
und Gehirn, bzw. wird "von neuronalen, materiellen, physiologischen, körperlichen,
objektiven, neuronalen, physiologischen oder physischen Zuständen einerseits und
geistigen, psychischen, subjektiven oder mentalen Zuständen andererseits"
(Westermann, 2000: 37) gesprochen. Besonders im Rahmen der Forschung nach
Künstlicher Intelligenz wird gefragt, ob mentale Zustände nicht nur beim Menschen
3
vorkommen, sondern auch bei Computer vorkommen könnten. Wenn nein – warum
nicht? Und warum kann ein materieller Leib, geistige Zustände hervorbringen? Ist
das überhaupt möglich? Antworten auf diese Fragen stehen noch offen.
Geschichtlich gesehen gibt es zwei Extrempositionen bezüglich der Leib-Seele-
Beziehung. Diese gehen zurück auf die antiken Philosophen Aristoteles und Platon.
Der letztgenannte Philosoph stellte sich die Seele und den Leib als von einander
unabhängig vor: "Dualisten nehmen an, dass geistige Zustände nicht nur ganz
anders erscheinen als materielle Zustände, sondern sich auch von ihnen
unterscheiden" (Westermann, 2000: 38). Die Seele ist im Leib gefangen, wie in
einem Kerker. Aristoteles hingegen war der Ansicht, dass sich die beiden Bereiche
nicht unterscheiden, sondern eine Einheit bilden, die aus Materie (Leib) und Form
(Seele) besteht: "Monisten nehmen an, dass Geist und Materie identisch sind, dass
man den Geist auf die Materie reduzieren und ihn damit, wie man sagt, naturalisieren
kann (Westermann, 2000:38).
John R. Searle ist weder Monist noch Dualist, sondern er nimmt hier eine
Zwischenposition ein. Er möchte mentale Vorgänge ihrer Art nach nicht reduzieren
auf materielle Vorgänge. Die Prinzipien, nach denen körperliche, physikalische
Zustände entstehen und funktionieren unterscheiden sich von denen des Geistes.
Andererseits stellt er sich gegen die Position von Platon, dass der Geist etwas
Eigenständiges ist, das unabhängig vom Körper existiert. Das Geistige bedarf der
biologischen Grundlage, aber es ist an sich eine höher stufige, nach eigenen
Prinzipien arbeitende Ebene. Das Mentale geht jedoch aus der biologischen Struktur
hervor.
Für viele Philosophen, so auch für Searle, ist die These von der Intentionalität das
Eigentümliche des Geistigen. Das bedeutet, dass "mentale Zustände sich von
materiellen vor allem dadurch unterscheiden, dass ihre Bedeutung kausal wirksam
sein kann: Menschen können auf die Bedeutung ihrer mentalen Zustände reagieren,
während Maschinen nur auf ihre physischen Zustände selbst reagieren können"
(Westermann, 2000: 40). Diese Überlegungen bezüglich der Eigenart des Geistigen
und des Materiellen, haben besondere Bedeutung in der Diskussion und dem
Bemühen um Künstliche Intelligenz.
4
3. Künstliche Intelligenz Es gibt das Bestreben, menschliche Fähigkeiten nachzuahmen, also künstliche
Intelligenz zu konstruieren. Searle schlägt in seinem Artikel "Minds, brains and
programs" (Searle, 1980 : 417) vor, zwischen zwei Thesen der Künstlichen
Intelligenz (KI) zu unterscheiden: "I find it useful to distinguish what I will call 'strong'
AI from 'weak' or 'cautious' AI (Artificial Intelligence)" (Searle, 1980: 417).
Er trennt zwischen einer starken und einer schwachen KI. Unter der These von der
schwachen KI fallen wissensbasierte Systeme, zum Beispiel ein Computersystem,
das in der Lage ist, die Entwicklung des Wetters vorauszusagen, also ein Programm,
das große Datenmengen verknüpfen und verarbeiten kann. Ein anderes Beispiel ist
eine Computersoftware, die es dem Menschen ermöglicht, wissenschaftliche
Hypothesen zu bilden und diese genau zu überprüfen. Searle sieht ein derartiges
System als realisierbar an. Es ist nützlich und ein mächtiges Werkzeug.
Unter die These von der starken KI würden Systeme fallen, die nicht nur in der Lage
sind, Informationen aufzunehmen und regelhaft zu verarbeiten, sondern solche, die
selber Verstand hätten und eigenmächtig handeln könnten. Anders gesagt: das
System selbst ist Träger von kognitiven Prozessen, beziehungsweise die Prozesse
der Verarbeitung selbst sind wiederum kognitive Prozesse.
Anhand der Fähigkeit des Menschen, Geschichten verstehen zu können, zeigt er die
Problematik dieser Bestrebungen auf. Er hält sich dabei an ein Vorhaben von Roger
Schank – ein Verfechter der These von der starken KI. Sein Ziel ist es eine Maschine
zu machen, die in der Lage ist, die erzählte Geschichte von einem Restaurantbesuch
zu verstehen und Fragen bezüglich der Geschichte beantworten zu können, auch
wenn die abgefragte Information nicht ausdrücklich, also sprachlich, weitergegeben
wurde. Searle gesteht zu, dass es für wenig komplexe Situationen möglich ist, dies
umzusetzen. Voraussetzung dafür ist, dass das System mit ausreichend Daten über
die Gegebenheiten der Situation und der Reaktionsweisen ausgestattet ist.
Darüber hinaus behaupten Verfechter der starken KI, dass es möglich ist eine
Maschine zu konstruieren, die nicht nur Geschichten versteht und Antworten geben
könnte, sondern außerdem eine Erklärung liefert, wie die Fähigkeiten des Verstehens
und des Antwortens beim Menschen funktionieren.
Searle ist der Meinung, dass die letztgenannte Realisierung von KI nicht möglich ist.
Er versucht dies anhand des Gedankenexperiments vom Chinesischen Zimmer zu
belegen.
5
4. Das Programm von Roger Schank John Searle entwickelte 1980 das Gedankenexperiment des „chinesischen
Zimmers“, um Vertretern des strong AI (artificial intelligence) zu verdeutlichen, dass
die von ihnen präsentierten Programme Dinge nicht wirklich verstehen können oder
über Intentionen verfügen, wie wir Menschen.
Searle bezieht sich dabei in erster Linie auf die Arbeit von Roger Schank und seinen
Kollegen aus Yale (Schank & Abelson 1977), da er mit ihrem Programm am besten
vertraut ist. Wobei er ausdrücklich erwähnt, dass seine Argumente auch jegliche
andere Programme betreffen, deren Absicht es ist menschlich mentale Phänomene
zu simulieren (weitere Beispiele: Winograds SHRDLU oder Weizenbaums ELIZA).
Im folgenden Absatz möchte ich kurz auf R. Schanks Programm eingehen.
Angenommen ein Mann geht in ein Restaurant und bestellt sich einen Hamburger.
Der Hamburger ist sehr verbrannt, was den Mann wütend macht. Der Mann stürmt
aus dem Restaurant ohne zu bezahlen oder ein Trinkgeld zu hinterlassen. Auf die
Frage, ob er den Hamburger gegessen hat, würden wir alle mit „Nein“ antworten.
Umgekehrt - der Mann bestellt einen Hamburger und bekommt ihn. Er ist sehr
zufrieden damit und bevor er geht, gibt er dem Verkäufer ein großzügiges Trinkgeld.
Auch hier könnten wir auf die Frage, ob er den Hamburger gegessen hat, klar
antworten, nämlich „Ja“.
Schanks Computer bzw. das Programm kann Fragen bezüglich derartigen
Geschichten richtig beantworten, obwohl die Information, nach der gefragt wird,
nirgends direkt im Text enthalten ist.
Vertreter des strong AI behaupten nun, dass diese Maschinen menschliche
Fähigkeiten nicht nur simulieren, sondern sie sind überzeugt, dass die Maschine die
Geschichte auch versteht und dadurch auf die Fragen richtig antworten kann.
Diese Annahme findet Searle als völlig unbegründet und verbildlicht seine Ansicht mit
Hilfe des Gedankenexperiments.
6
5. Gedankenexperiment Stell dir vor ich wäre in einem Raum eingesperrt mit einem Stapel chinesischer
Schriften. Ich verfüge jedoch über keinerlei chinesische Kenntnisse, weder
geschrieben noch gesprochen. Ich kann die chinesische Schrift nicht mal sicher von
der japanischen unterscheiden. Für mich sind also diese Schriften nichts als ein
unverständliches Gekritzel.
Zum Beispiel:
¥€≠# ±¥≠∞µ ^_£� ± ≠'% "/%≠µ¥ #©∞<! @* /¥µ ±±<
*#$&* ¶§ ™¶µ ≠%^ _-'(#,# $& #"@# ^µ*< ¥€≠#
±¥≠∞µ ^_£� ± #©∞<! @* /¥µ ¶§ ™¶µ ≠%^ ^_£� ±
≠'% "/%≠µ¥ #©∞<! @* /¥µ ¶§ ™¶µ ≠%^ _-'(#,# $& usw.
Nun bekomme ich durch einen Spalt in der Tür einen weiteren Stapel chinesischer
Schriften gemeinsam mit einem Set von Regeln, die in meiner Muttersprache,
nehmen wir an Englisch, geschrieben sind. Mit Hilfe dieser kann ich nun bestimmte
chinesische Zeichen an ihrer Form identifizieren.
Zum Beispiel:
^_£� ± ≠'%
"/%≠µ¥ #©∞<!
/¥µ ^_£� ± usw.
1. Regel: Tritt die exakte Symbolabfolge der ersten Spalte auf, kann mit der
passenden Symbolkombination aus der zweiten Spalte geantwortet werden.
2. Regel: …
3. Regel: …
usw.
7
Nun bekomme ich noch einen letzten Stapel mit chinesischen Zeichen plus
bestimmte Anweisungen, abermals in meiner Muttersprache. Nun kann ich die drei
Schriften vergleichen und kombinieren und mit den zusätzlichen Regeln und
Anweisungen weiß ich, dass ich auf bestimmte Symbole bzw. Symbolkombinationen
mit bestimmten Symbolen antworten muss.
Zum Beispiel:
^_£� ± __________
"/%≠µ¥ __________
/¥µ __________
Anweisung: Befolgen Sie die Regeln und füllen die leeren Felder aus.
Was ich nicht weiß ist, dass die Personen, die mir all diese Schriften geben, den
ersten Stapel das „Skript“ nennen, den zweiten Stapel eine „Geschichte“ und den
letzten Stapel die „Fragen“ nennen. Diejenigen Symbole, mit denen ich ihnen auf den
dritten Stapel erwidere, ist für sie die „Antwort auf die Frage“ und die Regeln, die ich
beim zweiten Stapel in meiner Muttersprache zusätzlich bekam, nennen sie „das
Programm“.
Übersichtlich und kurz gefasst bedeutet dies:
1.Stapel Skript
2.Stapel Geschichte
3.Stapel Fragen
Erwiderung auf 3.Stapel Antwort
Regeln Programm
8
Um die Gedanken noch zu Ende zu führen, stell dir vor, die Erwiderungen auf den
3.Stapel müsste ich dann wieder hergeben. Ein Chinese, der sich dies dann
außerhalb der Tür anschauen würde, würde glauben ich beherrsche die chinesische
Sprache, da ich richtig auf die Fragen (3.Stapel) geantwortet habe, identisch wie ein
eingeborener Chinese antworten würde.
Es geht aber noch weiter. Nun erhalte ich in dem eingesperrten Zimmer Geschichten,
die in meiner Muttersprache geschrieben sind, die ich also gut verstehe und dann
geben sie mir auch noch Fragen bezüglich diesen Geschichten, ebenfalls in
Englisch. Ich gebe ihnen dann die Antworten natürlich auf Englisch geschrieben
zurück.
Ein Außenstehender, der beide Sprachen beherrscht, also Englisch und Chinesisch
und keinerlei Informationen über mich hat, sondern lediglich die zwei Antwortblätter
von mir erhält, wäre überzeugt, dass ich beide Sprachen fließend spreche.
Aber der Unterschied ist, dass ich im ersten Fall lediglich Formeln und Regeln befolgt
habe um zu den Antworten zu gelangen. Ich habe jedoch weder irgendetwas
inhaltliches von der Geschichte verstanden, noch weiß ich was die Fragen waren und
ich habe nicht einmal eine Ahnung was ich wirklich geantwortet habe. Ich habe also
wie ein Computer funktioniert.
Mit diesem Beispiel wollte Searle verdeutlichen, dass die programmierten Computer
die Geschichten nicht wirklich verstehen. Sie geben zwar die richtigen Antworten,
aber wissen nicht einmal diese, sprich sie verstehen deren Bedeutung nicht.
Genauso wenig wie unser imaginäres Ich eine Ahnung von der chinesischen
Sprache hat. Deshalb kann man auch nicht sagen, dass derartige Programme das
menschliche Verstehen erklären, da, wie schon gesagt, die Programme zwar in
vielen Dingen so antworten können, wie es ein Mensch tun würde, sie aber die
Bedeutung dieser kombinierten Symbole nicht verstehen.
Searle gibt noch weitere anschauliche Beispiele um die immer wiederaufkehrenden
Missverständnisse hinsichtlich der genauen Bedeutung von Verstehen zu vermeiden.
Er ist überzeugt, dass es unterschiedliche Grade des Verständnisses gibt. Ich kann
zum Beispiel mit guten Gewissen sagen ich verstehe Deutsch sehr gut und ich
verstehe Englisch gut. Italienisch verstehe ich hingegen so gut wie gar nicht.
9
Trotzdem darf man sich von Oberflächlichkeiten nicht täuschen lassen. Wir
Menschen neigen dazu Gegenstände zu vermenschlichen. Jedoch wäre es doch
dumm zu glauben, die elektrische Schiebetüre vor dem Einkaufscenter würde sich
öffnen, weil sie versteht, dass sie mich jetzt hinein lassen muss, damit ich meine
Einkäufe erledigen kann. Die automatische Schiebetüre öffnet sich nur aufgrund der
fotoelektrischen Sensoren, die Bewegungsimpulse erkennen können.
6. Kann eine Maschine denken
Searle hat anhand eines inneren Dialogs verdeutlicht, was er von der Frage hält –
„Kann eine Maschine denken?“
Für Searle ist die Antwort offensichtlich – ja -, denn wir sind genau solche
Maschinen. Leider geht er nicht genauer darauf ein, inwiefern Menschen Maschinen
sind.
„Kann eine Menschen gebaute Maschine denken?“
Theoretisch hat Searle nichts gegen den Gedanken, falls es je jemand gelingen
sollte, ein exaktes Duplikat zu bauen. Das Duplikat müsste jedoch über alles
erdenkliche verfügen, wie ein Nervensystem, Neuronen, Axone, Dendriten, ...
Dies ist jedoch, zumindest in unserem Zeitalter, empirisch nicht realisierbar.
„Kann ein digitaler Computer denken?“
Auch diese Frage beantwortet Searle mit „ja“, aber er weist darauf hin, dass man
nicht vergessen darf, dass hinter jedem Computer Programm ein Mensch steht und
dieser kann denken.
„Kann ein Computer über ausreichende Konditionen verfügen, damit er selbstständig
denken und verstehen kann?“
Das ist die Frage, mit der Searle ganz klar „nein“ antwortet, denn ein programmierter
Computer entschlüsselt lediglich bestimmte Formeln. Sie verfügen also nur über eine
Syntax, aber über keine Semantik. Um die Syntax zu beherrschen brauche ich
Regeln, wie die Grammatik zusammengesetzt wird. Die Semantik geht jedoch tiefer.
Wer die Semantik beherrscht, verfügt über die Bedeutungen, die die verschiedenen
Symbole und Worte haben.
10
Ein Computer besitzt also keinerlei Intentionen. Jegliche Intentionen bzw.
intentionales Verhalten, welche ein Computer zu haben scheint, führen von den
Menschen, die hinter dem Programm sitzen, her. Sie haben Intentionen und die
Menschen, die ihn benutzen, Informationen eingeben, sowie die Menschen, die die
jeweiligen Informationen interpretieren.
7. Intentionalität Der zentrale Begriff, der die Kritik Searle's stützt, ist der Intentionalitätsbegriff.
Inhaltlich lehnt er sich dabei an Franz Brentano an. Dieser verstand unter
Intentionalität eine Eigenheit von psychischen Phänomenen, nämlich das "was wir, ...
die Beziehung auf einen Inhalt, die Richtung auf ein Objekt ... nennen würden"
(Baumgartner, 1985:19). Anders gesagt: Das psychische Geschehen ist nicht ein
isolierter Vorgang oder bildlich gesagt ein Binnensee-Ereignis, sondern das
Bewusstsein ist jeweils gerichtet auf ein Objekt – wobei Objekt nicht als materiell zu
verstehen ist. Eingeführt hat er diesen Begriff, um psychische Phänomene von
physischen Phänomenen zu unterscheiden. Unter physischen Phänomenen versteht
er ein Farbe, einen Ton, Wärme, Kälte, Geruch u. ä. Wahrnehmungen. Psychische
Phänomene sind für ihn Akte: "Also das Hören eines Tones, das Sehen eines
farbigen Gegenstands, das Empfinden von warm und kalt ... Ferner jedes Urteil, jede
Erinnerung, jede Erwartung, jede Folgerung, jede Überzeugung oder Meinung, jeder
Zweifel ... jede Gemütsbewegung, Freude, ..." (Baumgartner, 1985:18 f).
Brentano ist der Ansicht, dass diese Bezogenheit nicht immer wahrgenommen wird,
sondern vor allem in Momenten der bewussten Reflexion sichtbar wird: "Nur wenn
ich mein Denken beobachte, wenn ich 'bemerke', 'apperzipiere', in der Reflexion also,
wird mir dieses Verhältnis deutlich. Zur Vorstellung des Gegenstandes kommt ein
Urteil (Bestätigen oder Verwerfen des Gegenstandes). Ebenso verhält es sich bei
Gemütsbewegungen: das Objekt einer Gemütsbewegung (Lieben – Hassen;
Gefallen – Missfallen; positives – negatives Interessenphänomen) wird vorgestellt
und – positiv oder negativ – beurteilt. ... Nur über diese psychische Beziehung kann
gesagt werden, dass sie intentional sei" (Baumgartner, 1985: 21).
Intentionalität darf folglich nicht verwechselt werden mit dem Begriff der Intention
beziehungsweise Absicht, sondern beschreibt eine grundsätzliche Bewegung des
11
psychischen Geschehens: der Mensch bezieht sich in seinem Tun auf ein Objekt, er
ist gerichtet auf ein bestimmtes Objekt. Er schlägt beim intentionalen Tun sozusagen
eine Brücke zu etwas, das sich ihm als gegenüber gibt.
Searle hat in seinem Buch "Intentionalität" versucht, eine Theorie der Intentionalität
zu entwickeln. Schon im ersten Kapitel wird deutlich, wie er diesen Begriff versteht.
Intentionalität sieht er als Gerichtetheit:
"Als vorbereitende Formulierung mag dies dienen: Intentionalität ist diejenige
Eigenschaft vieler geistiger Zustände und Ereignisse, durch die sie auf Gegenstände
oder Sachverhalte in der Welt gerichtet sind oder von ihnen handeln" (Searle, 1987:
15). Der Mensch ist durch seine biologische Ausstattung in der Lage "den
Organismus mit Hilfe von Geisteszuständen wie Überzeugungen und Wünschen,
insbesondere aber mittels Handlung und Wahrnehmung zur Welt in Beziehung zu
setzen" (Searle, 1987: 9).
Searle ist aber der Meinung, dass nicht alle geistigen Zustände intentional sind.
Beispielweise "Formen der Nervosität, der Hochstimmung und der Unruhe" (Searle,
1987: 15) sind nicht intentional. Unter eindeutig intentionale Begriffe ordnet er
beispielsweise Wünsche, Überzeugungen, Befürchtungen u.a. ein. Die Absicht oder
die Absichtlichkeit sieht er nur als eine Art der Intentionalität. Sie "steht in einer Reihe
mit Überzeugung, Hoffnung, ..." (Searle, 1987: 17).
Ausgehend von diesem Blick auf den Menschen, insbesondere auf die Fähigkeiten,
Ursache für Intentionalität zu sein, kritisiert Searle die Überzeugung, dass es möglich
wäre, künstliche Intelligenz im strengen Sinne herzustellen. Er begründet dies
folgendermaßen:
Prozesse eines Computers sind immer formeller Art. Eingehende Informationen
werden nach vorgegebenen Regeln verarbeitet, verknüpft. Die Bedeutung der
Information wird nicht verstanden, sondern nur formell ausgelesen und registriert
nach der vorgegebenen Kodierung. Es vollzieht sich eine syntaktische Verarbeitung.
Semantische Gesichtspunkte, im Sinne von "ich verstehe", "ich bin überzeugt", "ich
wünsche mir", "ich liebe", "ich lehne ab", "ich hoffe" und ähnliche werden nicht
erfasst:
"Because the formal symbol manipulations by themselves don't have any
intentionality; they are quite meaningless; they aren't even symbol manipulations,
since the symbols don't symbolize anything. In the linguistic jargon, they have only a
syntax but no semantics" (Searle, 1980: 422).
12
Formelle Eigenheiten eines Computers sind niemals hinreichend um Intentionalität
hervorzubringen, weil formelle Eigenheiten nicht konstitutiv sind für Intentionalität und
formelle Eigenheiten haben keine ursächlichen Kräfte. Er verlangt hier eine
Unterscheidung der Arbeitsprinzipien nach denen Maschinen und mentale Systeme
arbeiten. Dieser Unterschied ist nicht oberflächlich sondern prinzipiell. Intentionalität
hat für Searle keine weiteren tiefer liegenden Ursachen, sondern ist mentalen
Vorgängen intrinsisch zu Eigen.
Der Mensch eben besitzt eine bestimmte biologische Struktur, die es ihm ermöglicht,
Ursache für Intentionalität zu sein. Diese Strukturen sind in der Lage, unter
bestimmten Umständen, unterschiedlichste Fähigkeiten hervorzubringen:
"perception, aktion, understanding, learning, and other intentional phenomena"
(Searle, 1980: 422). Eben dieses Hervorbringen der Intentionalität und der
verbundenen Vermögen, ist für eine Maschine nicht möglich, weil sie nur formell
verarbeitet:
"... no purly formal model will ever be sufficient by itself for intentionality because the
formal properties are not by themselves constitutive of intentionality, and they have
by themselves no causal powers except the power, when instantiated, to produce the
next stage of the formalism when the machine is running" (Searle, 1980: 422).
8. Kritik an John Searle’s Artikel „Minds, brains and programms“
John Searle geht davon aus, dass sich der Geist zum Hirn so verhält wie das
Programm zur Hardware des Computers. (Searle 1984: 27)
Viele Kritiker sehen dies anders! Auf den Artikel „Minds, brains and programms“ gab
es sehr viele Kommentare und Kritikpunkte, von Psychologen, Philosophen oder
Kognitionswissenschaftler. In diesem Kapitel werden vier Kritiker (Ned Block, Jerry
Alan Fodor, Bruce Bridgeman und Roger Schank) genauer erläutert.
Zu Beginn sind noch zwei Einwände/Replies zu erwähnen, die Kritiker allgemein, vor
allem Vertreter der starken künstlichen Intelligenz gegen das Gedankenexperiment
„Chinesische Zimmer“ einzuwenden haben.
13
8.1. Der System Reply (Berkeley) In diesem System Reply heißt es, dass die einzelne Person im Gedankenexperiment
„Chinesisches Zimmer“ die Geschichte nicht versteht, aber nur aus diesem Grund,
weil sie Teil eines ganzen Systems ist. Das ganze System (Skript, Erklärung,
Geschichte, Fragen, Symbole, Zimmer,...) versteht die Geschichte durchaus. Man
kann also das Gedankenexperiment nur als Ganzes ansehen und nicht ihn ihre
Einzelteile aufsplittern.
„Now, understanding is not being ascribed to the mere individual; rather it is being
ascribed to this whole system of which he is a part.“ (Berkeley 1980: 419)
John Searle’s Antwort auf den System Reply ist kurz und prägnant: Der Mensch hat
alle Überlegungen in seinem Kopf, die Regeln liest er und speichert sie somit ab. Der
Mensch bzw. die Person, welche im chinesischen Zimmer sitzt, nimmt das komplette
System auf. Daher kann die einzelne Person nicht Teil des Systems sein, sie ist das
komplette System. Die Person müsste ja nicht in einem Zimmer sitzen, sie könnte
auch hinausgehen, z.B. ins Freie. Somit wäre das Gesamtsystem des System
Einwandes auseinandergebracht worden, aber die Person könnte trotzdem die
Aufgaben lösen und würde auf das gleiche Ergebnis kommen. (vgl. Searle 1980:419)
„If he doesn’t understand then there is no way the system could understand because
the system is just part of him.“ (Searle 1980:419)
8.2. Der Robot Reply (Yale) Man stelle sich einen Roboter vor, welcher ein anderes Programm hat, als jenes
Programm von Roger Schank (SAM). Dieser Roboter hätte Arme und Beine, könnte
somit laufen, essen, trinken, Fußball spielen und vieles mehr. Dieser Roboter hätte
eine Kamera eingebaut um sehen zu können, Arme und Beine um es zu
ermöglichen, dass er sich bewegen kann und alles würde kontrolliert werden von
seinem „Gehirn“. (vgl. Yale 1980: 420)
„Such a robot would, unlike Schank’s computer, have genuine understanding and
other mental states.“ (Yale 1980:420)
Searle’s Kommentar zum Robot Reply, ist sehr kurz und bündig. Der Roboter verfügt
über keine Semantik, das heißt, er besitzt keine Intentionalität!
„Now in this case I want to say that the robot has no intentional states at all; it is
simply moving about as a result of ist electrical wiring and ist program.“ (Searle
1980:420)
Der Roboter versteht nicht, was er tut, Searle bringt in diesem Zusammenhang
wieder ein Beispiel mit dem chinesischen Zimmer. Wenn Searle im chinesischen
Zimmer sitzen würde und die Informationen von diesem Roboter erhalten würde,
würde der Roboter und auch Searle selber nichts von der Geschichte verstehen –
beide folgen nur den Anweisungen!
Hierzu schrieb Searle:
„Solange wir unterstellen, daß der Roboter als Hirn nur einen Computer hat, könnte
er einfach nicht von der Syntax zur Semantik gelangen, auch wenn er sich genauso
benehmen mag, als verstünde er Chinesisch.“ (Searle 1984:33)
Für Searle ist es unmöglich, das ein Computer beziehungsweise das Programm eine
Semantik haben kann, Syntax schon, aber Semantik definitiv nicht.
8.3. Ned Block Ned Block wurde 1942 geboren und ist ein US-amerikanischer
Philosoph und Professor an der New York University.
Seine Kommentar zum Artikel von John Searle: „What intuitions
about homunculi don’t show?“ (Block 1980: 425)
Seine Kernaussage besteht darin, dass viele Intuitionen von
künstlich geschaffenen Menschen (homunculi – homunculus:
lat. Menschlein, in diesem Zusammenhang: künstlich geschaffener Mensch) nicht
gezeigt werden!
Searle fehlen die Beweise, dass ein homunculus keine Intentionalität haben könnte.
Er erwähnt nur den Standpunkt der Symbol Manipulation (Semantik und Syntax).
„Searle does not so much as mention: what the evidence is for the formal symbol-
Manipulation point of view.” (Block 1980:425)
Weiters findet Block, dass Searle’s Argumenten die Prämissen fehlen und dass er
keine Anhaltspunkte angibt, dass es nicht möglich ist eine Maschine zu bauen, die
Pläne und Ziele erreichen kann.
14
Searle’s Kommentar auf Block’s Kritik lautet folgendermaßen:
Die Form von Block’s Argumenten über Intuitionen die angeblichen empirischen
Daten, welche dazu da sind um uns zu zeigen, dass denken nur eine formale Symbol
Manipulation ist, reicht nicht aus. Das wäre, wie wenn man versuchen würde, die
Ansicht zu widerlegen, dass die Erde rund ist, aber unsere Intuition sagt und, dass
die Erde eine Scheibe ist. (vgl. Searle 1980:451)
„Now Block concedes that it is not a matter of intuition but a plain fact that our brains
are “the seat” of our intentionality. I want to add that it is equally a plain fact that I
don’t understand Chinese.” (Searle 1980:451).
Für Searle beklagt Block nur die Schwäche von den menschlichen Intuitionen. Aber
wirklich gute Argumente gibt Block, in Searle’s Augen, auch nicht, was gegen
Searle’s Gedankenexperiment sprechen könnte.
8.4. Jerry Alan Fodor Jerry Alan Fodor wurde 1935 geboren und ist ein amerikanischer
Philosoph und Kognitionswissenschaftler. Er lehrt an der Rutgers
University in New Jersey.
Sein Statement zu John Searle’s Artikel: „Searle on what only
brains can do.“ (Fodor 1980: 431).
Fodor stimmt zu Beginn seines Kommentars Searle damit
überein, dass ein Computerprogramm keine hinreichende
Haltung haben kann, wie der Organismus des Gehirns haben kann.
„Searle is certainly right that instantiating the same program that the brain does is not,
in and of itself, a sufficent condition for having those propositional attitudes
characteristic of the organism that has the brain.“ (Fodor 1980: 431)
Dies ist aber der einzige Punkt, bei dem Fodor Searle Recht gibt. Fodor findet das
Kommentar zum Robot Reply nicht überzeugend, denn es sind keine handfesten
Beweise, die Searle aufzählt.
“All that Searle’s example shows is that the kind of causal linkage he imagines – one
that is, in effect, mediated by a man sitting in the head of a robot – is, unsurprisingly,
not the right kind.“ (Fodor 1980: 431).
15
Es reicht also nicht aus, nur zu sagen, dass der Roboter keine Semantik hat, aufgrund
dessen, dass ein Mann im Kopf des Roboters sitzt (derjenige, der den Roboter
programmiert hat, ist in diesem Sinn gemeint) und der Mensch eigentlich den Roboter
programmiert hat. Nur zu sagen, dass der Roboter nicht versteht ist für Fodor zu
wenig an Beweisen.
Ein wichtiger, erwähnenswerter Punkt, den Fodor anführt ist jener, dass es für ihn
keinen Anhaltspunkt gibt, warum die Biochemie für die Intentionalität wichtig wäre und
für ihn ist es viel wichtiger, wie der Organismus mit der Welt in Verbindung steht. Kann
zum Beispiel ein Roboter sich integrieren oder kommunizieren?
„Searle gives no clue as to why he thinks the biochemistry is important für
intentionality an, prima facie, the idea that what counts is how the organism is
connected to the world seems far more plausible.“ (Fodor 1980: 431)
Searle’s Antwort auf Fodor’s Kritik:
Searle würde Fodor Recht geben, wenn er meint, dass man für Intentionalität einen
intentionalen Inhalt für die formalen Symbole braucht. Doch das wichtigste
Gegenargument in Searle’s Antwort liegt darin, dass wir Menschen „intrinsic
intantionality“ – wirkliche Intentionalität – haben und dass dies Computer nie erreichen
werden.
„...,we have intrinsic intentionality, and that the computer program could neve by itself
be sufficient for that.“ (Searle 1980: 454)
8.5. Bruce Bridgeman Bruce Bridgeman ist Professor in Psychologie in Santa Cruz.
Sein Kommentar zu Searle’s Artikel und zum
Gedankenexperiment: Brains + programs = minds!
Gehirn und Programme ergeben Geist! Bridgeman vertritt die
Annahme, dass Maschinen mehr verkörpern können als Searle’s
Vorstellungen. Er kritisiert daher Searle’s Eingeschränktheit und
bemängelt, dass Searle keine Beweise angibt, dass es nie möglich sein werde
Maschinen zu bauen, die Intentionalität haben!
Das einzige was Roboter bzw. Programme unbedingt bräuchten wären mehr
Informationen. Denn wenn ein Programm mehr Informationen erhält, welches in einer 16
17
Datenbank eingebaut wird, was im menschlichen Gehirn genetisch veranlagt ist, und
mit der Außenwelt verbunden wird, ist es durchaus denkbar, dass ein Programm bzw.
Computer Intentionalität erreicht!
Dieser Roboter mit einer Datenbank mit sehr vielen Informationen vergleicht
Bridgeman mit einem Kind. Ein Kind weiß am Anfang auch nicht was die Zahlen
bedeuten, aber mit der Zeit lernt das Kind, dass fünf, auch fünf bedeutet. Zu Beginn
allerdings hat es kein Verständnis was Zahlen bedeuten. Und so würde es der „super
Roboter“ von Bridgeman auch erlernen, wie ein Kind. (vgl. Bridgeman 1980: 427)
„My super robot would learn about number five, for instance, in the same way that a
child does, by interaction with the outside world where the occurrence of the string of
symbols representing “five” in its visual or auditory inputs corresponds with the more
direct experience of five of something.” (Bridgeman 1980: 427)
In einem Punkt stimmt Bridgeman mit Searle überein, und zwar, dass die
gegenwärtigen Programme (Script Applier Mechanism von Schank und Abelson 1977)
keine Intentionalität haben. Doch er sagt auch, dass Searle es nicht beweisen kann
bzw. es keinen Beweis gegen Programme gibt, welche in der Zukunft Intentionalität
haben könnten.
„Searle may well be right that present programs do not instantiate intentionality
according to his definition.“ (Bridgeman 1980: 427)
Searle’s Antwort auf Bridgeman’s Kritik:
Searle glaubt, dass Bridgeman einen wichtigen Punkt in seiner Argumentation
übersehen hat. Searle stimmt Bridgeman zwar zu, dass wenn der homunculus mehr
Informationen bekommen würde (im Gedankenexperiment) und mit der Außenwelt
verknüpft wäre, dass er dann lernen würde. Doch für Intentionalität und Verstehen
reichen für Searle nicht nur die Neuronen aus, es sind auch andere kausale
Eigenschaften, welche zu Intentionalität beitragen, zum Beispiel wie das Gehirn die
Atmung kontrolliert! Und diese Informationen können laut Searle nie alle bis ins
kleinste Detail durchdacht in ein Programm gepackt werden!
8.6. Roger Schank Roger Schank ist 1946 geboren und ist amerikanischer
Kognitionswissenschaftler. Er gründete die Cognitive
Science Society und wurde bekannt durch sein
Programm SAM (Script Applier Mechanism).
SAM ist ein Programm, welches in der Lage ist, Fragen bezüglich Geschichten , die
ihm zuvor in schriftlicher Form erzählt wurden, zu beantworten. Dabei bedient sich
SAM nicht einfach bestimmter Schlüsselwörter, die im Text vorkommen, sondern
beantwortet sogar Fragen, deren Antwort im Text nicht explizit vorkommen.
Schank gibt Searle Recht, dass SAM nur teilweise (zu dieser Zeit) menschliche
Fähigkeiten besitzt. „Our programs are at this stage partial and incomplete. They
cannot be said to be truly understanding. Because of this they cannot be anything
more than partial explanations of human abilities.” (Schank 1980: 446)
Für Schank geht es aber nicht nur um Programme, er stellt sich immer wieder die
Frage, was das Leben eigentlich bedeutet? Was bedeutet eigentlich Verstehen? Was
bedeutet Bewusstsein? Schank geht mehr in die philosophische, empirische Richtung,
als die anderen 3 Kritiker davor.
„Can we ever hope to get our programms to „understand“ at that level? Can we create
“life”? Those are, after all, empirical questions.” (Schank 1980: 447)
Gegen Ende der Kritik geht Schank noch weiter: Kann das Gehirn eigentlich
verstehen? Klar, können wir Menschen verstehen, aber das Organ Gehirn, kann dies
verstehen, oder sind es wir Menschen im Ganzen, die verstehen?
„We attribute understanding, consciousness, and life to others on the grounds that
we ourselves have these commodities. We really don’t know if anyone else
“understands”, “thinks” or even is “alive”. We assume it on the rather unscientific
basis that since we are all these things, others must be also.” (Schank 1980: 446)
18
Gegen Schluss argumentiert Schank noch mal philosophisch und geht eigentlich
nicht auf technische, biologische oder psychologische Details ein, wie alle anderen
Kritiker. Schank stellt gegen Ende seines Textes fest, das Verstehen eigentlich nichts
anderes bedeutet als das Herausfinden des System, welches hinter den
chinesischen Symbolen steht, welche für Gehirne oder für Computer geschrieben
worden sind. Aber wer hat die ganzen Regeln aufgestellt und geschrieben? Dies ist
19
die Frage, die sich Schank ganz am Ende der Kritik an John Searle’s
Gedankenexperiment stellt.
„Does Searle, who is using those rules, understand? No. Does the hardware
configuration of the computer understand? No. Does the hardware configuration of
the brain understand? No. Who understands then? Why, the person who wrote the
rules of course. And who is he? He is what is called an AI researcher.”
(Schank 1980: 447)
20
9. Literaturverzeichnis
Baumgartner, E. (1985). Intentionalität. Begriffsgeschichte und Begriffsanwendung in
der Psychologie. Würzburg: Königshausen & Neumann.
Künstliche Intelligenz und Philosophie, Zur Debatte um J.R. Searle’s Einwände
gegen harte KI-Versionen, in: Zeitschrift Journal for General Philosophy of Science,
Voume 21, Nummer 2 (1990), S.347-358
Searle, John.R. (1992): Geist, Hirn und Wissenschaft. Übers. Von Harvey P.
Gavagai, 3. Auflage, Frankfurt am Main, Suhrkamp
Searle, John Rogers. (1987). Intentionalität. Eine Abhandlung zur Philosophie des
Geistes. Frankfurt: Suhrkamp.
Searle, John Rogers. (1980). Minds, brains and programs. The Behavioral and Brain
Sciences. 3, 417-457. Cambridge: University Press.
Westermann, R. (2000). Wissenschaftstheorie und Experimentalmethodik. Ein
Lehrbuch zur Psychologischen Methodenlehre. Bern: Hofgrefe.
Zimmer, Dieter (1990): Die Elektrifizierung der Sprache. Zürich, Haffmans, S203-237