Blutner/Hauptfragen der Sprachphilosophie


    Was Computer nicht können


    Alan TuringDie Frage, ob Computer denken können, natürliche Sprache verstehen können und andere Anzeichen von menschlicher Intelligenz besitzen (oder in absehbarer Zukunft besitzen werden),  löst eine eigentümliche Spannung in unserem Bewußtsein aus. Einerseits sind wir geneigt, an so etwas wie den Turing-Test für intelligentes Verhalten zu glauben und wir bezweifeln dann nicht, daß es irgendwann gelingt, eine Maschine zu bauen, die  menschliches Verhalten beliebig genau simulieren kann. Andererseits widerstrebt uns die Vorstellung, einer kalten Maschine menschliche Qualitäten wie Intelligenz, Bewußtsein, Selbstkontrolle nicht nur metaphorisch zuzusprechen.

    Der Turing-Test für maschinelle Intelligenz
    1950 schlug  Alan Turing(1912-1953), einer der geistigen Vater der Künstlichen Intelligenz,  ein Gedankenexperiment vor, das später als "Turing-Test" der  maschinellen Intelligenz  bekannt wurde. Am Test sind zwei Menschen und eine Maschine (der zu testende Computer) beteiligt.  In einem Raum befindet sich ein Computer-Terminal und eine Person kommuniziert damit entweder mit einem anderen Menschen oder mit einer Maschine. Die Person weiß aber nicht, wenn oder was sie jeweils vor sich hat.  Genau das soll sie nämlich herausfinden.

    Zuerst "unterhält" sich unsere Person über das Terminal beispielsweise mit "A" und dann mit "B". Nach jeder derartigen "Unterhaltung" soll herausgefunden werden, ob A der Computer ist oder B. Dieses Verfahren wird vielmals wiederholt (mit zahlreichen Versuchspersonen).  Aufgezeichnet wird, wie häufig die Versuchsperson ihren "Partner" korrekt identifiziert.  Wenn die Wahrscheinlichkeit der korrekten Identifikation 50% ist, dann wissen wir, daß die Versuchspersonen raten mußten. Ihnen ist es also nicht gelungen, durch geschicktes Fragen herauszufinden, ob der Partner  Mensch oder Maschine ist. Turings Vorschlag ist nun, genau dann einen Computer als intelligent zu betrachten, wenn er in entsprechenden "Unterhaltungen" (5 Minuten Dauer? 10? 20?) die Versuchspersonen ausreichend täuschen kann (im Idealfall 50% Wahrscheinlichkeit zur korrekten Identifikation).

    Es gibt eine anhaltende Diskussion um die Rolle des Turing-Tests. Befürworter argumentiere, daß der Test ein wertvoller Test für menschliche Intelligenz darstellt, weil er (1) eine Vielzahl von Wissensbereichen einbezieht (nicht nur Wissen über die Welt, sondern auch über soziales Verhalten, emotionale Beziehungen, religiöse Einstellungen etc.) und weil er (2) eine beträchtliche Flexibilität und Anpassungsfähigkeit verlangt (Wechsel zwischen Situationen, z.B. Wechsel der Unterhaltung übers Wetter zu neuen Witzen oder der Einschätzung lyrischer Verse).

    Ein erklärter Gegner der Auffassung, daß der Turing-Test eine gute Möglichkeit zur Prüfung eines Systems auf "echte" Intelligenz beinhaltet, ist John Searle (siehe z.B. Searle 1980). Darüber hinaus bezweifelt Searle, daß Computer je dazu gebracht werden können, natürliche Sprache zu verstehen oder gar zu denken.

    Searles Position
    1. Denken besteht nicht allein aus dem syntaktischen Hantieren von Symbolen, sondern auch und vor allem aus den semantischen Inhalten, die mit diesen Symbolen verknüpft sind. Da Computeralgorithmen auf einer rein syntaktischen Ebene arbeiten, d.h. nur Symbole miteinander verknüpfen, können sie ergo nicht denken. Searle macht dies an einem Gedankenexperiment klar (das Chinesisches Zimmer).  Dabei wird ein System konstruiert, das den Turing-Test für das Verstehen von Sprache (Chinesisch) besteht. Dennoch, so Searle, kommen wir, wenn wir die Konstruktion des Systems verstehen, zu dem Schluß, daß dieses System tatsächlich kein Chinesisch verstehen kann, jedenfalls nicht in unserem intuitiven Vorverständnis von "Sprachverstehen".  Damit wird die Rolle des Turing-Tests grundsätzlich in Frage gestellt.

    2. Searle bezweifelt nicht, daß Computerprogramme die Ergebnisse von Denkvorgängen simulieren können. Das ist aber keineswegs gleichzusetzen mit einer Duplikation dieser Vorgänge. Searle führt die Begriff "starke" und "schwache" KI (Künstliche Intelligenz) zur Markierung dieses Unterschieds ein. Während in der schwachen KI der Computer bloß als Instrument zur Untersuchung geistiger Fähigkeiten (wie Sprachverstehen, Sprachproduktion, Bilder-Erkennen, Denken) benutzt wird, nehmen Vertreter der starken KI an, daß dabei  tatsächlich "mentale Zustände" realisiert werden und daß ein geeignetes Programm tatsächlich Sprache versteht. In Searles eigenen Worten:  ". . . according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitve states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations."

    Das ist also die Grundidee des "Computer-Modell des Geistes" (so wie es von Anhängern der starken KI vertreten wird): der Geist ist das Programm und das Hirn ist die Hardware eines computationalen Systems. Oder als Analogie formuliert: "Der Geist verhält sich zum Computer wie das Programm zur Hardware."
    Searle bezweifelt beide Seiten dieser Idee.

    (A) Der Geist ist kein Computerprogramm. Am Geist ist jedenfalls mehr dran, als ein Computerprogramm jemals erfassen könnte.  Starke  KI ist im derzeitig vorherrschenden Paradigma der Symbolmanipulation ist also nicht möglich. Searles entscheidendes Argument ist  das Chinesisches Zimmer.  Denn da wird ein Programm vorgeführt, daß geistige Leistung bloß vortäuscht. Searle suggeriert nun, daß alle Programme geistige Leistungen bestenfalls vortäuschen. Und zwar deshalb, weil Programme im Paradigma der Symbolmanipulation rein syntaktischen Charakter besitzen und damit niemals zur Inhaltsebene vorstoßen können.

    (B) Das Hirn ist kein digitaler Computer.  Die Gegenthese nennt Searle Kognitivismus. Sie beruht darauf, das Hirn als eine universelle Turing-Maschine aufzufassen. Denken ist dann nichts weiter als Informationsverarbeitung.  Wir werden auf den entsprechenden Teil der Searleschen Kritik, die vor allem in Searle (1996) niedergelegt ist, in der letzten Vorlesung zurückkommen, die sich mit dem Leib-Seele-Problem befaßt.

    3. Prinzipiell sieht Searle jedoch die Möglichkeit gegeben, eines Tages Systeme (jedoch keine Computer im herkömmlichen Sinne) zu konstruieren, die denken können. Er wendet sich aber gegen die These, dass dieses durch hardwareunabhängige, rein syntaktisch arbeitende  Algorithmen geschehen könne, da diese nur strukturierte Symbole manipulieren würden, während im menschlichen Gehirn eine semantische Ebene dazukommt, die möglicherweise durch die Selbstorganisation von neuronalen Aktivitätsmustern und deren Bezogenheit auf Sinneswahrnehmungen und Motorik (und damit die Außenwelt) gegeben ist.

    Das chinesische Zimmer
    Man stelle sich vor, in einem Raum zu sitzen, worin sich dicke Büchern mit Regeln, leere Blätter sowie genügend Schreibutensilien befinden. Der Kontakt zur Außenwelt geschieht durch zwei Wandschlitze, die Input und Output heißen. Gelegentlich schiebt jemand Papierstücke mit chinesischen Schriftzeichen durch den Input-Schlitz. Meine Aufgabe als Insasse im chinesischen Zimmer ist nun, den Abschnitt in einem der Regelbücher zu finden, der mit der Sequenz von Schriftzeichen auf dem eingesteckten Papierstück übereinstimmt. Das Regelbuch sagt dann, welche Schriftzeichen auf ein leeres Blatt Papier zu schreiben sind. (Man kann sich die Regelbücher auch gerne etwas komplizierter denken, sodaß Zwischenergebnisse anfallen und Verweise zu anderen Regelbüchern zulässig sind). Wenn alles aufgeschrieben ist, muß das Papierstück durch den Output-Schlitz gesteckt werden.

    Der Insasse des chinesischen Zimmers versteht natürlich kein Wort Chinesisch. Er braucht nicht einmal zu wissen, daß die Symbole, die er manipuliert, überhaupt chinesische Schriftzeichen sind.
    Nun nehmen wir an, daß die empfangenen Inputs echte auf Chinesisch gestellte Fragen über einen bestimmten Gegenstandsbereich sind und die produzierten Outputs die angemessenen, ja als einsichtsvoll zu charakterisierenden Antworten darauf darstellen.   Für den draußen vor dem Zimmer stehenden Betrachter, der die Fragen gestellt hat, sollen die Antworten so gut ausfallen, daß er den Eindruck gewinnt, daß sie nur von einem Sprecher des Chinesischen stammen können.

    Dieses Gedankenexperiment, so Searle,  beinhaltet  eine wirkungsvolle Widerlegung der Rolle des Turing-Tests.  Darüber hinaus glaubt Searle, daß sein chinesisches Zimmer eine wirkungsvolle Widerlegung der starken KI beinhaltet. Beiden Einstellungen wurde widersprochen. Ich gebe zwei Gegenargumente und verhehle nicht, daß sie mir wenig überzeugend erscheinen.

    Die Systemantwort


    "Es ist offensichtlich wahr, daß die Person, die im chinesischen Zimmer eingeschlossen ist, kein Chinesisch versteht. Tatsache ist jedoch, daß sie bloß ein Teil des Systems ist. Das ganze System versteht Chinesisch. Und dazu gehören die Regelbücher, Schmierzettel für Zwischenresultate, evt. Datenbanken etc.  Sprachverstehen wird nicht dem Individum zugeschrieben, sondern dem ganzen System, von dem das Individuum nur ein Teil ist." (aus Searle 1980)

    Searles Erwiderung
    "...Wir nehmen an, daß das Individuum alle Elemente des Systems verinnerlicht. Es hat die entsprechenden Anweisungen gelernt und kennt die Datenbanken mit den chinesischen Symbolen auswendig. Und es ist fähig, alle Berechnungen im Kopf auszuführen. Auf diese Weise sind die ursprünglich externen Komponenten vollständig "verinnerlicht" worden. Dennoch würde keiner sagen, daß die Person jetzt Chinesisch versteht, obwohl sie zu den richtigen Resultaten gelangt." (aus Searle 1980)

    Die Roboter-Antwort

    "Nehmen wir an, wir schreiben eine ganz andere Art von Programm . . . und wir setzen unseren Computer in einen Roboter, und dieser Computer nimmt nicht einfach formale Symbole als Input auf und gibt andere als Output aus, sondern dieser Computer arbeitet in einer Weise, die den Roboter befähigt, so etwas zu tun, daß große Ähnlichkeit hat mit Wahrnehmen, gezielt Gehen, oder was immer sonst.  Der Roboter könnte Fersehkameras haben, die ihm zu 'sehen' erlauben, Arme, Beine, die ihm erlauben, angemessen zu 'handeln'. All das wird von dem Computergehirn kontrolliert. Ein derartiger Computer würde wirklich verstehen und würde  mentale Zustände realisieren."  (aus Searle 1980)

    Searles Erwiderung (gekürzt)
    ". . . the addition of such "perceptual" and "motor" capacities adds nothing by way of understanding, in particular, or intentionality, in general . . . the robot has no intentional states at all; it is simply moving about as a result of its electrical wiring and its program . . ."  (aus Searle 1980)


    Literatur:

  • John Searle (1980): Minds, brains, and programs. Behavioral and Brain Sciences 3, 450-456.
  • John Searle (1996): Die Wiederentdeckung des Geistes. Suhrkamp
  • Alan Turing (1950): Computing Machinery and Intelligence. Mind 59, 433-460.