Kann eine Maschine denken?

Der eng­li­sche Mathematiker Alan M. Turing be­faß­te sich mit den grund­le­gen­den Überlegungen zu Entwicklung von elek­tro­ni­schen Rechenmaschinen. Er konn­te mit­tels der von ihm er­dach­te ima­gi­nä­ren Turingmaschine be­wei­sen, daß ma­the­ma­ti­sche Aufgabenstellungen auf ele­men­ta­re Algorithmen zu­rück­ge­führt wer­den kön­nen. Diese 1936 er­dach­te lo­gi­sche Maschine be­schreibt heu­te noch die Arbeitsweise ei­nes je­den Computers.

Turing war der Meinung, daß „künst­li­che Intelligenz“ mög­lich sei, daß sie die mensch­li­che Intelligenz ir­gend­wann ein­mal nach­ah­men oder so­gar über­tref­fen kön­ne. Turing war ein abs­trak­ter Denker und Theoretiker. Für ihn war klar, daß je­de sinn­vol­le Form des Denkens dem ma­the­ma­ti­schen Denken un­ter­wor­fen war. Dies ist ei­ne Studienarbeit aus dem Jahre 1999, wel­che sich mit der Fragestellung be­schäf­tigt, ob ei­ne Maschine den­ken kann.

Der Aufsatzes von Turing

In die­sem Kapitel will ich erst ein­mal dar­stel­len, wie Turing an das Problem der den­ken­den Maschinen her­an­ging. Dafür ge­be ich nun den Inhalt sei­nes Aufsatzes wie­der.

Das Imitationsspiel

Für die Frage, ob Maschinen den­ken kön­nen, muß man sich erst ein­mal klar wer­den, was ei­gent­lich Denken be­deu­tet und was man un­ter ei­ner Maschine ver­ste­hen soll. Turing will die Definition von Maschine und Denken al­ler­dings nicht mit dem all­ge­mei­nen Sprachgebrauch fest­le­gen, da dies sei­ner Meinung nach in ei­ner Meinungsumfrage en­den wür­de. Statt des­sen stellt Turing ei­ne ähn­li­che Frage, wel­che die Antwort auf die oben ge­stell­te Frage ge­ben soll. Er stellt sein Imitationsspiel vor. Hierfür be­nö­tigt er zu­nächst erst ein­mal drei Menschen: ei­nen Mann (A), ei­ne Frau (B) und ei­nen Fragesteller (C). Der Fragesteller sitzt in ei­nem se­pa­ra­ten Raum. Die Aufgabe des Fragestellers ist es zu un­ter­schei­den, wel­che der bei­den Personen der Mann und wel­che die Frau ist. Die Kommunikation zwi­schen den Personen ver­läuft schrift­lich (ma­schi­nen­ge­schrie­ben), da­mit es auch ei­ne wirk­li­che Denkentscheidung ist, sich al­so die Personen nicht se­hen und hö­ren.

Das Ziel der Person (A) ist es, den Fragesteller mög­lichst zur fal­schen Identifizierung zu ver­an­las­sen. Turing nennt hier als Beispielantwort für (A): „Mein Haar ist kurz ge­schnit­ten, und die längs­ten Strähnen sind 23cm lang“. Das Ziel der Person (B) be­steht dar­in, dem Fragesteller zu hel­fen. Eine mög­li­che Strategie liegt wo­mög­lich dar­in, daß sie dem Spieler (C) wahr­heits­ge­treue Antworten gibt, wel­che viel­leicht noch Hinweise ent­hal­ten wie z.B.: „Ich bin ei­ne Frau, hör nicht auf den an­de­ren.“ Solche Aussagen kön­nen na­tür­lich auch vom Spieler (A) kom­men.

Wir stel­len uns nun fol­gen­de Fragen: Was pas­siert, wenn wir den Spieler (A) mit ei­ner Maschine aus­tau­schen? Wird sich dann der Fragesteller ge­nau­so häu­fig ir­ren bzw. rich­tig ent­schei­den? Diese Fragen stellt Turing an die Stelle der obi­gen Frage, ob Maschinen den­ken kön­nen.

Kritische Bemerkungen zum neuen Problem

Turing zeigt nun, daß sein Gedankenspiel schar­fe Grenzen zieht zwi­schen den phy­si­schen und den in­tel­lek­tu­el­len mensch­li­chen Fähigkeiten, und so­mit ei­ne Untersuchung sei­ner neu­en Frage durch­aus le­gi­tim ist.
Der Fragesteller kann nun nicht se­hen, füh­len oder hö­ren, ob er mit ei­nem Menschen oder ei­ner Maschine kom­mu­ni­ziert. (Ein Roboter mit men­schen­ähn­li­cher Haut wür­de ihn auch nicht un­be­dingt mensch­li­cher ma­chen.) Der Fragesteller kann nun auch kei­ne prak­ti­sche Beweise for­dern, z.B.: „Springe !“.

Als kri­ti­sche Bemerkung kann man fest­stel­len, daß der Computer ge­gen­über dem Menschen im Nachteil ist. Ein Mensch kann kei­nen Computer si­mu­lie­ren, da er zu lang­sam und teils auch zu un­ge­nau ist. Turing fragt hier nun, ob es nicht sein könn­te, daß Maschinen et­was aus­füh­ren, was wir als Denken be­zeich­nen kön­nen, aber was sich von un­se­rem Denken stark un­ter­schei­det. Diese Frage stellt er al­ler­dings nach hin­ten, so­lan­ge man da­von aus­geht, daß man ei­ne Maschine kon­stru­ie­ren kann, die das Imitationsspiel gut be­wäl­tigt, al­so Maschinen, die so ant­wor­ten kön­nen wie Menschen.

Ein wei­te­rer Einwand wä­re, daß für das Imitationsspiel ei­ne an­de­re Strategie er­folg­rei­cher wä­re, als die des Nachamens mensch­li­chen Verhaltens. Turing möch­te sich hier nicht mit der Theorie des Spieles an sich aus­ein­an­der­set­zen und geht da­von aus, daß der Versuch sich so zu ver­hal­ten, wie ein Mensch es nor­ma­ler­wei­se tut, die bes­te Strategie für sein Spiel ist.

Die am Spiel beteiligten Maschinen

Als nächs­ten Schritt muß man sich erst ein­mal klar wer­den, was ei­ne Maschine in un­se­rem Spiel über­haupt ist. Für das Imitationsspiel er­laubt Turing zu­erst ein­mal al­le ma­schi­nen­bau­tech­ni­sche Hilfsmittel, um ei­ne ge­eig­ne­te Maschine her­stel­len zu kön­nen. Außerdem läßt er zu, daß die Ingenieure die Operationsweise ih­rer funk­tio­nie­ren­den Konstruktion nicht zu­frie­den­stel­lend be­schrei­ben kön­nen, weil wo­mög­lich ex­pe­ri­men­tel­le Konstruktionsweisen be­nutzt wur­den. Menschen, die auf üb­li­cher Weise zur Welt ka­men, wer­den nicht als Maschinen be­zeich­net.

Jetzt ent­steht ein Problem. Man könn­te viel­leicht ir­gend­wann ein­mal ei­nen Menschen an­hand ei­ner ein­zel­nen Zelle mit ma­schi­nen­bau­tech­ni­schen Mitteln her­an­züch­ten. Da die­ser aber nicht als Maschine an­ge­se­hen wer­den soll, muß man die oben ge­nann­te Freiheit doch ein­schrän­ken. Auch darf nicht ei­ne Befruchtung statt­fin­den. Turing hät­te ger­ne ein Ingenieurteam aus ei­nem Geschlecht…

Turing be­trach­tet nun aus­schließ­lich Elektrorechnern bzw. Digitalrechnern, wenn es um die Frage der den­ken­den Maschinen geht. Damit ist sein Aufsatz im­mer noch ak­tu­ell. Er zeigt, daß dies nicht un­be­dingt ei­ne star­ke Einschränkung ist. Für ihn kann ein Digitalrechner nicht den­ken, wenn er sich in sei­nem Imitationsspiel nicht be­wäh­ren könn­te. Seiner Meinung nach ist dies aber doch mög­lich und man sol­le es ein­fach aus­pro­bie­ren. Für die Konstruktion ei­nes „den­ken­den“ Rechners kann zum Beispiel ei­ne Statistik er­stellt wer­den, die an­gibt, wie oft man den tech­ni­schen Spieler rich­tig iden­ti­fi­ziert hat. Dafür wird ei­ne gro­ße Anzahl von Fragen be­nö­tigt. Nun könn­te ei­nen Digitalrechner be­reit­ge­stellt wer­den, der al­le Informationen die­ser Statistik ent­hält. So ein Rechner könn­te sich im Imitationsspiel be­wäh­ren.

Digitalrechner

Turing ver­gleicht in die­sem Kapitel den Menschen mit dem Computer der ein ma­the­ma­ti­sches Modell dar­stellt und kei­nes­falls re­al ist. Somit hat sich Turing von kon­kre­ten Aussagen über sei­ne Rechnerstruktur frei­ge­macht. Ein Rechner mit dis­kre­ten Zuständen, al­so ein Digitalrechner, löst sei­ne Aufgaben nach fes­ten Regeln, des­we­gen kann er auch Aufgaben ei­nes Menschen über­neh­men. Als nächs­tes nimmt Turing an, daß der Mensch sein Leben eben­falls nach fes­ten Regeln lebt. Der Mensch kann Papier und klei­ne­re Rechner so­wie Regelbücher ver­wen­den.

Ein Digitalrechner be­steht aus ei­nem Speicher (1.), ei­ner aus­füh­ren­den Einheit (2.) und aus ei­nem Kontrollwerk (3.). Im Vergleich mit dem Menschen be­deu­te­ten die drei Komponenten fol­gen­des:

  1. Der Speicher ist ein Informationsspeicher und ent­spricht dem Papier des Menschen. Dies kann das Rechenpapier und das Regelbuch sein. Auch das Gedächtnis des Menschen soll hier zum Speicher zäh­len.
  2. Die aus­füh­ren­de Einheit führt an­hand von Rechenergebnissen ver­schie­de­ne Operationen aus, die von Mensch zu Mensch bzw. von Maschine zu Maschine va­ri­ie­ren kön­nen.
  3. Das Kontrollwerk ist da­für da, daß Befehle in rich­ti­ger Reihenfolge aus­ge­führt wer­den. In ei­nem Rechner wird dies durch Befehlslisten (Programmcode) rea­li­siert. Der Mensch kann sich an Regelbücher hal­ten, oder er hat sei­ne Regeln schon im Kopf (Speicher). Befehle wer­den nor­ma­ler­wei­se li­ne­ar ab­ge­ar­bei­tet, aber es be­steht auch die Möglichkeit, be­ding­te und un­be­ding­te Sprünge in dem li­nea­ren Ablauf vor­zu­neh­men. Somit kön­nen Entscheidungen und Schleifen rea­li­siert wer­den.

Als Beispiel ei­nes sol­chen ge­re­gel­ten Ablaufes nennt Turing fol­gen­des Beispiel:
„Wünscht die Mutter, daß Thomas je­den Morgen auf sei­nem Schulweg beim Schuster nach­fragt, ob ih­re Schuhe fer­tig sind, kann sie ihm dies je­den Morgen aufs neue sa­gen. Sie könn­te aber auch ein für al­le­mal ei­ne ent­spre­chen­de Notiz in den Flur hän­gen, die ihn beim Verlassen des Hauses dar­an er­in­nert, nach den Schuhen zu fra­gen, und ihn auf­for­dern , die Notiz zu ver­nich­ten, wenn er die Schuhe be­kom­men hat.“

Fazit: Wenn man ei­ne Maschine ha­ben will, die den­ken kann, muß man sie nur rich­tig und voll­stän­dig pro­gram­mie­ren (Mensch hat sei­ne Regeln nor­ma­ler­wei­se im Kopf). Auch kann man sich Maschinen vor­stel­len, die ei­nen un­be­grenz­ten Speicher ha­ben (im­mer nur er­wei­tern) und so­mit al­le an­de­re Zustandsmaschinen si­mu­lie­ren kön­nen (uni­ver­sel­le Turingmaschine). Ein in­ter­es­san­ter Gedanke wä­re ei­ne Maschine mit ei­nem zu­fäl­li­gen Element. Hat solch ei­ne Maschine ei­nen frei­en Willen? Maschinen müs­sen nicht un­be­dingt elek­trisch sein. Das Nervensystem des Menschen z.B. ist ei­ne Kombination aus che­mi­schen und elek­tri­schen Vorgängen. Die Elektrizität wird hier nur we­gen dem Geschwindigkeitsvorteil ge­braucht.

Universalität der Digitalrechner

Die Maschinen aus dem vor­he­ri­gen Kapitel ge­hö­ren zu den dis­kre­ten Maschinen. Dies be­deu­tet, daß sie theo­re­tisch ih­re Zustände schlag­ar­tig än­dern (Digitalrechner: von 0 auf 1 bzw. von 0V auf +5V). Aus sol­chen Maschinen kann man Zustandsmaschinen her­stel­len. Dies sind Maschinen, die an­hand von Eingabewerten und dem in­ne­ren Zustand (ge­spei­cher­te Werte) ei­ne Ausgabe er­zeu­gen und da­bei wo­mög­lich den in­ne­ren Zustand än­dern. Laplace war so­gar der Meinung, daß das gan­ze Universum ei­ne Art Zustandsmaschine sei. Wenn hier al­so ein Atom ver­scho­ben wird, kann dies die Ursache sein, war­um ein Mensch ein Jahr spä­ter un­ter ei­ner Lawine stirbt. Anders als im Universum wis­sen wir, wel­che Eingaben in klei­nen Zustandsmaschinen zu wel­chen Ergebnissen füh­ren. Wenn al­so ein Digitalrechner schnell ge­nug ist, könn­te man mit ihm je­de Maschine mit dis­kre­ten Zuständen si­mu­lie­ren. In un­se­rem Imitationsspiel wä­re der nächs­te Schritt zu­erst ein­mal ei­ne Maschine (A) und ei­ne Maschine (B), die (A) si­mu­liert. Der Fragesteller wä­re nun nicht in der Lage, die bei­den Maschinen zu un­ter­schei­den. Natürlich müß­te man die Maschine (B) im­mer wie­der neu pro­gram­mie­ren, da­mit sie ei­ne neue Maschine (A) si­mu­lie­ren kann.

Ist es nun denk­bar, ei­ne Maschine zu kon­stru­ie­ren, die den Spieler (A) er­set­zen kann, wo­bei der Spieler(B) ein Mensch ist, so daß der Fragesteller (C) die bei­den Mitspieler nicht un­ter­schei­den kann?

Gegensätzliche Ansichten über die zentrale Frage

In den obi­gen Kapiteln wur­de ei­ne Substitution dar­ge­stellt, die nicht un­be­dingt von je­dem an­ge­nom­men wird. Turing stellt nun zu­erst sei­ne ei­ge­ne Meinung dar: Für ihn war es da­mals vor­stell­bar, daß in ca. 50 Jahren (al­so un­ge­fähr heu­te) ein Rechner ge­baut wird, der ei­nen so gro­ßen Speicher (ca. 120MB) und ei­ne aus­rei­chen­de Rechenleistung be­sit­zen, daß die­ser Rechner mit rich­ti­ger Programmierung in sei­nem Imitationsspiel gu­te Leistungen er­brin­gen kann, und zwar der­art, daß die Chancen ei­nes durch­schnitt­li­chen Fragestellers nach fünf­mi­nü­ti­ger Fragezeit den rich­ti­gen Spieler zu iden­ti­fi­zie­ren, nicht hö­her als sie­ben zu zehn ste­hen. Für ihn ist plötz­lich die zen­tra­le Frage: „Können Maschinen den­ken?“ zu be­lang­los, als daß man ernst­haft dar­über dis­ku­tiert, ob­wohl sie am Anfang für Turing noch wich­tig war. Außerdem ist ihm klar, daß am Ende des Jahrhunderts sich die Ansichten und der Sprachgebrauch dras­tisch ge­än­dert ha­ben wer­den. Man kön­ne dann schon von den­ken­den Maschinen re­den. Außerdem gilt, daß Wissenschaftler auch oft auf Grund von Vermutungen in ei­ne be­stimm­te Richtung for­schen und nicht nur von ei­ner be­wie­se­nen Tatsache zur nächs­ten sprin­gen. Also kön­nen sol­che Vermutungen rich­tungs­wei­send für die Forschung sein.

Als nächs­tes wer­den ge­gen­sätz­li­che Ansichten be­trach­tet, die sich auf die Frage „Können Maschinen den­ken?“ be­zie­hen, aber für Turing an­hand der Vermutung, man kön­ne Digitalrechner bau­en, die sich in sei­nem Test be­wäh­ren, jeg­li­chen Sinn ver­lie­ren:

Der theologische Einwand

„Denken ist ei­ne Funktion der un­sterb­li­chen mensch­li­chen Seele. Gott gab Mann und Frau ei­ne un­sterb­li­che Seele, je­doch we­der ei­nem an­de­ren Lebewesen noch ei­ner Maschine. Insofern kann we­der Tier noch Maschine den­ken.“

Turing fragt sich hier, war­um die Theologen nicht Mensch und Tier zu­sam­men neh­men und von Maschinen tren­nen. Dies ge­be für ihn eher ei­nen Sinn. Es zei­ge an­schei­nend den will­kür­li­chen Charakter der or­tho­do­xen Ansichten. Wie ist es mit den Moslems, die be­haup­ten, daß Frauen kei­ne Seele ha­ben?

Auch stellt er sich die Frage, ob die Allmacht Gottes doch nicht so all­mäch­tig ist? Muß das Lebewesen erst mu­tie­ren, al­so z.B. ein aus­rei­chend gro­ßes Gehirn be­kom­men, da­mit Gott ihm ei­ne Seele gibt? Dann könn­ten wir ja da­von aus­ge­hen, daß Maschinen ei­nes Tages auch ei­ne Seele be­kom­men. Wir könn­ten uns ja oh­ne Bedenken der Macht Gottes be­die­nen und Maschinen (bzw. wie heu­te Kinder) er­zeu­gen, die dann von Gott au­to­ma­tisch ei­ne Seele be­kom­men.

Allgemein ist Turing nicht sehr an­ge­tan, wenn es um theo­lo­gi­sche Argumente geht. Als Beispiel nimmt er Psalm 104,5 : „der du das Erdenreich ge­grün­det hast auf sei­nen Boden, daß es bleibt im­mer und ewig.“ Dieser Psalm hat z.B. mit­ge­wirkt, daß die ko­per­ni­ka­ni­schen Theorien be­kämpft wur­den. Heutzutage kann dies mit un­se­rem Wissen nicht mehr ge­sche­hen.

Der Vogel-Strauß-Einwand

„Die Konsequenzen, die sich aus den­ken­den Maschinen er­gä­ben, wä­ren zu schreck­lich. Wir wol­len hof­fen und glau­ben, daß sie nicht den­ken kön­nen.“

Diese Aussage be­schäf­tigt vie­le, vor al­lem die­je­ni­gen, die mit der theo­lo­gi­schen Argumentation an­ge­freun­det sind. Man sol­le sich eher klar wer­den, daß der Mensch not­wen­di­ger­wei­se den­ken kann. Somit braucht man kei­ne Angst ha­ben, daß man die Führungsrolle ver­liert. Für Turing ist die­ses Argument zu un­we­sent­lich, als daß es ei­ner Widerlegung be­dür­fe.

Der mathematische Einwand

Mit ei­ner Reihe von ma­the­ma­ti­schen Logiken kann man be­wei­sen, daß Maschinen mit dis­kre­ten Zuständen in ih­ren Fähigkeiten be­schränkt sind. Bekannt ist z.B. das Gödelsche Theorem, wel­ches be­sagt, daß in je­dem ge­nü­gend reich­hal­ti­gen lo­gi­schen System Sätze for­mu­liert wer­den kön­nen, die in die­sem System we­der be­wie­sen noch wi­der­legt wer­den kön­nen, es sei denn, das System ist selbst in­kon­sis­tent. Wenn man dies auf Maschinen be­zieht, be­deu­tet dies, daß ei­ne Maschine, die auf ei­ner sol­cher reich­hal­ti­gen Logik auf­ge­baut wä­re, auf ei­ne Frage ei­ne fal­sche oder gar kei­ne Antwort fin­det. Aber gilt dies nicht auch für ei­nen Menschen?

Es gibt Maschinen, die al­so auf ei­ne Frage kei­ne Antwort wis­sen, die ein Mensch al­ler­dings be­ant­wor­ten kann. Dies gibt uns das Gefühl der Überlegenheit. Doch es gibt Maschinen, die ge­ra­de auf die­se Frage ei­ne Antwort ha­ben, und viel­leicht so­gar auf Fragen, die ein Mensch nicht be­ant­wor­ten kann, da­für aber an an­de­ren Fragen schei­tern. Ein Mensch kann al­so nicht ei­nen Sieg über al­le Maschinen er­rin­gen, da es, wie im ech­ten Leben, im­mer ei­nen Menschen gibt, der in­tel­li­gen­ter ist, bzw. ei­ne Maschine gibt, die in­tel­li­gen­ter ist als die an­de­re.

Das Bewusstseinsargument

„Erst wenn ei­ne Maschine dich­ten oder kom­po­nie­ren kann, und zwar aus Gedanken und Gefühlen her­aus, d.h. nicht als Produkt des Zufalls, könn­ten wir zu­ge­ben, daß zwi­schen Maschine und Gehirn kein Unterschied be­steht. Dabei müß­te die Maschine na­tür­lich nicht nur in der Lage sein, ein Gedicht oder ein Musikstück zu schrei­ben, son­dern dann auch wis­sen, daß sie es ge­schrie­ben hat. Kein Mechanismus kann sich über sei­ne Erfolge freu­en (d.h. mehr als nur künst­li­che Freude zei­gen, was ein leich­ter Kunstgriff wä­re), bei Defekten Kummer emp­fin­den, durch schö­ne Worte sich ge­schmei­chelt, durch Fehler sich nie­der­ge­schla­gen füh­len, vom an­de­ren Geschlecht be­zau­bert, we­gen un­er­füll­ter Wünsche zor­nig oder trau­rig sein.“

Die ein­zi­ge Möglichkeit fest­zu­stel­len, ob ei­ne Maschine den­ken kann, be­stün­de hier nur, sel­ber die Maschine zu sein. Oder an­ders ge­se­hen: wir kön­nen ei­gent­lich gar nicht be­haup­ten, daß ein an­de­rer Mensch den­ken kann, ob­wohl wir wis­sen, daß wir den­ken kön­nen. Wir neh­men aber aus prak­ti­schen und höf­li­chen Gründen an, daß je­der Mensch den­ken kann.

Es gibt tat­säch­lich in der Praxis Tests um her­aus­zu­be­kom­men, ob je­mand et­was ver­stan­den hat. Diese Tests (vi­va vo­ce) sind ähn­lich dem Imitationsspiel, hier wird ein­fach der Spieler (B) weg­ge­las­sen. Wenn nun ei­ne Maschine, die dich­ten kann, be­frie­di­gen­de Antworten be­züg­lich des Sinnes und des Hintergrundes sei­nes Gedichtes ge­ben könn­te, kann man dann nicht be­haup­ten, daß die­se Maschine ei­ne Art Bewusstsein hat? Turing ist nicht der Meinung, daß die­se Maschine die Antworten nur künst­lich si­gna­li­siert. Trotzdem gibt es für Turing Geheimnisse um das Bewusstsein: „Zum Beispiel tritt im Zusammenhang mit je­dem Versuch sei­ner Lokalisierung ei­ne Art Paradoxon auf.“ Die Aufklärung die­ses Geheimnisses ist für ihn hier aber nicht not­wen­dig.

Argumente, die verschiedene Unfähigkeiten betreffen

„Ich ga­ran­tie­re Ihnen, Sie kön­nen Maschinen al­les tun las­sen, was Sie er­wähnt ha­ben, es wird ih­nen je­doch nicht ge­lin­gen, sie da­hin zu brin­gen, X zu tun.“

Für X kann hier viel ste­hen, z.B.: Liebevoll, reich, schön, fröh­lich sein, freund­lich sein, Initiative be­sit­zen, Fehler ma­chen, Richtiges vom Falschen un­ter­schei­den, usw. Diese Ansichten kom­men da­her, weil wir nichts an­de­res ken­nen. Wir se­hen Maschinen, die häß­lich sind und nur für ei­nen en­gen Aufgabenraum be­stimmt sind, weil z.B. ih­re Speicherkapazität be­schränkt ist. Diese Maschinen sind schnell hilf­los und ver­lo­ren, wenn man ih­re Umgebung än­dert.

Früher konn­te / woll­te man sich nicht vor­stel­len, was Digitalrechner ein­mal al­les tun kön­nen, weil man sie noch nicht kon­stru­ie­ren konn­te, ob­wohl ei­ni­ge schon er­kannt hat­ten, was solch ein Rechner al­les leis­ten kann. Diese Eigenschaft des Menschen scheint kei­ne gu­te Grundlage für ei­ne wis­sen­schaft­li­che Diskussion zu sein, an­dern­falls könn­te je­der zum Schluß kom­men (wie man­che eng­li­sche und ame­ri­ka­ni­sche Kinder), daß je­der eng­lisch spricht und daß es sinn­los sei, deutsch zu ler­nen.

Einige Einwände ba­sie­ren auf der Schwierigkeit, die ei­ne Maschine hat, dem Menschen ge­gen­über ähn­li­che freund­schaft­li­che Gefühle zu he­gen, wie es sie zwi­schen den Angehörigen der wei­ßen oder der schwar­zen Rasse gibt. Sie sind al­so ei­ne Art Untermenge ei­nes grö­ße­ren Problems und müs­sen nicht ex­pli­zit an­ge­spro­chen wer­den.

Der Einwand „Maschinen kön­nen kei­ne Fehler ma­chen“ be­deu­tet nicht, daß ei­ne Maschine da­durch we­ni­ger wert ist. Wenn wir ei­ne sol­che Maschine in un­se­rem Imitationsspiel ein­setz­ten und ihr vie­le Rechenaufgaben ge­ben, dann kön­nen wir sie an­hand ih­rer Genauigkeit ent­lar­ven. Eine Maschine für un­ser Spiel müß­te al­so so pro­gram­miert wer­den, daß sie auch Fehler ma­chen kann und nicht je­de Aufgabe rich­tig löst. Eine Maschine kann z.B. auch ei­nen „Funktionsfehler“ wie ei­nen Stromausfall ha­ben. Diese Art von Fehler wird ger­ne aus­ge­schlos­sen, wenn man da­von aus­geht, daß der Ablauf nicht durch phy­si­ka­li­sche Gegebenheiten ge­stört wird. (Ein wei­te­rer Fehler, der ent­ste­hen kann, sind die „Fehlschlüsse“ die nur dann ent­ste­hen kön­nen, wenn die Ausgabe ei­ner Maschine ei­ne be­stimm­te Bedeutung hat. Sie könn­te nach ei­ner be­stimm­ten Methode Schlüsse auf­grund wis­sen­schaft­li­cher Induktionen zie­hen. Bei ei­ner sol­chen Methode muß man mit Fehlschlüssen rech­nen.)

Der Einwand, ei­ne Maschine kön­ne nicht Gegenstand ih­rer ei­ge­nen Gedanken sein, läßt sich be­ant­wor­ten, wenn man zeigt, daß ei­ne Maschine sich ir­gend­wel­che Gedanken über ir­gend­wel­che Gegenstände macht. Man kann z.B. die Fähigkeit ei­nes selbst­mo­di­fi­zie­ren­den Codes be­trach­ten, al­so wenn ein Programm sich sel­ber än­dert, da­mit es ei­ne Aufgabe bes­ser lö­sen kann. Ansätze in die­ser Richtung sind schon ge­ge­ben und wer­den in Zukunft noch aus­ge­reif­ter sein. Hier kann man doch sa­gen, daß ei­ne Maschine über sich selbst im Klaren sein muß.

Der Einwand, daß ei­ne Maschine nur ei­nen be­gren­zen Tätigkeitsbereich hat, läßt sich auf den Mangel an Speicher zu­rück füh­ren. Dieses Problem wird von Zeit zu Zeit ge­rin­ger. Wenn man nun die gan­zen Eigenschaften im­ple­men­tie­ren wür­de und die­se vor­stellt, wä­re dies für vie­le im­mer noch nicht zu­frie­den­stel­lend, weil die Eigenschaften in Wirklichkeit ziem­lich pri­mi­tiv sei­en.

Der Einwand der Lady Lovelace

„Die Analytische Maschine er­hebt kei­nen Anspruch, ir­gend et­was zu er­zeu­gen. Sie kann all das tun, wo­für wir die ent­spre­chen­den Durchführungsbefehle ge­ben kön­nen.“

Kann ei­ne sol­che Maschine mit der Eigenschaft er­wei­tert wer­den, daß sie für sich sel­ber den­ken kann oder ei­ne Art Reflex be­sitzt, der das Lernen ak­ti­viert? Ob dies grund­sätz­lich mög­lich ist, ist ei­ne span­nen­de Frage. Zur Zeit sind sol­che Maschinen aber nicht vor­han­den. Diese Art von Fragen wer­den wei­ter un­ten noch ein­mal dis­ku­tiert.

Ein ähn­li­che Einwand wä­re z.B., daß ei­ne Maschine nie et­was wirk­lich neu­es her­vor­brin­gen kön­ne. Turing gibt hier ei­ne ein­fa­che Antwort: „Es gibt nichts Neues un­ter der Sonne.“ Ist nicht al­les, was wir tun, ein Resultat un­se­rer geis­ti­gen Erziehung und nach­voll­zo­ge­ner Fakten?

„Eine Maschine kann uns nicht über­ra­schen.“ Selbstverständlich kann ei­ne Maschine uns über­ra­schen. Dies liegt aber ei­gent­lich dar­an, daß wir nicht aus­rei­chend ge­nug vor­be­rech­net ha­ben, was die Maschine aus­spuckt, oder daß wir in un­se­rer Berechnung oft leicht­sin­nig oder un­wis­send sind. Wenn dann das Ergebnis von un­se­ren Erwartungen ab­weicht, sind wir über­rascht.

Wenn man nun ein­wirft, daß die­se Überraschung auf Grund des ei­ge­nen Denkens ent­steht und nicht Verdienst ei­ner Maschine ist, führt uns dies wie­der zum Bewusstseinsargument und so­mit weit weg von der Überraschung. Es wird im­mer ein Denkvorgang be­nö­tigt, um über­rascht zu wer­den. Turing meint, daß die Ansicht, Maschinen kön­nen kei­nen Anlass zu ei­ner Überraschung ge­ben, ein Trugschluss sei. Sie be­stehe in der Meinung, daß ei­ne mit­ge­teil­te Tatsache so­fort al­le dar­aus ent­ste­hen­de Folgen dem Verstand mit­teilt. Dann wä­ren ja al­le Bemühungen, aus ge­ge­be­nen Daten et­was zu Folgern, über­flüs­sig.

Das Argument der Stetigkeit innerhalb des Nervensystems

Das Nervensystem ist kei­ne Maschine mit dis­kre­ten Zuständen. Ein klei­ner Informationsfehler be­züg­lich ei­ner Impulsstärke kann ei­ne ganz an­de­re Antwortreaktion her­vor­ru­fen. Solch ein ste­ti­ges System kann nicht von ei­ner dis­kre­ten Maschine si­mu­liert wer­den.

Turing geht hier aber da­von aus, daß die­se Eigenschaft in sei­nem Imitationsspiel kei­nen Unterschied macht. Als Beispiel nimmt er ei­nen Differentialanalysator, den man nach dem Wert von Pi (ca. 3,1416) fragt. Dieser wür­de dann aus den Zahlen 3,12; 3,13; 3,14; 3,15; 3,16 mit den Wahrscheinlichkeiten 0,05; 0,15; 0,55; 0,19; 0,06 ei­ne Zufallswahl tref­fen, al­so 3,14. Der Fragesteller könn­te nun kei­nen Unterschied zwi­schen dis­kre­ter und ste­ti­ger Maschine fest­stel­len. Ein wei­te­res Beispiel wä­re ei­ne CD, die Digitale Daten ent­hält, aber wir hö­ren kei­nen Unterschied zur Originalmusik.

Das Argument von der Unmöglichkeit, Verhaltensregeln festzusetzen

„Es wird ei­nem schnell klar, daß es un­mög­lich ist für je­de Lebenssituation ei­nes Menschen Regeln fest­zu­le­gen. Somit kön­nen wir kei­ne Maschinen sein.“

Für Turing gibt es ei­nen Unterschied zwi­schen Verhaltensregeln und Verhaltensgesetzmäßigkeiten. Eine Verhaltensregeln ist ei­ne Vorschrift wie z.B.: „Bei Rot ste­hen, bei Grün ge­hen.“ Eine Verhaltensgesetzmäßigkeit ist ei­ne Art Naturgesetz. Ein Beispiel hier­für wä­re: „Wenn du ihn kneifst, dann schreit er.“ Man muß zwi­schen den bei­den Begriffen un­ter­schei­den. Ersetzen wir nun „Verhaltensregeln, nach de­nen er sein Leben ge­stal­tet“, durch „Verhaltensgesetze, die sein Leben ge­stal­ten“, se­hen wir, daß ei­gent­lich je­der Mensch bzw. je­der Typ von Maschine ein­zig­ar­tig ist und durch sei­ne per­sön­li­che Art ge­lei­tet wird. Turing fol­gert nun aus „von Verhaltensgesetzmäßigkeiten ge­lenkt sein“, zu „ei­ne Art Maschine zu sein“ und um­ge­kehrt.

Es ist aber fast un­mög­lich (und wenn, dann durch Statistik), das Nichtvorhandensein voll­stän­di­ger Verhaltensgesetzmäßigkeiten zu be­wei­sen. Man kann ei­gent­lich nur durch wis­sen­schaft­li­che Beobachtungen sol­che Gesetzmäßigkeiten fest­stel­len, und es kann heu­te (und viel­leicht in Zukunft) noch nicht ge­sagt wer­den: „wir ha­ben ge­nü­gend nach­ge­forscht, es gibt kei­ne der­ar­ti­gen Gesetzmäßigkeiten“. Anders sieht es mit den Verhaltensregeln aus. Hier fin­den wir schnell her­aus, daß sie nicht voll­stän­dig sind. Solange man al­so nicht aus­schlie­ßen kann, daß auch ein Mensch un­ter sol­chen Gesetzmäßigkeiten steht, kann man dar­aus kein Argument für das Scheitern den­ken­der Maschinen ge­win­nen.

Das Argument von der außersinnlichen Wahrnehmung

Unter au­ßer­sinn­li­chen Wahrnehmungen ver­ste­hen wir die Telepathie, Hellsehen, Prophetie und Psychokinese. Die sta­tis­ti­schen Beweise für Telepathie sind über­wäl­ti­gend. Diese auf­tre­ten­de Phänomene schei­nen al­len üb­li­chen wis­sen­schaft­li­chen Vorstellungen zu wi­der­spre­chen. Sie könn­ten aber wich­ti­ger Faktoren für das Denken sein.

Wie sieht das nun in un­se­rem Imitationsspiel aus? Ein Spieler mit te­le­pa­thi­sche Kräfte könn­te ei­ne Farbe, wel­cher der Fragesteller in sei­ner Hand hält bes­ser er­ra­ten, als ein Computer mit Zufallszahlen. Eine Identifikation der bei­den Spieler ist so­mit leicht ge­ge­ben. Mit au­ßer­sinn­li­chen Kräften ist al­les mög­lich. Turing will sei­nen Test nun ein­schrän­ken. Er setzt die Spieler in „telepathie-undurchlässige“ Räume. Da Turing „über kei­ne sehr über­zeu­gen­den Argumente“ ver­fügt, wie er selbst zu­gibt, nimmt die Diskussion über mög­li­che Bedenken ei­nen gro­ßen Teil in sei­nem Aufsatz ein. Doch man be­kommt das Gefühl, daß es Turing sich zu leicht mit sei­ner Gegenargumentation mach­te. Drei Argumente sind für ihn für ei­ne wis­sen­schaft­li­che Behandlung der Fragestellung ir­rele­vant. Bei dem Argument der „au­ßer­sinn­li­chen Wahrnehmung“ stellt er sei­ne Spieler ein­fach in ei­nen „telepathie-undurchlässigen“ Raum.

Lernende Maschinen

Wir se­hen uns noch ein­mal Lady Lovelaces Einwand an: Maschinen tun nur das, was man ih­nen be­fiehlt. Wie wä­re es mit fol­gen­der Ansicht: Der Mensch gibt der Maschine ei­ne Idee, die dann dar­auf­hin ei­ne Antwort aus­gibt und dann schweigt. Oder ein wei­te­rer Vergleich: Wir ha­ben ein Atomkraftwerk un­ter­halb der kri­ti­schen Größe. Ein Neutron, daß von au­ßen hin­ein­ge­ge­ben wird, soll un­se­re Idee sein. Dieses Neutron wird im Reaktor ei­ne ge­wis­se Störung her­vor­ru­fen, die dann aber wie­der ab­klingt. Hat der Reaktor die kri­ti­sche Größe er­reicht, dann wür­de er aber zer­stört wer­den.

Gilt die­ser Vergleich auch für den Menschlichen Verstand? Turing be­haup­tet, daß dem so sei. Der Verstand der meis­ten Menschen sei un­ter­halb der kri­ti­schen Größe. Als Antwort be­kommt man nur wie­der ei­ne Idee. Es gibt aber auch Menschen, die mit ei­nem kri­ti­schen Reaktor ver­gli­chen wer­den kön­nen. Diese stel­len gleich ei­ne gan­ze Theorie auf mit wei­te­ren Ideen, die sie aus der ge­ge­be­nen Idee her­lei­ten. Läßt sich solch ei­ne kri­ti­sche Maschine kon­stru­ie­ren?

Hier sieht man, daß dies ei­ne gro­ße Aufgabe der Programmierer wird. Denn un­ser Gehirn hat ei­ne Größe im Bereich von 10^10 bis 10^15 Bits. Die Programmierung ei­nes sol­chen Speichers be­nö­tigt viel Zeit und ist ei­gent­lich un­mög­lich. Turing stellt hier nun ei­ne neue Lösung für das Problem da:

Man kann sich nun erst ein­mal klar wer­den, wie ein er­wach­se­ner Mensch zu sei­nem Verstand kommt:

  1. nach sei­ner Geburt ist das Gehirn im Anfangszustand
  2. dann be­kommt er ei­ne Erziehung
  3. ne­ben­bei macht er noch Erfahrungen, die nicht Bestandteil sei­ner Erziehung sind.

Somit kön­nen wir das ge­ge­be­ne Problem in zwei Teilprobleme zer­le­gen. Wir schrei­ben ein Kind-Programm, und er­zie­hen es dann. Natürlich muß man daß rich­ti­ge Kind-Programm fin­den. Dabei kön­nen wir uns be­kann­te Zusammenhänge fest­stel­len:

Struktur des Kind-Programms = Erbgut
Veränderung des Kind-Programms = Mutation
Natürliche Auswahl = Welturteil des Experimentators

Vorteil in un­se­rem Experiment: der Experimentator kann durch sei­ne Intelligenz die Auswahl und Mutation be­schleu­ni­gen. Der Lernprozess ei­ner Kind-Maschine un­ter­schei­det sich stark von dem Lernprozess ei­nes ech­ten Kindes. Die Maschine hat kei­ne Gliedmaße, sie kann nicht zur Schule ge­hen und es fehlt ihr die Kommunikation zwi­schen den Mitschülern, die sie är­gern, und dem Lehrer. Für den Lernprozess muß man be­ach­ten, daß man die Möglichkeit hat, ei­ner Maschine „emo­tio­nal“ und „nicht emo­tio­nal“ et­was bei­zu­brin­gen. Ein „emo­tio­na­ler“ Weg wä­re z.B. die Maschine zu „be­stra­fen“, in­dem man ihr sagt, daß das ge­fun­de­ne Ergebnis falsch sei. Umgekehrt wür­de ein „Ja“ ei­ne Art Belohnung sein und die Wahrscheinlichkeit ei­ner Gegebenheit dann hö­her be­wer­ten. Die Maschine wür­de sich aber nicht „freu­en“, wenn ich sie erst hun­dert mal be­stra­fe, bis sie end­lich die rich­ti­ge Lösung er­ra­ten hat. Dies dau­ert ein­fach zu lan­ge. Deswegen be­nö­tigt man noch den „nicht emo­tio­na­len“ Weg, auf dem ich ei­ner Maschine di­rekt Fakten über­lie­fern kann.

Es gibt ver­schie­de­ne Meinungen, wie man ei­ne Kind-Maschine kon­stru­ie­ren kann. Entweder so ein­fach wie mög­lich im Einklang al­ler Prinzipien oder als ein voll­stän­di­ges System, in dem lo­gi­sche Schlussweisen ein­ge­baut sind (Definitionen, Sätze, usw.). Aber eins ist si­cher, ei­ne Maschine soll­te so pro­gram­miert wer­den, daß je­der wohl­be­grün­de­ter Befehl au­to­ma­tisch ei­ne Aktion nach sich zieht. Ein Beispiel: die Maschine weiß: „was der Lehrer sagt, ist rich­tig“ und hört vom Lehrer: „mach dei­ne Hausaufgaben“, dann soll­te sie an­fan­gen, ih­re Hausaufgaben zu be­ar­bei­ten.

Allgemein gilt, daß die Befehle für ei­ne Maschine aus­führ­bar blei­ben, da sie z.B. nor­ma­ler­wei­se kei­ne Gliedmaßen hat. Wichtig sind auch Befehle, die ei­ne Reihenfolge fest­le­gen, denn in ei­nem lo­gi­schen System kann es auf ei­ner Entscheidungsstufe ei­ne Vielzahl von al­ter­na­ti­ven Entscheidungen ge­ben. Beispiel: „Erweist sich ei­ne Methode schnel­ler, als die an­de­re, dann neh­me die schnel­le­re.“ Befehle kön­nen von au­ßen oder von der Maschine sel­ber kom­men.

Eine Denkende Maschine muß sei­ne ei­ge­nen Regeln, die voll­stän­dig be­schrei­ben, wie ei­ne Maschine re­agiert, än­dern kön­nen. Wichtig ist, das die­se Regeln un­ab­hän­gig von der Vergangenheit der Maschine und un­ab­hän­gig von ih­rer mög­li­chen Zustandsänderungen sind. Die Regeln, die beim Lernen ge­än­dert wer­den kön­nen, sol­len an­spruchs­los und nur vor­über­ge­hend gül­tig sein. Es wer­den al­so nicht die grund­le­gen­den Verhaltensgesetzmäßigkeiten ver­än­dert.

Ein wei­te­res Kennzeichen ei­ner ler­nen­den Maschine ist, daß der Lehrer ei­gent­lich gar nicht rich­tig weiß, was für ein in­ne­rer Zustand die Maschine ge­nau hat. Dies steht of­fen­sicht­lich im Widerspruch zu der Meinung, daß wir wie bei ge­wöhn­li­chen Maschinen den in­ne­ren Zustand ken­nen und nach­voll­zie­hen kön­nen. Tut nun ei­ne Maschine nur das, was man ihr be­fiehlt? Hier an­schei­nend nicht mehr. Dadurch, daß ei­ne Maschine ler­nen kann, wird ihr Ergebnis im­mer et­was von der Erwartung des Fragestellers ab­wei­chen. Denn Lernprozesse zei­gen nicht mit hun­dert­pro­zen­ti­ger Sicherheit das rich­ti­ge Ergebnis an, sonst wä­re ein Verlernen ja nicht mög­lich. Mit die­ser Eigenschaft er­langt man doch ei­ne Art „mensch­li­che Fehlbarkeit“. Intelligentes Verhalten ei­ner Maschine be­steht ver­mut­lich nun in der rich­ti­gen Auswahl der Befehlsreihenfolge und in der Abweichung vom völ­lig dis­zi­pli­nier­ten Verhalten, wel­ches je­doch so ge­ring ist, daß es nicht als Zufallsergebnis an­ge­se­hen wer­den kann oder in ei­ner sinn­lo­sen Schleife en­det.

Ein zu­fäl­li­ges Element in ei­ner Maschine kann die Sache noch in­ter­es­san­ter ma­chen. In man­chen Suchalgorithmen ist ei­ne zu­fäl­li­ge Suche nütz­li­cher als die Sequentielle, da man sich nicht mer­ken muß, wel­che Elemente schon ge­tes­tet wur­den. Im Evolutionsprozess wur­den ja an­schei­nend auch zu­fäl­li­ge Elemente bei der Wahl der Genkombinationen be­nutzt.

Turing hofft, daß Maschinen viel­leicht ein­mal auf al­len rein in­tel­lek­tu­el­len Gebieten mit dem Menschen kon­kur­rie­ren. Aber mit wel­chem Gebiet soll­te man sich zu­erst be­schäf­ti­gen? Ist das Schachspiel ein gu­ter Start, oder soll­te man ei­ne Maschine mit Sinnesorgane aus­stat­ten und sie dann wie ein Kind er­zie­hen? Eins ist si­cher, wenn wir Klarheit er­lan­gen wol­len, dann gibt es auf die­sem Gebiet noch viel zu tun.

Die Zeit heute, 50 Jahre nach Turing

Die heu­ti­gen Rechner ver­fü­gen über ei­ne viel mäch­ti­ge­re Hardware, als Turing es ei­gent­lich er­war­tet und vor­aus­ge­setzt hat­te. Doch kann man trotz­dem noch nicht be­haup­ten, daß ei­ne Maschine rich­tig den­ken kann. Auch sind heu­te Probleme be­kannt, an die Turing noch nicht ge­dacht hat­te. Zu er­wäh­nen wä­re da die Bild- und Spracherkennung. Natürlich gibt es dort schon ei­ni­ge Fortschritte (vor al­lem ak­tu­ell in der Spracherkennung) trotz­dem ist im­mer noch ein gro­ßer Aufwand an Forschung nö­tig, bis ei­ne Maschine für das Imitationsspiel mit ge­eig­ne­ter Texterkennung und dem ent­spre­chen­den Verständnis er­stellt wer­den kann.Joseph Weizenbaum hat­te in den 60er Jahren ein Programm ge­schrie­ben, daß ei­nen Psychotherapeuten si­mu­lier­te und im ge­wis­sen Sinne da­mals den Turing-Test be­stan­den hat­te. Er nann­te es ELIZA. Dieses Programm hat­te ei­gent­lich nichts an­de­res ge­macht, als den Satz, den er be­kom­men hat­te, in ei­ne Frage um­zu­stel­len. Beispiel: „Mir geht es so schlecht! -> Erzählen Sie mir, war­um es ih­nen so schlecht geht.“ (Oder wenn man das Verb „ge­hen“ mit „hö­ren“ und das Wort „schlecht“ mit „gut“ aus­tauscht, be­kommt man ei­nen Dialog der Art: „Ich hö­re so gut -> Erzählen Sie mir, war­um sie so gut hö­ren.“) Dadurch wird der Patient zum Weiterreden an­ge­regt und das Programm kann so­mit die Notwendigkeit ei­ner Wissensbasis um­ge­hen. In der eng­li­schen Sprache ist die­se Satzumformung ein­fa­cher als im Deutschen.

Das Schlimme an die­sem Experiment war nun aber, daß ei­ni­ge Patienten wirk­lich glaub­ten, sie ver­trau­en sich ei­nem ech­ten Psychotherapeuten an. Man dach­te al­so, ELIZA kön­ne den­ken und in ei­ni­gen Jahren könn­te ein Computer meh­re­re Patienten be­treu­en. Das ELIZA nicht den­ken kann, ist uns aber klar. Das Programm hat nichts ver­stan­den, son­dern le­dig­lich Satzumformungen vor­ge­nom­men! Bei die­sem Test hat­ten die Patienten zwar nicht die Aufgabe, her­aus­zu­fin­den, wer Mensch und wer Maschine war, aber trotz­dem kann man be­haup­ten, daß es sich hier um ei­ne Art Turing-Test han­delt, weil die Patienten eben wirk­lich dach­ten, sie hät­ten es mit ei­nem in­tel­li­gen­ten Gegenüber zu tun.

Die Künstliche Intelligenz muß­te in­zwi­schen star­ke Einbrüche mit­er­le­ben. Zwar gibt es heut­zu­ta­ge Rechner, die so gut Schach spie­len, daß nur noch die Großmeister die­se Rechner be­sie­gen kön­nen. (Und selbst die ha­ben es schwer: sie­he Deep Blue ge­gen Kasparov). In ein paar Jahren sind die Rechner wo­mög­lich zehn mal schnel­ler als die heu­ti­gen Rechner, dann wird es un­mög­lich sein ge­gen die­se zu ge­win­nen. Dennoch wird die­ser Erfolg von ei­nem rie­si­gen Misserfolg be­glei­tet. Diese er­folg­rei­che Programme ar­bei­ten mit der Hammermethode. Dies be­deu­tet, kei­ne Heuristiken mehr, kei­ne Strategien mehr, kein „Verstehen“, son­dern nur pu­res Bewerten mög­lichst vie­ler Spielzüge im vor­aus. Vielleicht so­gar mit Hilfe ei­ner gro­ßen Datenbank, wel­che schon mit Erfahrungswerten der Menschheit ge­füllt ist. Ob solch ei­ne Maschine den Turing-Test be­steht, ist frag­wür­dig.

Kritische Argumente

Unser Gehirn

Es scheint, daß sich die Menschheit schon im­mer ger­ne im Spiegel sei­ner ak­tu­el­len Technik ge­se­hen hat (tech­no­mor­phe Anthropologie). In der Antike sah Thales den Körper als ei­ne Art hy­drau­li­sches System. Im 17. Jahrhundert stell­te Descartes die Nerven als Röhrchen dar, in de­nen Fäden lau­fen, die im Kopf die ent­spre­chen­den Ventile be­tä­ti­gen, wel­che die Gliedmaßen be­we­gen las­sen.

Zu den Zeiten Turings war die Ansicht ver­brei­tet, daß un­ser Gehirn ei­ne Art elek­tri­scher Speicher, be­stehend aus ei­nem Netz von Synapsen, sei und wie ei­ne elek­tri­sche Maschine funk­tio­niert. Doch in der Forschung wur­de man im­mer un­schlüs­si­ger, wie un­ser Gehirn funk­tio­niert, weil sich im­mer mehr Rätsel auf­ta­ten. Unser Gedächtnis ist an­schei­nend viel kom­pli­zier­ter, als an­ge­nom­men. Man weiß heu­te, daß auch che­mi­sche Bestandteile hier ei­ne be­deu­ten­de Rolle spie­len.

Der theologische Einwand

Turing hält nichts von Gott. Für ihn sind die Fehler, die ein Mensch macht, und wenn sie auch „im Namen Gottes“ ge­sche­hen, schon Beweis ge­nug, das die Theologie Schwachsinn ist. Er nimmt nun als Beispiel den Psalm 104,3. In die­sem Psalm wird Gott der Schöpfer der Erde ge­lobt, und zwar von ei­nem Menschen, der Gott er­kannt hat. Dies be­deu­tet aber nicht au­to­ma­tisch, daß die­ser Mensch gleich über al­le Gesetzmäßigkeiten die­ser Welt in­for­miert ist. Wenn er nun ei­nen Psalm für sei­nen Gott (und der Menschheit) auf­schreibt, und des­sen Herrlichkeit lobt, dann nimmt er Vergleiche, die er kennt. Und für ihn war nun ein­mal die Erde noch nicht rund und frei schwe­bend. Wenn nun ei­ni­ge Menschen ein­zel­ne Sätze aus der Bibel zi­tie­ren, aber den ech­ten Hintergrund nicht ken­nen, kann man zu sol­che Fehlschlüsse, wie im Mittelalter, kom­men. Es ist durch­aus mög­lich, daß ein Mensch mehr als sein Körper, sei­ne Triebe und sein lo­gi­sches Gehirn be­sitzt. Vielleicht kön­nen wir es sel­ber nur nicht oh­ne Hilfe von au­ßen bzw. oben er­ken­nen.

Ist Denken und Simulation dasselbe?

Turing geht den Schritt, daß er die Definitionen vom „Geist“ und vom „Denken“ nicht dar­le­gen will, son­dern da­für ein Imitationsspiel ein­führt, bei dem ei­ne Maschine ei­nen Menschen si­mu­lie­ren soll. Müßte Turing aber nicht ge­nau die­se Begriffe zu­erst de­fi­nie­ren, um die Äquivalenz zwi­schen den bei­den Gegebenheiten zu be­wei­sen?! Bei dem Imitationsspiel ist die Aussage des mensch­li­chen Spielers zwei­fel­los ein Produkt sei­ner Intelligenz. Auch die Aussage der Maschine kommt durch ei­ne in­tel­li­gen­te Beteiligung zu­stan­de. Doch kann man nicht ein­fach be­haup­ten, ob dies die Eigenschaft des Programmes ist, oder ob nicht ein in­tel­li­gen­ter Programmierer der Grund für solch ein (si­mu­lier­tes) Ergebnis ist.

John Searle hat ei­nen be­deut­sa­men Einwand ge­gen den Test von Turing: Das chi­ne­si­sche Zimmer. Dieses be­sagt fol­gen­des: Angenommen der Algorithmus für Turings Maschine sei auf chi­ne­sisch ver­faßt, und ein deutsch spre­chen­der Mensch sitzt in ei­nem ab­ge­schlos­se­nen Raum mit ei­nem Briefkasten. Durch die­sen Briefkasten kom­men nun die chi­ne­si­schen Befehle, die der Mensch nicht ver­steht. Aber an­hand ei­nes Beschreibungsbuches weiß er, wel­che Tasten (z.B. ei­ner Schreibmaschine) er drü­cken muß. Solch ei­ne Maschine könn­te Turings Kriterium in sei­nem Imitationsspiel er­fül­len, aber sel­ber über­haupt nicht ver­ste­hen, was sein Fragesteller ihm in den Briefkasten wirft. Also kann man hier nicht be­haup­ten, daß die­se Maschine den­ken kann, wenn man Denken mit Verstehen de­fi­niert. Die Definition ist hier al­so wich­tig.

Der mathematische Einwand

Der oben ge­zeig­te ma­the­ma­ti­sche Einwand zeigt, daß der Turing-Test und die zen­tra­le Frage nicht äqui­va­lent ist. Es be­deu­tet kei­nes­falls, daß ei­ne Maschine, die auf ei­ne Frage kei­ne Antwort hat, al­so Ratlos ist, nicht den­ken kann. Sonst könn­ten wir dies bei ei­nem Menschen ge­nau­so be­haup­ten. Aber den­noch zeigt die­ser Einwand Grenzen in Turings Theorie. Es kann nicht aus­ge­schlos­sen wer­den, daß es nicht ei­ne Universalfrage gibt, in der al­le Maschine ver­sa­gen, egal wie ver­schie­den sie sind und ih­re Lücken ge­gen­sei­tig ab­de­cken. Falls es solch ei­ne Frage gibt, dann ist der Turing-Test wert­los.

Kann man das mensch­li­che Denken voll­stän­dig in Algorithmen ver­fas­sen? Besteht nicht die Möglichkeit, daß ge­ra­de die Zahlen, die man nicht be­rech­nen kann, ei­ne we­sent­li­che Rolle in un­se­rem Denken spie­len. Ist dies der Fall, dann sieht es schlecht aus mit dem Digitalrechner. Kann es nicht sein, daß un­se­re Umgebung Elemente ent­hält, die über­haupt nicht ma­the­ma­tisch be­schrie­ben wer­den kön­nen? Dann könn­te man ei­ner Maschine nie das fun­da­men­ta­le Wissen bei­brin­gen, das ein Mensch hat.

Haben Emotionen keine Bedeutung?

Früher hat­te man ge­dacht, daß Emotionen und das Denken zwei völ­lig ge­trenn­te Gebiete wa­ren. Doch in­zwi­schen weiß man, daß das Bewusstsein wahr­schein­lich ei­nem emo­tio­na­len Rahmen un­ter­liegt (Ronald de Souza „The Rationality of Emotions“). Wenn dies der Fall ist, dann muß man erst ein­mal klä­ren, ob und wie man Emotionen si­mu­lie­ren kann. Dann ent­steht aber ei­ne neue Frage: „kann man ma­schi­nel­le Gefühle mit mensch­li­chen Gefühlen ver­glei­chen?“. Wenn es um das Denken geht, dann kann man sinn­vol­ler­wei­se an­neh­men, das der Mitmensch auch den­ken kann. Doch man muß dar­auf ach­ten, daß die Emotionen, die ein Mensch zeigt, nicht un­be­dingt die glei­chen sind, die die­ser Mensch auch wirk­lich fühlt.

Das Bewusstseinsargument

Es ist nicht si­cher, daß ei­ne Maschine, die das Imitationsspiel be­steht, auch gleich des­we­gen ein Bewusstsein be­sitzt. Ist Denken ei­gent­lich not­wen­di­ger­wei­se mit Bewusstsein ver­bun­den? Können wir über­haupt er­ken­nen, ob wir ein Bewusstsein ha­ben, wenn wir über das Denken nach­den­ken, oder er­ken­nen wir nur, daß wir den­ken? Ich fin­de hier ent­steht ei­ne un­über­wind­li­che Grenze, wenn man über das Bewusstsein dis­ku­tie­ren will.

Kann der Turing-Test überhaupt „künstliche Intelligenz“ einschätzen?

Unser be­wuß­tes Denken, Handeln, Planen und Empfinden wird im wei­te­ren Sinne stark von un­se­rer Körperlichkeit ge­prägt. Dabei ist nicht nur an den Stoffwechsel zu den­ken, son­dern auch an die Selbstbestätigung. Die Körperlosigkeit ist kein Problem, daß man ein­fach so iso­lie­ren kann, denn die meis­ten Gespräche be­zie­hen sich ir­gend­wie im­mer auf un­se­ren Körper. Man den­ke ein­fach ein­mal an die Psychoanalyse. Turing will solch ei­ner Maschine tech­ni­sche Triebe ver­pas­sen, da­mit sie dem Menschen gleich kommt. Dies wür­de aber be­deu­ten, daß man al­le mensch­li­chen Triebe pro­gram­mie­ren müß­te, al­so ei­ne voll­stän­di­ge Simulation der Körperlichkeit not­wen­dig wä­re, da­mit die Maschine das Imitationsspiel be­stehen kön­ne. Solch ei­ne Simulation wür­de ei­gent­lich nur für den Turing-Test im­ple­men­tiert wer­den und ei­ner Maschine prak­tisch gar nichts brin­gen. Warum soll­te man ei­ner Maschine kei­ne sinn­vol­len Triebe ge­ben? Ein sol­ches Programm wür­de im Turing-Test aber so­fort auf­fal­len, weil die Triebe ei­nes Rechners an­de­re sein müs­sen, als die ei­nes Menschen. (Triebe sind z.B. für die Erhaltung der Rasse sinn­voll. Der Mensch ar­bei­tet, um Essen kau­fen zu kön­nen. Die Maschine könn­te so pro­gram­miert wer­den, daß sie durch ih­ren „Trieb“ ver­sucht zu ver­hin­dern, daß sie aus­ge­schal­tet wird.)

Wie wir hier se­hen, ist die mensch­li­che Intelligenz sehr uni­ver­sal. Eines Tages kön­nen durch­aus „in­tel­li­gen­te Roboter“ exis­tie­ren, die uns im täg­li­chen Leben wei­ter­hel­fen, oder uns viel­leicht an man­chen Stellen er­set­zen, aber des­we­gen hat die KI das Problem, wel­ches als „Leib-Seele-Problem“ be­kannt ist, noch lan­ge nicht ge­löst. Unser geis­ti­ges Befinden ist nicht von der Körperlichkeit zu tren­nen.

Schlusswort

Das Imitationsspiel ist ein sehr mäch­ti­ges Berechenbarkeitsmodell. Der Turing-Test soll­te als hin­rei­chen­der Beweis für die Intelligenz gel­ten, aber nicht als ein not­wen­di­ges Kriterium für Intelligenz. Dies soll be­deu­ten, daß es auch an­de­re Arten als mensch­li­che Intelligenz ge­ben kann bzw. darf. Es ist lei­der nur sehr schwer, solch ei­ne Intelligenz zu cha­rak­te­ri­sie­ren. Den Telepathie – Einwand schließt Turing nicht aus. Daran kann man er­ken­nen, das Turing of­fen ist ge­gen­über neu­en Kritiken.

Wenn es auch mög­lich ist, daß ei­nes Tages Roboter mit uns kom­mu­ni­zie­ren kön­nen, so bin ich doch fest der Meinung, daß die­se si­mu­lier­ten sta­tis­ti­sche Gedanken und Gefühle kei­nes­falls ei­ne Seele be­sit­zen und un­ser mensch­li­ches Verlangen nach Menschlichkeit nicht zu­frie­den­stel­len kön­nen. Eine sol­che Maschine kann nie vom Guten bzw. Schlechten, oder noch tie­fer be­trach­ten, von Gott oder sei­nem Gegenspieler, ge­lei­tet wer­den.

Referenzen

(nur ei­ne kur­ze Übersicht)
Künstliche Intelligenz – Philosophische Probleme – Reclam ISBN 3-15-008922-0
Alan Turing Home Page (lei­der nicht mehr vor­han­den)
Das Buch der Bücher: die Bibel

0

Schreibe einen Kommentar