Kann eine Maschine denken?

Der eng­li­sche Mathe­ma­ti­ker Alan M. Turing befaß­te sich mit den grund­le­gen­den Über­le­gun­gen zu Ent­wick­lung von elek­tro­ni­schen Rechen­ma­schi­nen. Er konn­te mit­tels der von ihm erdach­te ima­gi­nä­ren Turing­ma­schi­ne bewei­sen, daß mathe­ma­ti­sche Auf­ga­ben­stel­lun­gen auf ele­men­ta­re Algo­rith­men zurück­ge­führt wer­den kön­nen. Die­se 1936 erdach­te logi­sche Maschi­ne beschreibt heu­te noch die Arbeits­wei­se eines jeden Com­pu­ters.

Turing war der Mei­nung, daß “künst­li­che Intel­li­genz” mög­lich sei, daß sie die mensch­li­che Intel­li­genz irgend­wann ein­mal nach­ah­men oder sogar über­tref­fen kön­ne. Turing war ein abs­trak­ter Den­ker und Theo­re­ti­ker. Für ihn war klar, daß jede sinn­vol­le Form des Den­kens dem mathe­ma­ti­schen Den­ken unter­wor­fen war. Dies ist eine Stu­di­en­ar­beit aus dem Jah­re 1999, wel­che sich mit der Fra­ge­stel­lung beschäf­tigt, ob eine Maschi­ne den­ken kann.

Der Aufsatzes von Turing

In die­sem Kapi­tel will ich erst ein­mal dar­stel­len, wie Turing an das Pro­blem der den­ken­den Maschi­nen her­an­ging. Dafür gebe ich nun den Inhalt sei­nes Auf­sat­zes wie­der.

Das Imitationsspiel

Für die Fra­ge, ob Maschi­nen den­ken kön­nen, muß man sich erst ein­mal klar wer­den, was eigent­lich Den­ken bedeu­tet und was man unter einer Maschi­ne ver­ste­hen soll. Turing will die Defi­ni­ti­on von Maschi­ne und Den­ken aller­dings nicht mit dem all­ge­mei­nen Sprach­ge­brauch fest­le­gen, da dies sei­ner Mei­nung nach in einer Mei­nungs­um­fra­ge enden wür­de. Statt des­sen stellt Turing eine ähn­li­che Fra­ge, wel­che die Ant­wort auf die oben gestell­te Fra­ge geben soll. Er stellt sein Imi­ta­ti­ons­spiel vor. Hier­für benö­tigt er zunächst erst ein­mal drei Men­schen: einen Mann (A), eine Frau (B) und einen Fra­ge­stel­ler ©. Der Fra­ge­stel­ler sitzt in einem sepa­ra­ten Raum. Die Auf­ga­be des Fra­ge­stel­lers ist es zu unter­schei­den, wel­che der bei­den Per­so­nen der Mann und wel­che die Frau ist. Die Kom­mu­ni­ka­ti­on zwi­schen den Per­so­nen ver­läuft schrift­lich (maschi­nen­ge­schrie­ben), damit es auch eine wirk­li­che Denk­ent­schei­dung ist, sich also die Per­so­nen nicht sehen und hören.

Das Ziel der Per­son (A) ist es, den Fra­ge­stel­ler mög­lichst zur fal­schen Iden­ti­fi­zie­rung zu ver­an­las­sen. Turing nennt hier als Bei­spiel­ant­wort für (A): “Mein Haar ist kurz geschnit­ten, und die längs­ten Sträh­nen sind 23cm lang”. Das Ziel der Per­son (B) besteht dar­in, dem Fra­ge­stel­ler zu hel­fen. Eine mög­li­che Stra­te­gie liegt womög­lich dar­in, daß sie dem Spie­ler © wahr­heits­ge­treue Ant­wor­ten gibt, wel­che viel­leicht noch Hin­wei­se ent­hal­ten wie z.B.: “Ich bin eine Frau, hör nicht auf den ande­ren.” Sol­che Aus­sa­gen kön­nen natür­lich auch vom Spie­ler (A) kom­men.

Wir stel­len uns nun fol­gen­de Fra­gen: Was pas­siert, wenn wir den Spie­ler (A) mit einer Maschi­ne aus­tau­schen? Wird sich dann der Fra­ge­stel­ler genau­so häu­fig irren bzw. rich­tig ent­schei­den? Die­se Fra­gen stellt Turing an die Stel­le der obi­gen Fra­ge, ob Maschi­nen den­ken kön­nen.

Kritische Bemerkungen zum neuen Problem

Turing zeigt nun, daß sein Gedan­ken­spiel schar­fe Gren­zen zieht zwi­schen den phy­si­schen und den intel­lek­tu­el­len mensch­li­chen Fähig­kei­ten, und somit eine Unter­su­chung sei­ner neu­en Fra­ge durch­aus legi­tim ist.
Der Fra­ge­stel­ler kann nun nicht sehen, füh­len oder hören, ob er mit einem Men­schen oder einer Maschi­ne kom­mu­ni­ziert. (Ein Robo­ter mit men­schen­ähn­li­cher Haut wür­de ihn auch nicht unbe­dingt mensch­li­cher machen.) Der Fra­ge­stel­ler kann nun auch kei­ne prak­ti­sche Bewei­se for­dern, z.B.: “Sprin­ge !”.

Als kri­ti­sche Bemer­kung kann man fest­stel­len, daß der Com­pu­ter gegen­über dem Men­schen im Nach­teil ist. Ein Mensch kann kei­nen Com­pu­ter simu­lie­ren, da er zu lang­sam und teils auch zu unge­nau ist. Turing fragt hier nun, ob es nicht sein könn­te, daß Maschi­nen etwas aus­füh­ren, was wir als Den­ken bezeich­nen kön­nen, aber was sich von unse­rem Den­ken stark unter­schei­det. Die­se Fra­ge stellt er aller­dings nach hin­ten, solan­ge man davon aus­geht, daß man eine Maschi­ne kon­stru­ie­ren kann, die das Imi­ta­ti­ons­spiel gut bewäl­tigt, also Maschi­nen, die so ant­wor­ten kön­nen wie Men­schen.

Ein wei­te­rer Ein­wand wäre, daß für das Imi­ta­ti­ons­spiel eine ande­re Stra­te­gie erfolg­rei­cher wäre, als die des Nacha­mens mensch­li­chen Ver­hal­tens. Turing möch­te sich hier nicht mit der Theo­rie des Spie­les an sich aus­ein­an­der­set­zen und geht davon aus, daß der Ver­such sich so zu ver­hal­ten, wie ein Mensch es nor­ma­ler­wei­se tut, die bes­te Stra­te­gie für sein Spiel ist.

Die am Spiel beteiligten Maschinen

Als nächs­ten Schritt muß man sich erst ein­mal klar wer­den, was eine Maschi­ne in unse­rem Spiel über­haupt ist. Für das Imi­ta­ti­ons­spiel erlaubt Turing zuerst ein­mal alle maschi­nen­bau­tech­ni­sche Hilfs­mit­tel, um eine geeig­ne­te Maschi­ne her­stel­len zu kön­nen. Außer­dem läßt er zu, daß die Inge­nieu­re die Ope­ra­ti­ons­wei­se ihrer funk­tio­nie­ren­den Kon­struk­ti­on nicht zufrie­den­stel­lend beschrei­ben kön­nen, weil womög­lich expe­ri­men­tel­le Kon­struk­ti­ons­wei­sen benutzt wur­den. Men­schen, die auf übli­cher Wei­se zur Welt kamen, wer­den nicht als Maschi­nen bezeich­net.

Jetzt ent­steht ein Pro­blem. Man könn­te viel­leicht irgend­wann ein­mal einen Men­schen anhand einer ein­zel­nen Zel­le mit maschi­nen­bau­tech­ni­schen Mit­teln her­an­züch­ten. Da die­ser aber nicht als Maschi­ne ange­se­hen wer­den soll, muß man die oben genann­te Frei­heit doch ein­schrän­ken. Auch darf nicht eine Befruch­tung statt­fin­den. Turing hät­te ger­ne ein Inge­nieur­team aus einem Geschlecht…

Turing betrach­tet nun aus­schließ­lich Elek­tro­rech­nern bzw. Digi­tal­rech­nern, wenn es um die Fra­ge der den­ken­den Maschi­nen geht. Damit ist sein Auf­satz immer noch aktu­ell. Er zeigt, daß dies nicht unbe­dingt eine star­ke Ein­schrän­kung ist. Für ihn kann ein Digi­tal­rech­ner nicht den­ken, wenn er sich in sei­nem Imi­ta­ti­ons­spiel nicht bewäh­ren könn­te. Sei­ner Mei­nung nach ist dies aber doch mög­lich und man sol­le es ein­fach aus­pro­bie­ren. Für die Kon­struk­ti­on eines “den­ken­den” Rech­ners kann zum Bei­spiel eine Sta­tis­tik erstellt wer­den, die angibt, wie oft man den tech­ni­schen Spie­ler rich­tig iden­ti­fi­ziert hat. Dafür wird eine gro­ße Anzahl von Fra­gen benö­tigt. Nun könn­te einen Digi­tal­rech­ner bereit­ge­stellt wer­den, der alle Infor­ma­tio­nen die­ser Sta­tis­tik ent­hält. So ein Rech­ner könn­te sich im Imi­ta­ti­ons­spiel bewäh­ren.

Digitalrechner

Turing ver­gleicht in die­sem Kapi­tel den Men­schen mit dem Com­pu­ter der ein mathe­ma­ti­sches Modell dar­stellt und kei­nes­falls real ist. Somit hat sich Turing von kon­kre­ten Aus­sa­gen über sei­ne Rech­ner­struk­tur frei­ge­macht. Ein Rech­ner mit dis­kre­ten Zustän­den, also ein Digi­tal­rech­ner, löst sei­ne Auf­ga­ben nach fes­ten Regeln, des­we­gen kann er auch Auf­ga­ben eines Men­schen über­neh­men. Als nächs­tes nimmt Turing an, daß der Mensch sein Leben eben­falls nach fes­ten Regeln lebt. Der Mensch kann Papier und klei­ne­re Rech­ner sowie Regel­bü­cher ver­wen­den.

Ein Digi­tal­rech­ner besteht aus einem Spei­cher (1.), einer aus­füh­ren­den Ein­heit (2.) und aus einem Kon­troll­werk (3.). Im Ver­gleich mit dem Men­schen bedeu­te­ten die drei Kom­po­nen­ten fol­gen­des:

  1. Der Spei­cher ist ein Infor­ma­ti­ons­spei­cher und ent­spricht dem Papier des Men­schen. Dies kann das Rechen­pa­pier und das Regel­buch sein. Auch das Gedächt­nis des Men­schen soll hier zum Spei­cher zäh­len.
  2. Die aus­füh­ren­de Ein­heit führt anhand von Rechen­er­geb­nis­sen ver­schie­de­ne Ope­ra­tio­nen aus, die von Mensch zu Mensch bzw. von Maschi­ne zu Maschi­ne vari­ie­ren kön­nen.
  3. Das Kon­troll­werk ist dafür da, daß Befeh­le in rich­ti­ger Rei­hen­fol­ge aus­ge­führt wer­den. In einem Rech­ner wird dies durch Befehls­lis­ten (Pro­gramm­code) rea­li­siert. Der Mensch kann sich an Regel­bü­cher hal­ten, oder er hat sei­ne Regeln schon im Kopf (Spei­cher). Befeh­le wer­den nor­ma­ler­wei­se line­ar abge­ar­bei­tet, aber es besteht auch die Mög­lich­keit, beding­te und unbe­ding­te Sprün­ge in dem linea­ren Ablauf vor­zu­neh­men. Somit kön­nen Ent­schei­dun­gen und Schlei­fen rea­li­siert wer­den.

Als Bei­spiel eines sol­chen gere­gel­ten Ablau­fes nennt Turing fol­gen­des Bei­spiel:
“Wünscht die Mut­ter, daß Tho­mas jeden Mor­gen auf sei­nem Schul­weg beim Schus­ter nach­fragt, ob ihre Schu­he fer­tig sind, kann sie ihm dies jeden Mor­gen aufs neue sagen. Sie könn­te aber auch ein für alle­mal eine ent­spre­chen­de Notiz in den Flur hän­gen, die ihn beim Ver­las­sen des Hau­ses dar­an erin­nert, nach den Schu­hen zu fra­gen, und ihn auf­for­dern , die Notiz zu ver­nich­ten, wenn er die Schu­he bekom­men hat.”

Fazit: Wenn man eine Maschi­ne haben will, die den­ken kann, muß man sie nur rich­tig und voll­stän­dig pro­gram­mie­ren (Mensch hat sei­ne Regeln nor­ma­ler­wei­se im Kopf). Auch kann man sich Maschi­nen vor­stel­len, die einen unbe­grenz­ten Spei­cher haben (immer nur erwei­tern) und somit alle ande­re Zustands­ma­schi­nen simu­lie­ren kön­nen (uni­ver­sel­le Turing­ma­schi­ne). Ein inter­es­san­ter Gedan­ke wäre eine Maschi­ne mit einem zufäl­li­gen Ele­ment. Hat solch eine Maschi­ne einen frei­en Wil­len? Maschi­nen müs­sen nicht unbe­dingt elek­trisch sein. Das Ner­ven­sys­tem des Men­schen z.B. ist eine Kom­bi­na­ti­on aus che­mi­schen und elek­tri­schen Vor­gän­gen. Die Elek­tri­zi­tät wird hier nur wegen dem Geschwin­dig­keits­vor­teil gebraucht.

Universalität der Digitalrechner

Die Maschi­nen aus dem vor­he­ri­gen Kapi­tel gehö­ren zu den dis­kre­ten Maschi­nen. Dies bedeu­tet, daß sie theo­re­tisch ihre Zustän­de schlag­ar­tig ändern (Digi­tal­rech­ner: von 0 auf 1 bzw. von 0V auf +5V). Aus sol­chen Maschi­nen kann man Zustands­ma­schi­nen her­stel­len. Dies sind Maschi­nen, die anhand von Ein­ga­be­wer­ten und dem inne­ren Zustand (gespei­cher­te Wer­te) eine Aus­ga­be erzeu­gen und dabei womög­lich den inne­ren Zustand ändern. Laplace war sogar der Mei­nung, daß das gan­ze Uni­ver­sum eine Art Zustands­ma­schi­ne sei. Wenn hier also ein Atom ver­scho­ben wird, kann dies die Ursa­che sein, war­um ein Mensch ein Jahr spä­ter unter einer Lawi­ne stirbt. Anders als im Uni­ver­sum wis­sen wir, wel­che Ein­ga­ben in klei­nen Zustands­ma­schi­nen zu wel­chen Ergeb­nis­sen füh­ren. Wenn also ein Digi­tal­rech­ner schnell genug ist, könn­te man mit ihm jede Maschi­ne mit dis­kre­ten Zustän­den simu­lie­ren. In unse­rem Imi­ta­ti­ons­spiel wäre der nächs­te Schritt zuerst ein­mal eine Maschi­ne (A) und eine Maschi­ne (B), die (A) simu­liert. Der Fra­ge­stel­ler wäre nun nicht in der Lage, die bei­den Maschi­nen zu unter­schei­den. Natür­lich müß­te man die Maschi­ne (B) immer wie­der neu pro­gram­mie­ren, damit sie eine neue Maschi­ne (A) simu­lie­ren kann.

Ist es nun denk­bar, eine Maschi­ne zu kon­stru­ie­ren, die den Spie­ler (A) erset­zen kann, wobei der Spieler(B) ein Mensch ist, so daß der Fra­ge­stel­ler © die bei­den Mit­spie­ler nicht unter­schei­den kann?

Gegensätzliche Ansichten über die zentrale Frage

In den obi­gen Kapi­teln wur­de eine Sub­sti­tu­ti­on dar­ge­stellt, die nicht unbe­dingt von jedem ange­nom­men wird. Turing stellt nun zuerst sei­ne eige­ne Mei­nung dar: Für ihn war es damals vor­stell­bar, daß in ca. 50 Jah­ren (also unge­fähr heu­te) ein Rech­ner gebaut wird, der einen so gro­ßen Spei­cher (ca. 120MB) und eine aus­rei­chen­de Rechen­leis­tung besit­zen, daß die­ser Rech­ner mit rich­ti­ger Pro­gram­mie­rung in sei­nem Imi­ta­ti­ons­spiel gute Leis­tun­gen erbrin­gen kann, und zwar der­art, daß die Chan­cen eines durch­schnitt­li­chen Fra­ge­stel­lers nach fünf­mi­nü­ti­ger Fra­ge­zeit den rich­ti­gen Spie­ler zu iden­ti­fi­zie­ren, nicht höher als sie­ben zu zehn ste­hen. Für ihn ist plötz­lich die zen­tra­le Fra­ge: “Kön­nen Maschi­nen den­ken?” zu belang­los, als daß man ernst­haft dar­über dis­ku­tiert, obwohl sie am Anfang für Turing noch wich­tig war. Außer­dem ist ihm klar, daß am Ende des Jahr­hun­derts sich die Ansich­ten und der Sprach­ge­brauch dras­tisch geän­dert haben wer­den. Man kön­ne dann schon von den­ken­den Maschi­nen reden. Außer­dem gilt, daß Wis­sen­schaft­ler auch oft auf Grund von Ver­mu­tun­gen in eine bestimm­te Rich­tung for­schen und nicht nur von einer bewie­se­nen Tat­sa­che zur nächs­ten sprin­gen. Also kön­nen sol­che Ver­mu­tun­gen rich­tungs­wei­send für die For­schung sein.

Als nächs­tes wer­den gegen­sätz­li­che Ansich­ten betrach­tet, die sich auf die Fra­ge “Kön­nen Maschi­nen den­ken?” bezie­hen, aber für Turing anhand der Ver­mu­tung, man kön­ne Digi­tal­rech­ner bau­en, die sich in sei­nem Test bewäh­ren, jeg­li­chen Sinn ver­lie­ren:

Der theologische Einwand

Den­ken ist eine Funk­ti­on der unsterb­li­chen mensch­li­chen See­le. Gott gab Mann und Frau eine unsterb­li­che See­le, jedoch weder einem ande­ren Lebe­we­sen noch einer Maschi­ne. Inso­fern kann weder Tier noch Maschi­ne den­ken.”

Turing fragt sich hier, war­um die Theo­lo­gen nicht Mensch und Tier zusam­men neh­men und von Maschi­nen tren­nen. Dies gebe für ihn eher einen Sinn. Es zei­ge anschei­nend den will­kür­li­chen Cha­rak­ter der ortho­do­xen Ansich­ten. Wie ist es mit den Mos­lems, die behaup­ten, daß Frau­en kei­ne See­le haben?

Auch stellt er sich die Fra­ge, ob die All­macht Got­tes doch nicht so all­mäch­tig ist? Muß das Lebe­we­sen erst mutie­ren, also z.B. ein aus­rei­chend gro­ßes Gehirn bekom­men, damit Gott ihm eine See­le gibt? Dann könn­ten wir ja davon aus­ge­hen, daß Maschi­nen eines Tages auch eine See­le bekom­men. Wir könn­ten uns ja ohne Beden­ken der Macht Got­tes bedie­nen und Maschi­nen (bzw. wie heu­te Kin­der) erzeu­gen, die dann von Gott auto­ma­tisch eine See­le bekom­men.

All­ge­mein ist Turing nicht sehr ange­tan, wenn es um theo­lo­gi­sche Argu­men­te geht. Als Bei­spiel nimmt er Psalm 104,5 : “der du das Erden­reich gegrün­det hast auf sei­nen Boden, daß es bleibt immer und ewig.” Die­ser Psalm hat z.B. mit­ge­wirkt, daß die koper­ni­ka­ni­schen Theo­ri­en bekämpft wur­den. Heut­zu­ta­ge kann dies mit unse­rem Wis­sen nicht mehr gesche­hen.

Der Vogel-Strauß-Einwand

Die Kon­se­quen­zen, die sich aus den­ken­den Maschi­nen ergä­ben, wären zu schreck­lich. Wir wol­len hof­fen und glau­ben, daß sie nicht den­ken kön­nen.”

Die­se Aus­sa­ge beschäf­tigt vie­le, vor allem die­je­ni­gen, die mit der theo­lo­gi­schen Argu­men­ta­ti­on ange­freun­det sind. Man sol­le sich eher klar wer­den, daß der Mensch not­wen­di­ger­wei­se den­ken kann. Somit braucht man kei­ne Angst haben, daß man die Füh­rungs­rol­le ver­liert. Für Turing ist die­ses Argu­ment zu unwe­sent­lich, als daß es einer Wider­le­gung bedür­fe.

Der mathematische Einwand

Mit einer Rei­he von mathe­ma­ti­schen Logi­ken kann man bewei­sen, daß Maschi­nen mit dis­kre­ten Zustän­den in ihren Fähig­kei­ten beschränkt sind. Bekannt ist z.B. das Gödel­sche Theo­rem, wel­ches besagt, daß in jedem genü­gend reich­hal­ti­gen logi­schen Sys­tem Sät­ze for­mu­liert wer­den kön­nen, die in die­sem Sys­tem weder bewie­sen noch wider­legt wer­den kön­nen, es sei denn, das Sys­tem ist selbst inkon­sis­tent. Wenn man dies auf Maschi­nen bezieht, bedeu­tet dies, daß eine Maschi­ne, die auf einer sol­cher reich­hal­ti­gen Logik auf­ge­baut wäre, auf eine Fra­ge eine fal­sche oder gar kei­ne Ant­wort fin­det. Aber gilt dies nicht auch für einen Men­schen?

Es gibt Maschi­nen, die also auf eine Fra­ge kei­ne Ant­wort wis­sen, die ein Mensch aller­dings beant­wor­ten kann. Dies gibt uns das Gefühl der Über­le­gen­heit. Doch es gibt Maschi­nen, die gera­de auf die­se Fra­ge eine Ant­wort haben, und viel­leicht sogar auf Fra­gen, die ein Mensch nicht beant­wor­ten kann, dafür aber an ande­ren Fra­gen schei­tern. Ein Mensch kann also nicht einen Sieg über alle Maschi­nen errin­gen, da es, wie im ech­ten Leben, immer einen Men­schen gibt, der intel­li­gen­ter ist, bzw. eine Maschi­ne gibt, die intel­li­gen­ter ist als die ande­re.

Das Bewusstseinsargument

Erst wenn eine Maschi­ne dich­ten oder kom­po­nie­ren kann, und zwar aus Gedan­ken und Gefüh­len her­aus, d.h. nicht als Pro­dukt des Zufalls, könn­ten wir zuge­ben, daß zwi­schen Maschi­ne und Gehirn kein Unter­schied besteht. Dabei müß­te die Maschi­ne natür­lich nicht nur in der Lage sein, ein Gedicht oder ein Musik­stück zu schrei­ben, son­dern dann auch wis­sen, daß sie es geschrie­ben hat. Kein Mecha­nis­mus kann sich über sei­ne Erfol­ge freu­en (d.h. mehr als nur künst­li­che Freu­de zei­gen, was ein leich­ter Kunst­griff wäre), bei Defek­ten Kum­mer emp­fin­den, durch schö­ne Wor­te sich geschmei­chelt, durch Feh­ler sich nie­der­ge­schla­gen füh­len, vom ande­ren Geschlecht bezau­bert, wegen uner­füll­ter Wün­sche zor­nig oder trau­rig sein.”

Die ein­zi­ge Mög­lich­keit fest­zu­stel­len, ob eine Maschi­ne den­ken kann, bestün­de hier nur, sel­ber die Maschi­ne zu sein. Oder anders gese­hen: wir kön­nen eigent­lich gar nicht behaup­ten, daß ein ande­rer Mensch den­ken kann, obwohl wir wis­sen, daß wir den­ken kön­nen. Wir neh­men aber aus prak­ti­schen und höf­li­chen Grün­den an, daß jeder Mensch den­ken kann.

Es gibt tat­säch­lich in der Pra­xis Tests um her­aus­zu­be­kom­men, ob jemand etwas ver­stan­den hat. Die­se Tests (viva voce) sind ähn­lich dem Imi­ta­ti­ons­spiel, hier wird ein­fach der Spie­ler (B) weg­ge­las­sen. Wenn nun eine Maschi­ne, die dich­ten kann, befrie­di­gen­de Ant­wor­ten bezüg­lich des Sin­nes und des Hin­ter­grun­des sei­nes Gedich­tes geben könn­te, kann man dann nicht behaup­ten, daß die­se Maschi­ne eine Art Bewusst­sein hat? Turing ist nicht der Mei­nung, daß die­se Maschi­ne die Ant­wor­ten nur künst­lich signa­li­siert. Trotz­dem gibt es für Turing Geheim­nis­se um das Bewusst­sein: “Zum Bei­spiel tritt im Zusam­men­hang mit jedem Ver­such sei­ner Loka­li­sie­rung eine Art Para­do­xon auf.” Die Auf­klä­rung die­ses Geheim­nis­ses ist für ihn hier aber nicht not­wen­dig.

Argumente, die verschiedene Unfähigkeiten betreffen

Ich garan­tie­re Ihnen, Sie kön­nen Maschi­nen alles tun las­sen, was Sie erwähnt haben, es wird ihnen jedoch nicht gelin­gen, sie dahin zu brin­gen, X zu tun.”

Für X kann hier viel ste­hen, z.B.: Lie­be­voll, reich, schön, fröh­lich sein, freund­lich sein, Initia­ti­ve besit­zen, Feh­ler machen, Rich­ti­ges vom Fal­schen unter­schei­den, usw. Die­se Ansich­ten kom­men daher, weil wir nichts ande­res ken­nen. Wir sehen Maschi­nen, die häß­lich sind und nur für einen engen Auf­ga­ben­raum bestimmt sind, weil z.B. ihre Spei­cher­ka­pa­zi­tät beschränkt ist. Die­se Maschi­nen sind schnell hilf­los und ver­lo­ren, wenn man ihre Umge­bung ändert.

Frü­her konn­te / woll­te man sich nicht vor­stel­len, was Digi­tal­rech­ner ein­mal alles tun kön­nen, weil man sie noch nicht kon­stru­ie­ren konn­te, obwohl eini­ge schon erkannt hat­ten, was solch ein Rech­ner alles leis­ten kann. Die­se Eigen­schaft des Men­schen scheint kei­ne gute Grund­la­ge für eine wis­sen­schaft­li­che Dis­kus­si­on zu sein, andern­falls könn­te jeder zum Schluß kom­men (wie man­che eng­li­sche und ame­ri­ka­ni­sche Kin­der), daß jeder eng­lisch spricht und daß es sinn­los sei, deutsch zu ler­nen.

Eini­ge Ein­wän­de basie­ren auf der Schwie­rig­keit, die eine Maschi­ne hat, dem Men­schen gegen­über ähn­li­che freund­schaft­li­che Gefüh­le zu hegen, wie es sie zwi­schen den Ange­hö­ri­gen der wei­ßen oder der schwar­zen Ras­se gibt. Sie sind also eine Art Unter­men­ge eines grö­ße­ren Pro­blems und müs­sen nicht expli­zit ange­spro­chen wer­den.

Der Ein­wand “Maschi­nen kön­nen kei­ne Feh­ler machen” bedeu­tet nicht, daß eine Maschi­ne dadurch weni­ger wert ist. Wenn wir eine sol­che Maschi­ne in unse­rem Imi­ta­ti­ons­spiel ein­setz­ten und ihr vie­le Rechen­auf­ga­ben geben, dann kön­nen wir sie anhand ihrer Genau­ig­keit ent­lar­ven. Eine Maschi­ne für unser Spiel müß­te also so pro­gram­miert wer­den, daß sie auch Feh­ler machen kann und nicht jede Auf­ga­be rich­tig löst. Eine Maschi­ne kann z.B. auch einen “Funk­ti­ons­feh­ler” wie einen Strom­aus­fall haben. Die­se Art von Feh­ler wird ger­ne aus­ge­schlos­sen, wenn man davon aus­geht, daß der Ablauf nicht durch phy­si­ka­li­sche Gege­ben­hei­ten gestört wird. (Ein wei­te­rer Feh­ler, der ent­ste­hen kann, sind die “Fehl­schlüs­se” die nur dann ent­ste­hen kön­nen, wenn die Aus­ga­be einer Maschi­ne eine bestimm­te Bedeu­tung hat. Sie könn­te nach einer bestimm­ten Metho­de Schlüs­se auf­grund wis­sen­schaft­li­cher Induk­tio­nen zie­hen. Bei einer sol­chen Metho­de muß man mit Fehl­schlüs­sen rech­nen.)

Der Ein­wand, eine Maschi­ne kön­ne nicht Gegen­stand ihrer eige­nen Gedan­ken sein, läßt sich beant­wor­ten, wenn man zeigt, daß eine Maschi­ne sich irgend­wel­che Gedan­ken über irgend­wel­che Gegen­stän­de macht. Man kann z.B. die Fähig­keit eines selbst­mo­di­fi­zie­ren­den Codes betrach­ten, also wenn ein Pro­gramm sich sel­ber ändert, damit es eine Auf­ga­be bes­ser lösen kann. Ansät­ze in die­ser Rich­tung sind schon gege­ben und wer­den in Zukunft noch aus­ge­reif­ter sein. Hier kann man doch sagen, daß eine Maschi­ne über sich selbst im Kla­ren sein muß.

Der Ein­wand, daß eine Maschi­ne nur einen begren­zen Tätig­keits­be­reich hat, läßt sich auf den Man­gel an Spei­cher zurück füh­ren. Die­ses Pro­blem wird von Zeit zu Zeit gerin­ger. Wenn man nun die gan­zen Eigen­schaf­ten imple­men­tie­ren wür­de und die­se vor­stellt, wäre dies für vie­le immer noch nicht zufrie­den­stel­lend, weil die Eigen­schaf­ten in Wirk­lich­keit ziem­lich pri­mi­tiv sei­en.

Der Einwand der Lady Lovelace

Die Ana­ly­ti­sche Maschi­ne erhebt kei­nen Anspruch, irgend etwas zu erzeu­gen. Sie kann all das tun, wofür wir die ent­spre­chen­den Durch­füh­rungs­be­feh­le geben kön­nen.”

Kann eine sol­che Maschi­ne mit der Eigen­schaft erwei­tert wer­den, daß sie für sich sel­ber den­ken kann oder eine Art Reflex besitzt, der das Ler­nen akti­viert? Ob dies grund­sätz­lich mög­lich ist, ist eine span­nen­de Fra­ge. Zur Zeit sind sol­che Maschi­nen aber nicht vor­han­den. Die­se Art von Fra­gen wer­den wei­ter unten noch ein­mal dis­ku­tiert.

Ein ähn­li­che Ein­wand wäre z.B., daß eine Maschi­ne nie etwas wirk­lich neu­es her­vor­brin­gen kön­ne. Turing gibt hier eine ein­fa­che Ant­wort: “Es gibt nichts Neu­es unter der Son­ne.” Ist nicht alles, was wir tun, ein Resul­tat unse­rer geis­ti­gen Erzie­hung und nach­voll­zo­ge­ner Fak­ten?

Eine Maschi­ne kann uns nicht über­ra­schen.” Selbst­ver­ständ­lich kann eine Maschi­ne uns über­ra­schen. Dies liegt aber eigent­lich dar­an, daß wir nicht aus­rei­chend genug vor­be­rech­net haben, was die Maschi­ne aus­spuckt, oder daß wir in unse­rer Berech­nung oft leicht­sin­nig oder unwis­send sind. Wenn dann das Ergeb­nis von unse­ren Erwar­tun­gen abweicht, sind wir über­rascht.

Wenn man nun ein­wirft, daß die­se Über­ra­schung auf Grund des eige­nen Den­kens ent­steht und nicht Ver­dienst einer Maschi­ne ist, führt uns dies wie­der zum Bewusst­sein­sar­gu­ment und somit weit weg von der Über­ra­schung. Es wird immer ein Denk­vor­gang benö­tigt, um über­rascht zu wer­den. Turing meint, daß die Ansicht, Maschi­nen kön­nen kei­nen Anlass zu einer Über­ra­schung geben, ein Trug­schluss sei. Sie bestehe in der Mei­nung, daß eine mit­ge­teil­te Tat­sa­che sofort alle dar­aus ent­ste­hen­de Fol­gen dem Ver­stand mit­teilt. Dann wären ja alle Bemü­hun­gen, aus gege­be­nen Daten etwas zu Fol­gern, über­flüs­sig.

Das Argument der Stetigkeit innerhalb des Nervensystems

Das Ner­ven­sys­tem ist kei­ne Maschi­ne mit dis­kre­ten Zustän­den. Ein klei­ner Infor­ma­ti­ons­feh­ler bezüg­lich einer Impuls­stär­ke kann eine ganz ande­re Ant­wort­re­ak­ti­on her­vor­ru­fen. Solch ein ste­ti­ges Sys­tem kann nicht von einer dis­kre­ten Maschi­ne simu­liert wer­den.

Turing geht hier aber davon aus, daß die­se Eigen­schaft in sei­nem Imi­ta­ti­ons­spiel kei­nen Unter­schied macht. Als Bei­spiel nimmt er einen Dif­fe­ren­ti­al­ana­ly­sa­tor, den man nach dem Wert von Pi (ca. 3,1416) fragt. Die­ser wür­de dann aus den Zah­len 3,12; 3,13; 3,14; 3,15; 3,16 mit den Wahr­schein­lich­kei­ten 0,05; 0,15; 0,55; 0,19; 0,06 eine Zufalls­wahl tref­fen, also 3,14. Der Fra­ge­stel­ler könn­te nun kei­nen Unter­schied zwi­schen dis­kre­ter und ste­ti­ger Maschi­ne fest­stel­len. Ein wei­te­res Bei­spiel wäre eine CD, die Digi­ta­le Daten ent­hält, aber wir hören kei­nen Unter­schied zur Ori­gi­nal­mu­sik.

Das Argument von der Unmöglichkeit, Verhaltensregeln festzusetzen

Es wird einem schnell klar, daß es unmög­lich ist für jede Lebens­si­tua­ti­on eines Men­schen Regeln fest­zu­le­gen. Somit kön­nen wir kei­ne Maschi­nen sein.”

Für Turing gibt es einen Unter­schied zwi­schen Ver­hal­tens­re­geln und Ver­hal­tens­ge­setz­mä­ßig­kei­ten. Eine Ver­hal­tens­re­geln ist eine Vor­schrift wie z.B.: “Bei Rot ste­hen, bei Grün gehen.” Eine Ver­hal­tens­ge­setz­mä­ßig­keit ist eine Art Natur­ge­setz. Ein Bei­spiel hier­für wäre: “Wenn du ihn kneifst, dann schreit er.” Man muß zwi­schen den bei­den Begrif­fen unter­schei­den. Erset­zen wir nun “Ver­hal­tens­re­geln, nach denen er sein Leben gestal­tet”, durch “Ver­hal­tens­ge­set­ze, die sein Leben gestal­ten”, sehen wir, daß eigent­lich jeder Mensch bzw. jeder Typ von Maschi­ne ein­zig­ar­tig ist und durch sei­ne per­sön­li­che Art gelei­tet wird. Turing fol­gert nun aus “von Ver­hal­tens­ge­setz­mä­ßig­kei­ten gelenkt sein”, zu “eine Art Maschi­ne zu sein” und umge­kehrt.

Es ist aber fast unmög­lich (und wenn, dann durch Sta­tis­tik), das Nicht­vor­han­den­sein voll­stän­di­ger Ver­hal­tens­ge­setz­mä­ßig­kei­ten zu bewei­sen. Man kann eigent­lich nur durch wis­sen­schaft­li­che Beob­ach­tun­gen sol­che Gesetz­mä­ßig­kei­ten fest­stel­len, und es kann heu­te (und viel­leicht in Zukunft) noch nicht gesagt wer­den: “wir haben genü­gend nach­ge­forscht, es gibt kei­ne der­ar­ti­gen Gesetz­mä­ßig­kei­ten”. Anders sieht es mit den Ver­hal­tens­re­geln aus. Hier fin­den wir schnell her­aus, daß sie nicht voll­stän­dig sind. Solan­ge man also nicht aus­schlie­ßen kann, daß auch ein Mensch unter sol­chen Gesetz­mä­ßig­kei­ten steht, kann man dar­aus kein Argu­ment für das Schei­tern den­ken­der Maschi­nen gewin­nen.

Das Argument von der außersinnlichen Wahrnehmung

Unter außer­sinn­li­chen Wahr­neh­mun­gen ver­ste­hen wir die Tele­pa­thie, Hell­se­hen, Pro­phe­tie und Psy­cho­ki­ne­se. Die sta­tis­ti­schen Bewei­se für Tele­pa­thie sind über­wäl­ti­gend. Die­se auf­tre­ten­de Phä­no­me­ne schei­nen allen übli­chen wis­sen­schaft­li­chen Vor­stel­lun­gen zu wider­spre­chen. Sie könn­ten aber wich­ti­ger Fak­to­ren für das Den­ken sein.

Wie sieht das nun in unse­rem Imi­ta­ti­ons­spiel aus? Ein Spie­ler mit tele­pa­thi­sche Kräf­te könn­te eine Far­be, wel­cher der Fra­ge­stel­ler in sei­ner Hand hält bes­ser erra­ten, als ein Com­pu­ter mit Zufalls­zah­len. Eine Iden­ti­fi­ka­ti­on der bei­den Spie­ler ist somit leicht gege­ben. Mit außer­sinn­li­chen Kräf­ten ist alles mög­lich. Turing will sei­nen Test nun ein­schrän­ken. Er setzt die Spie­ler in “telepathie-undurchlässige” Räu­me. Da Turing “über kei­ne sehr über­zeu­gen­den Argu­men­te” ver­fügt, wie er selbst zugibt, nimmt die Dis­kus­si­on über mög­li­che Beden­ken einen gro­ßen Teil in sei­nem Auf­satz ein. Doch man bekommt das Gefühl, daß es Turing sich zu leicht mit sei­ner Gegen­ar­gu­men­ta­ti­on mach­te. Drei Argu­men­te sind für ihn für eine wis­sen­schaft­li­che Behand­lung der Fra­ge­stel­lung irrele­vant. Bei dem Argu­ment der “außer­sinn­li­chen Wahr­neh­mung” stellt er sei­ne Spie­ler ein­fach in einen “telepathie-undurchlässigen” Raum.

Lernende Maschinen

Wir sehen uns noch ein­mal Lady Love­la­ces Ein­wand an: Maschi­nen tun nur das, was man ihnen befiehlt. Wie wäre es mit fol­gen­der Ansicht: Der Mensch gibt der Maschi­ne eine Idee, die dann dar­auf­hin eine Ant­wort aus­gibt und dann schweigt. Oder ein wei­te­rer Ver­gleich: Wir haben ein Atom­kraft­werk unter­halb der kri­ti­schen Grö­ße. Ein Neu­tron, daß von außen hin­ein­ge­ge­ben wird, soll unse­re Idee sein. Die­ses Neu­tron wird im Reak­tor eine gewis­se Stö­rung her­vor­ru­fen, die dann aber wie­der abklingt. Hat der Reak­tor die kri­ti­sche Grö­ße erreicht, dann wür­de er aber zer­stört wer­den.

Gilt die­ser Ver­gleich auch für den Mensch­li­chen Ver­stand? Turing behaup­tet, daß dem so sei. Der Ver­stand der meis­ten Men­schen sei unter­halb der kri­ti­schen Grö­ße. Als Ant­wort bekommt man nur wie­der eine Idee. Es gibt aber auch Men­schen, die mit einem kri­ti­schen Reak­tor ver­gli­chen wer­den kön­nen. Die­se stel­len gleich eine gan­ze Theo­rie auf mit wei­te­ren Ide­en, die sie aus der gege­be­nen Idee her­lei­ten. Läßt sich solch eine kri­ti­sche Maschi­ne kon­stru­ie­ren?

Hier sieht man, daß dies eine gro­ße Auf­ga­be der Pro­gram­mie­rer wird. Denn unser Gehirn hat eine Grö­ße im Bereich von 1010 bis 1015 Bits. Die Pro­gram­mie­rung eines sol­chen Spei­chers benö­tigt viel Zeit und ist eigent­lich unmög­lich. Turing stellt hier nun eine neue Lösung für das Pro­blem da:

Man kann sich nun erst ein­mal klar wer­den, wie ein erwach­se­ner Mensch zu sei­nem Ver­stand kommt:

  1. nach sei­ner Geburt ist das Gehirn im Anfangs­zu­stand
  2. dann bekommt er eine Erzie­hung
  3. neben­bei macht er noch Erfah­run­gen, die nicht Bestand­teil sei­ner Erzie­hung sind.

Somit kön­nen wir das gege­be­ne Pro­blem in zwei Teil­pro­ble­me zer­le­gen. Wir schrei­ben ein Kind-Programm, und erzie­hen es dann. Natür­lich muß man daß rich­ti­ge Kind-Programm fin­den. Dabei kön­nen wir uns bekann­te Zusam­men­hän­ge fest­stel­len:

Struk­tur des Kind-Programms = Erb­gut
Ver­än­de­rung des Kind-Programms = Muta­ti­on
Natür­li­che Aus­wahl = Welt­ur­teil des Expe­ri­men­ta­tors

Vor­teil in unse­rem Expe­ri­ment: der Expe­ri­men­ta­tor kann durch sei­ne Intel­li­genz die Aus­wahl und Muta­ti­on beschleu­ni­gen. Der Lern­pro­zess einer Kind-Maschine unter­schei­det sich stark von dem Lern­pro­zess eines ech­ten Kin­des. Die Maschi­ne hat kei­ne Glied­ma­ße, sie kann nicht zur Schu­le gehen und es fehlt ihr die Kom­mu­ni­ka­ti­on zwi­schen den Mit­schü­lern, die sie ärgern, und dem Leh­rer. Für den Lern­pro­zess muß man beach­ten, daß man die Mög­lich­keit hat, einer Maschi­ne “emo­tio­nal” und “nicht emo­tio­nal” etwas bei­zu­brin­gen. Ein “emo­tio­na­ler” Weg wäre z.B. die Maschi­ne zu “bestra­fen”, indem man ihr sagt, daß das gefun­de­ne Ergeb­nis falsch sei. Umge­kehrt wür­de ein “Ja” eine Art Beloh­nung sein und die Wahr­schein­lich­keit einer Gege­ben­heit dann höher bewer­ten. Die Maschi­ne wür­de sich aber nicht “freu­en”, wenn ich sie erst hun­dert mal bestra­fe, bis sie end­lich die rich­ti­ge Lösung erra­ten hat. Dies dau­ert ein­fach zu lan­ge. Des­we­gen benö­tigt man noch den “nicht emo­tio­na­len” Weg, auf dem ich einer Maschi­ne direkt Fak­ten über­lie­fern kann.

Es gibt ver­schie­de­ne Mei­nun­gen, wie man eine Kind-Maschine kon­stru­ie­ren kann. Ent­we­der so ein­fach wie mög­lich im Ein­klang aller Prin­zi­pi­en oder als ein voll­stän­di­ges Sys­tem, in dem logi­sche Schluss­wei­sen ein­ge­baut sind (Defi­ni­tio­nen, Sät­ze, usw.). Aber eins ist sicher, eine Maschi­ne soll­te so pro­gram­miert wer­den, daß jeder wohl­be­grün­de­ter Befehl auto­ma­tisch eine Akti­on nach sich zieht. Ein Bei­spiel: die Maschi­ne weiß: “was der Leh­rer sagt, ist rich­tig” und hört vom Leh­rer: “mach dei­ne Haus­auf­ga­ben”, dann soll­te sie anfan­gen, ihre Haus­auf­ga­ben zu bear­bei­ten.

All­ge­mein gilt, daß die Befeh­le für eine Maschi­ne aus­führ­bar blei­ben, da sie z.B. nor­ma­ler­wei­se kei­ne Glied­ma­ßen hat. Wich­tig sind auch Befeh­le, die eine Rei­hen­fol­ge fest­le­gen, denn in einem logi­schen Sys­tem kann es auf einer Ent­schei­dungs­stu­fe eine Viel­zahl von alter­na­ti­ven Ent­schei­dun­gen geben. Bei­spiel: “Erweist sich eine Metho­de schnel­ler, als die ande­re, dann neh­me die schnel­le­re.” Befeh­le kön­nen von außen oder von der Maschi­ne sel­ber kom­men.

Eine Den­ken­de Maschi­ne muß sei­ne eige­nen Regeln, die voll­stän­dig beschrei­ben, wie eine Maschi­ne reagiert, ändern kön­nen. Wich­tig ist, das die­se Regeln unab­hän­gig von der Ver­gan­gen­heit der Maschi­ne und unab­hän­gig von ihrer mög­li­chen Zustands­än­de­run­gen sind. Die Regeln, die beim Ler­nen geän­dert wer­den kön­nen, sol­len anspruchs­los und nur vor­über­ge­hend gül­tig sein. Es wer­den also nicht die grund­le­gen­den Ver­hal­tens­ge­setz­mä­ßig­kei­ten ver­än­dert.

Ein wei­te­res Kenn­zei­chen einer ler­nen­den Maschi­ne ist, daß der Leh­rer eigent­lich gar nicht rich­tig weiß, was für ein inne­rer Zustand die Maschi­ne genau hat. Dies steht offen­sicht­lich im Wider­spruch zu der Mei­nung, daß wir wie bei gewöhn­li­chen Maschi­nen den inne­ren Zustand ken­nen und nach­voll­zie­hen kön­nen. Tut nun eine Maschi­ne nur das, was man ihr befiehlt? Hier anschei­nend nicht mehr. Dadurch, daß eine Maschi­ne ler­nen kann, wird ihr Ergeb­nis immer etwas von der Erwar­tung des Fra­ge­stel­lers abwei­chen. Denn Lern­pro­zes­se zei­gen nicht mit hun­dert­pro­zen­ti­ger Sicher­heit das rich­ti­ge Ergeb­nis an, sonst wäre ein Ver­ler­nen ja nicht mög­lich. Mit die­ser Eigen­schaft erlangt man doch eine Art “mensch­li­che Fehl­bar­keit”. Intel­li­gen­tes Ver­hal­ten einer Maschi­ne besteht ver­mut­lich nun in der rich­ti­gen Aus­wahl der Befehls­rei­hen­fol­ge und in der Abwei­chung vom völ­lig dis­zi­pli­nier­ten Ver­hal­ten, wel­ches jedoch so gering ist, daß es nicht als Zufalls­er­geb­nis ange­se­hen wer­den kann oder in einer sinn­lo­sen Schlei­fe endet.

Ein zufäl­li­ges Ele­ment in einer Maschi­ne kann die Sache noch inter­es­san­ter machen. In man­chen Such­al­go­rith­men ist eine zufäl­li­ge Suche nütz­li­cher als die Sequen­ti­el­le, da man sich nicht mer­ken muß, wel­che Ele­men­te schon getes­tet wur­den. Im Evo­lu­ti­ons­pro­zess wur­den ja anschei­nend auch zufäl­li­ge Ele­men­te bei der Wahl der Gen­kom­bi­na­tio­nen benutzt.

Turing hofft, daß Maschi­nen viel­leicht ein­mal auf allen rein intel­lek­tu­el­len Gebie­ten mit dem Men­schen kon­kur­rie­ren. Aber mit wel­chem Gebiet soll­te man sich zuerst beschäf­ti­gen? Ist das Schach­spiel ein guter Start, oder soll­te man eine Maschi­ne mit Sin­nes­or­ga­ne aus­stat­ten und sie dann wie ein Kind erzie­hen? Eins ist sicher, wenn wir Klar­heit erlan­gen wol­len, dann gibt es auf die­sem Gebiet noch viel zu tun.

Die Zeit heute, 50 Jahre nach Turing

Die heu­ti­gen Rech­ner ver­fü­gen über eine viel mäch­ti­ge­re Hard­ware, als Turing es eigent­lich erwar­tet und vor­aus­ge­setzt hat­te. Doch kann man trotz­dem noch nicht behaup­ten, daß eine Maschi­ne rich­tig den­ken kann. Auch sind heu­te Pro­ble­me bekannt, an die Turing noch nicht gedacht hat­te. Zu erwäh­nen wäre da die Bild- und Sprach­er­ken­nung. Natür­lich gibt es dort schon eini­ge Fort­schrit­te (vor allem aktu­ell in der Sprach­er­ken­nung) trotz­dem ist immer noch ein gro­ßer Auf­wand an For­schung nötig, bis eine Maschi­ne für das Imi­ta­ti­ons­spiel mit geeig­ne­ter Tex­ter­ken­nung und dem ent­spre­chen­den Ver­ständ­nis erstellt wer­den kann.Joseph Wei­zen­baum hat­te in den 60er Jah­ren ein Pro­gramm geschrie­ben, daß einen Psy­cho­the­ra­peu­ten simu­lier­te und im gewis­sen Sin­ne damals den Turing-Test bestan­den hat­te. Er nann­te es ELIZA. Die­ses Pro­gramm hat­te eigent­lich nichts ande­res gemacht, als den Satz, den er bekom­men hat­te, in eine Fra­ge umzu­stel­len. Bei­spiel: “Mir geht es so schlecht! -> Erzäh­len Sie mir, war­um es ihnen so schlecht geht.” (Oder wenn man das Verb “gehen” mit “hören” und das Wort “schlecht” mit “gut” aus­tauscht, bekommt man einen Dia­log der Art: “Ich höre so gut -> Erzäh­len Sie mir, war­um sie so gut hören.”) Dadurch wird der Pati­ent zum Wei­ter­re­den ange­regt und das Pro­gramm kann somit die Not­wen­dig­keit einer Wis­sens­ba­sis umge­hen. In der eng­li­schen Spra­che ist die­se Satz­um­for­mung ein­fa­cher als im Deut­schen.

Das Schlim­me an die­sem Expe­ri­ment war nun aber, daß eini­ge Pati­en­ten wirk­lich glaub­ten, sie ver­trau­en sich einem ech­ten Psy­cho­the­ra­peu­ten an. Man dach­te also, ELIZA kön­ne den­ken und in eini­gen Jah­ren könn­te ein Com­pu­ter meh­re­re Pati­en­ten betreu­en. Das ELIZA nicht den­ken kann, ist uns aber klar. Das Pro­gramm hat nichts ver­stan­den, son­dern ledig­lich Satz­um­for­mun­gen vor­ge­nom­men! Bei die­sem Test hat­ten die Pati­en­ten zwar nicht die Auf­ga­be, her­aus­zu­fin­den, wer Mensch und wer Maschi­ne war, aber trotz­dem kann man behaup­ten, daß es sich hier um eine Art Turing-Test han­delt, weil die Pati­en­ten eben wirk­lich dach­ten, sie hät­ten es mit einem intel­li­gen­ten Gegen­über zu tun.

Die Künst­li­che Intel­li­genz muß­te inzwi­schen star­ke Ein­brü­che mit­er­le­ben. Zwar gibt es heut­zu­ta­ge Rech­ner, die so gut Schach spie­len, daß nur noch die Groß­meis­ter die­se Rech­ner besie­gen kön­nen. (Und selbst die haben es schwer: sie­he Deep Blue gegen Kas­parov). In ein paar Jah­ren sind die Rech­ner womög­lich zehn mal schnel­ler als die heu­ti­gen Rech­ner, dann wird es unmög­lich sein gegen die­se zu gewin­nen. Den­noch wird die­ser Erfolg von einem rie­si­gen Miss­er­folg beglei­tet. Die­se erfolg­rei­che Pro­gram­me arbei­ten mit der Ham­mer­me­tho­de. Dies bedeu­tet, kei­ne Heu­ris­ti­ken mehr, kei­ne Stra­te­gi­en mehr, kein “Ver­ste­hen”, son­dern nur pures Bewer­ten mög­lichst vie­ler Spiel­zü­ge im vor­aus. Viel­leicht sogar mit Hil­fe einer gro­ßen Daten­bank, wel­che schon mit Erfah­rungs­wer­ten der Mensch­heit gefüllt ist. Ob solch eine Maschi­ne den Turing-Test besteht, ist frag­wür­dig.

Kritische Argumente

Unser Gehirn

Es scheint, daß sich die Mensch­heit schon immer ger­ne im Spie­gel sei­ner aktu­el­len Tech­nik gese­hen hat (tech­no­mor­phe Anthro­po­lo­gie). In der Anti­ke sah Tha­les den Kör­per als eine Art hydrau­li­sches Sys­tem. Im 17. Jahr­hun­dert stell­te Des­car­tes die Ner­ven als Röhr­chen dar, in denen Fäden lau­fen, die im Kopf die ent­spre­chen­den Ven­ti­le betä­ti­gen, wel­che die Glied­ma­ßen bewe­gen las­sen.

Zu den Zei­ten Turings war die Ansicht ver­brei­tet, daß unser Gehirn eine Art elek­tri­scher Spei­cher, bestehend aus einem Netz von Syn­ap­sen, sei und wie eine elek­tri­sche Maschi­ne funk­tio­niert. Doch in der For­schung wur­de man immer unschlüs­si­ger, wie unser Gehirn funk­tio­niert, weil sich immer mehr Rät­sel auf­ta­ten. Unser Gedächt­nis ist anschei­nend viel kom­pli­zier­ter, als ange­nom­men. Man weiß heu­te, daß auch che­mi­sche Bestand­tei­le hier eine bedeu­ten­de Rol­le spie­len.

Der theologische Einwand

Turing hält nichts von Gott. Für ihn sind die Feh­ler, die ein Mensch macht, und wenn sie auch “im Namen Got­tes” gesche­hen, schon Beweis genug, das die Theo­lo­gie Schwach­sinn ist. Er nimmt nun als Bei­spiel den Psalm 104,3. In die­sem Psalm wird Gott der Schöp­fer der Erde gelobt, und zwar von einem Men­schen, der Gott erkannt hat. Dies bedeu­tet aber nicht auto­ma­tisch, daß die­ser Mensch gleich über alle Gesetz­mä­ßig­kei­ten die­ser Welt infor­miert ist. Wenn er nun einen Psalm für sei­nen Gott (und der Mensch­heit) auf­schreibt, und des­sen Herr­lich­keit lobt, dann nimmt er Ver­glei­che, die er kennt. Und für ihn war nun ein­mal die Erde noch nicht rund und frei schwe­bend. Wenn nun eini­ge Men­schen ein­zel­ne Sät­ze aus der Bibel zitie­ren, aber den ech­ten Hin­ter­grund nicht ken­nen, kann man zu sol­che Fehl­schlüs­se, wie im Mit­tel­al­ter, kom­men. Es ist durch­aus mög­lich, daß ein Mensch mehr als sein Kör­per, sei­ne Trie­be und sein logi­sches Gehirn besitzt. Viel­leicht kön­nen wir es sel­ber nur nicht ohne Hil­fe von außen bzw. oben erken­nen.

Ist Denken und Simulation dasselbe?

Turing geht den Schritt, daß er die Defi­ni­tio­nen vom “Geist” und vom “Den­ken” nicht dar­le­gen will, son­dern dafür ein Imi­ta­ti­ons­spiel ein­führt, bei dem eine Maschi­ne einen Men­schen simu­lie­ren soll. Müß­te Turing aber nicht genau die­se Begrif­fe zuerst defi­nie­ren, um die Äqui­va­lenz zwi­schen den bei­den Gege­ben­hei­ten zu bewei­sen?! Bei dem Imi­ta­ti­ons­spiel ist die Aus­sa­ge des mensch­li­chen Spie­lers zwei­fel­los ein Pro­dukt sei­ner Intel­li­genz. Auch die Aus­sa­ge der Maschi­ne kommt durch eine intel­li­gen­te Betei­li­gung zustan­de. Doch kann man nicht ein­fach behaup­ten, ob dies die Eigen­schaft des Pro­gram­mes ist, oder ob nicht ein intel­li­gen­ter Pro­gram­mie­rer der Grund für solch ein (simu­lier­tes) Ergeb­nis ist.

John Sear­le hat einen bedeut­sa­men Ein­wand gegen den Test von Turing: Das chi­ne­si­sche Zim­mer. Die­ses besagt fol­gen­des: Ange­nom­men der Algo­rith­mus für Turings Maschi­ne sei auf chi­ne­sisch ver­faßt, und ein deutsch spre­chen­der Mensch sitzt in einem abge­schlos­se­nen Raum mit einem Brief­kas­ten. Durch die­sen Brief­kas­ten kom­men nun die chi­ne­si­schen Befeh­le, die der Mensch nicht ver­steht. Aber anhand eines Beschrei­bungs­bu­ches weiß er, wel­che Tas­ten (z.B. einer Schreib­ma­schi­ne) er drü­cken muß. Solch eine Maschi­ne könn­te Turings Kri­te­ri­um in sei­nem Imi­ta­ti­ons­spiel erfül­len, aber sel­ber über­haupt nicht ver­ste­hen, was sein Fra­ge­stel­ler ihm in den Brief­kas­ten wirft. Also kann man hier nicht behaup­ten, daß die­se Maschi­ne den­ken kann, wenn man Den­ken mit Ver­ste­hen defi­niert. Die Defi­ni­ti­on ist hier also wich­tig.

Der mathematische Einwand

Der oben gezeig­te mathe­ma­ti­sche Ein­wand zeigt, daß der Turing-Test und die zen­tra­le Fra­ge nicht äqui­va­lent ist. Es bedeu­tet kei­nes­falls, daß eine Maschi­ne, die auf eine Fra­ge kei­ne Ant­wort hat, also Rat­los ist, nicht den­ken kann. Sonst könn­ten wir dies bei einem Men­schen genau­so behaup­ten. Aber den­noch zeigt die­ser Ein­wand Gren­zen in Turings Theo­rie. Es kann nicht aus­ge­schlos­sen wer­den, daß es nicht eine Uni­ver­sal­fra­ge gibt, in der alle Maschi­ne ver­sa­gen, egal wie ver­schie­den sie sind und ihre Lücken gegen­sei­tig abde­cken. Falls es solch eine Fra­ge gibt, dann ist der Turing-Test wert­los.

Kann man das mensch­li­che Den­ken voll­stän­dig in Algo­rith­men ver­fas­sen? Besteht nicht die Mög­lich­keit, daß gera­de die Zah­len, die man nicht berech­nen kann, eine wesent­li­che Rol­le in unse­rem Den­ken spie­len. Ist dies der Fall, dann sieht es schlecht aus mit dem Digi­tal­rech­ner. Kann es nicht sein, daß unse­re Umge­bung Ele­men­te ent­hält, die über­haupt nicht mathe­ma­tisch beschrie­ben wer­den kön­nen? Dann könn­te man einer Maschi­ne nie das fun­da­men­ta­le Wis­sen bei­brin­gen, das ein Mensch hat.

Haben Emotionen keine Bedeutung?

Frü­her hat­te man gedacht, daß Emo­tio­nen und das Den­ken zwei völ­lig getrenn­te Gebie­te waren. Doch inzwi­schen weiß man, daß das Bewusst­sein wahr­schein­lich einem emo­tio­na­len Rah­men unter­liegt (Ronald de Sou­za “The Ratio­na­li­ty of Emo­ti­ons”). Wenn dies der Fall ist, dann muß man erst ein­mal klä­ren, ob und wie man Emo­tio­nen simu­lie­ren kann. Dann ent­steht aber eine neue Fra­ge: “kann man maschi­nel­le Gefüh­le mit mensch­li­chen Gefüh­len ver­glei­chen?”. Wenn es um das Den­ken geht, dann kann man sinn­vol­ler­wei­se anneh­men, das der Mit­mensch auch den­ken kann. Doch man muß dar­auf ach­ten, daß die Emo­tio­nen, die ein Mensch zeigt, nicht unbe­dingt die glei­chen sind, die die­ser Mensch auch wirk­lich fühlt.

Das Bewusstseinsargument

Es ist nicht sicher, daß eine Maschi­ne, die das Imi­ta­ti­ons­spiel besteht, auch gleich des­we­gen ein Bewusst­sein besitzt. Ist Den­ken eigent­lich not­wen­di­ger­wei­se mit Bewusst­sein ver­bun­den? Kön­nen wir über­haupt erken­nen, ob wir ein Bewusst­sein haben, wenn wir über das Den­ken nach­den­ken, oder erken­nen wir nur, daß wir den­ken? Ich fin­de hier ent­steht eine unüber­wind­li­che Gren­ze, wenn man über das Bewusst­sein dis­ku­tie­ren will.

Kann der Turing-Test überhaupt “künstliche Intelligenz” einschätzen?

Unser bewuß­tes Den­ken, Han­deln, Pla­nen und Emp­fin­den wird im wei­te­ren Sin­ne stark von unse­rer Kör­per­lich­keit geprägt. Dabei ist nicht nur an den Stoff­wech­sel zu den­ken, son­dern auch an die Selbst­be­stä­ti­gung. Die Kör­per­lo­sig­keit ist kein Pro­blem, daß man ein­fach so iso­lie­ren kann, denn die meis­ten Gesprä­che bezie­hen sich irgend­wie immer auf unse­ren Kör­per. Man den­ke ein­fach ein­mal an die Psy­cho­ana­ly­se. Turing will solch einer Maschi­ne tech­ni­sche Trie­be ver­pas­sen, damit sie dem Men­schen gleich kommt. Dies wür­de aber bedeu­ten, daß man alle mensch­li­chen Trie­be pro­gram­mie­ren müß­te, also eine voll­stän­di­ge Simu­la­ti­on der Kör­per­lich­keit not­wen­dig wäre, damit die Maschi­ne das Imi­ta­ti­ons­spiel bestehen kön­ne. Solch eine Simu­la­ti­on wür­de eigent­lich nur für den Turing-Test imple­men­tiert wer­den und einer Maschi­ne prak­tisch gar nichts brin­gen. War­um soll­te man einer Maschi­ne kei­ne sinn­vol­len Trie­be geben? Ein sol­ches Pro­gramm wür­de im Turing-Test aber sofort auf­fal­len, weil die Trie­be eines Rech­ners ande­re sein müs­sen, als die eines Men­schen. (Trie­be sind z.B. für die Erhal­tung der Ras­se sinn­voll. Der Mensch arbei­tet, um Essen kau­fen zu kön­nen. Die Maschi­ne könn­te so pro­gram­miert wer­den, daß sie durch ihren “Trieb” ver­sucht zu ver­hin­dern, daß sie aus­ge­schal­tet wird.)

Wie wir hier sehen, ist die mensch­li­che Intel­li­genz sehr uni­ver­sal. Eines Tages kön­nen durch­aus “intel­li­gen­te Robo­ter” exis­tie­ren, die uns im täg­li­chen Leben wei­ter­hel­fen, oder uns viel­leicht an man­chen Stel­len erset­zen, aber des­we­gen hat die KI das Pro­blem, wel­ches als “Leib-Seele-Problem” bekannt ist, noch lan­ge nicht gelöst. Unser geis­ti­ges Befin­den ist nicht von der Kör­per­lich­keit zu tren­nen.

Schlusswort

Das Imi­ta­ti­ons­spiel ist ein sehr mäch­ti­ges Bere­chen­bar­keits­mo­dell. Der Turing-Test soll­te als hin­rei­chen­der Beweis für die Intel­li­genz gel­ten, aber nicht als ein not­wen­di­ges Kri­te­ri­um für Intel­li­genz. Dies soll bedeu­ten, daß es auch ande­re Arten als mensch­li­che Intel­li­genz geben kann bzw. darf. Es ist lei­der nur sehr schwer, solch eine Intel­li­genz zu cha­rak­te­ri­sie­ren. Den Tele­pa­thie — Ein­wand schließt Turing nicht aus. Dar­an kann man erken­nen, das Turing offen ist gegen­über neu­en Kri­ti­ken.

Wenn es auch mög­lich ist, daß eines Tages Robo­ter mit uns kom­mu­ni­zie­ren kön­nen, so bin ich doch fest der Mei­nung, daß die­se simu­lier­ten sta­tis­ti­sche Gedan­ken und Gefüh­le kei­nes­falls eine See­le besit­zen und unser mensch­li­ches Ver­lan­gen nach Mensch­lich­keit nicht zufrie­den­stel­len kön­nen. Eine sol­che Maschi­ne kann nie vom Guten bzw. Schlech­ten, oder noch tie­fer betrach­ten, von Gott oder sei­nem Gegen­spie­ler, gelei­tet wer­den.

Referenzen

(nur eine kur­ze Über­sicht)
Künst­li­che Intel­li­genz — Phi­lo­so­phi­sche Pro­ble­me — Reclam ISBN 3−15−008922−0
Alan Turing Home Page (lei­der nicht mehr vor­han­den)
Das Buch der Bücher: die Bibel

0

Schreibe einen Kommentar