Gastvortrag an der Universität Zürich

im Rahmen des Seminars:

Soziologische Aspekte der Computertechnologie

Kommunikatives Handeln Mensch-Computer

Zürich am 4. Juni 1992

Guten Tag meine Damen und Herren,

1990 hat hier in Zürich (pendo-Verlag) Michael Haller, ehemaliger Redakteur bei einer Schweizer Tageszeitung, das Buch

Sind Computer die besseren Menschen?

herausgegeben.

Er hat im wesentlichen ein in Frankfurt stattgefundenes Streitgespräch in diesem Buch aufgezeichnet.

Widersacher waren hier Joseph Weizenbaum, Professor am Massachusetts Institut of Technology (MIT) und als Kritiker der Computerisierungn bekannt, (Die Macht der Computer und die Ohnmacht der Vernunft) und

Klaus Haefner, der bekannteste deutsche Informatiker, Professor an der Universität Bremen, der die Informationstechnik für einen Segen der Menschheit hält und für eine "human" computerisierte Gesellschaft plädiert. (Denkzeuge 1989)

Ich möchte hieraus zwei Zitate vorlesen, die die gesamte Problematik der Mensch-Maschine-Beziehung und die unterschiedlichen Ansätze bei der Bewertung der neuen Informationstechnologien, den Computern aufzeigen.

Haefner:

"Es gibt keine übersinnlichen Ideen.

Praktisch alle menschlichen Tätigkeiten,

auch Dichtkunst und Komponieren,

folgen Regeln und Maßstäben,

die wir an den Computer abtreten können

und auch abtreten werden."

Weizenbaum entgegnet:

"Dies würde bedeuten,

daß der Mensch letztlich untergehen müßte

wie die Dinosaurier,

während das Computersystem den richtigen Weg weise.

Das ist ja eine grauenhafte arrogante Vision!

Menschen können etwas neues schöpfen.

Nicht aber der Computer."

Diesen beiden Aussagen, hinter denen sich sicherlich viel fachliche Kompetenz verbirgt, liegen äußerst unterschiedliche Bewertungskriterien der neuen Informationstechnik zugrunde.

So hat Klaus Haefner, - dessen Telefon-Anrufbeantworter übrigens sagt:

Hier spricht der persönliche Computer von Klaus Haefner ...

den Unterschied zwischen Mensch und Computer dadurch herauszufinden gesucht, daß er Gedichte, die mit einem Computer-Programm (Poetry-Programm) verfaßt wurden und Gedichte (Dichter wurden in der Literatur nicht genannt) von modernen Dichtern in einem Ratespiel von Radio Bremen vorgelesen hat. Es sollten die Zuhörer herausfinden, welche Gedichte vom Computer und welche von Menschen geschrieben worden waren.

Das Ergebnis: niemand war in der Lage, die Computergedichte von den anderen zu unterscheiden.

Hierin sah Haefner einen Beweis für die Gleichsetzung zwischen Mensch und Maschine.

Weizenbaum dagegen sieht doch gravierende Unterschiede, die zwar im ersten Augenblick nicht erkennbar sind, dennoch aber im sprachlichen Ausdruck einer Idee, einer Empfindung oder Erfahrung, also einer Sprachphantasie zu suchen sind. Der Dichter versucht die Grenzen der üblichen Sprache zu überschreiten.

Der Computer hat keine Idee, keine Empfindung oder Erfahrung, die er in Sprache kleiden kann. Nur durch einen Zufallsgenerator und der Programmierung grammatischer Regeln wurde hier Dichtung geschaffen.

Von der Gleichsetzung Mensch und Maschine kann also nach Weizenbaum keine Rede sein!

Auch andere Wissenschaftler haben den Versuch unternommen, die Grenzen zwischen Mensch und Maschine aufzuzeigen und stellen sich z.B. die Frage, ob eine Maschine ein Bewußtsein erlangen kann!

Die bekannteste Wissenschaftlerin scheint wohl Sherry Turkle - Professorin für Soziologie und Psychologie am MIT - zu sein, die auf den Erkenntnissen von Jan Piaget aufbauend, Kinder verschiedener Altersstufen befragt hat, die mit dem Computer umgehen.

Piaget fand schon in den zwanziger Jahren heraus, daß die Entwicklung des Kindes zwischen vier und zwölf Jahren vom Animismus geprägt sei, d. h. die Kinder geben allen Dingen eine Seele, sie halten sie für lebendig.

Bei kleineren Kindern ist der Animismus stärker ausgeprägt, mit zunehmendem Alter lösen allerdings gelernte biologische und physikalische Beobachtungen und Erkenntnisse die animisitschen Vorstellungen ab.

Piaget untergliedert die Phase des Animismus in vier Stadien:

Im ersten Stadium betrachten Kinder all das als lebendig, was irgend eine Aktivität aufweist oder irgendwie nützlich ist. (bis etwa 7 Jahre)

Im zweiten Stadium ist ist die Bewegung das Kriterium für Lebendigkeit. Es wird angenommen, daß diese Bewegung auf (Spontaneität) Intension zurückzuführen sei.

Im dritten Stadium unterscheidet das Kind zwischen eigener und erhaltener Bewegung. Das Leben wird hier als Eigenbewegung definiert.

Im vierten Stadium werden nur noch Pflanzen und Tiere, natürlich auch der Mensch als lebendig bezeichnet.

Bewegung scheint also das entscheidende Kriterium für Leben zu sein.

Sherry Turkle, wandte diese Erkenntnisse auf den Gegenstand Computer an. Mit dem Programm LOGO das von ihrem Ehemann Seymour Papert entwickelt wurde, ließ sie Kinder am Computer programmieren. Ein Igel (eigentlich TURTLE=Schildkröte) sollte über Befehle bestimmte Figuren durchlaufen. Turkle fand dabei heraus, daß bei Kindern Lebendigkeit in diesem Zusammenhang in sieben Kategorien gegliedert werden kann:

1. Kategorie der Bewegung (von Punkt A nach Punkt B)

2. Kategorie andere Handlungen (Der Kessel ist lebendig, er kocht)

3. Kategorie Realismus (Supermann ist nicht lebendig, er ist nicht wirklich)

4. Kategorie Moral (Spinnen sind nicht lebendig, man kann sie zertreten)

5. Kategorie Biologie (ES ist lebendig, es wächst)

6. Kategorie Psychologie (Wecker ist lebendig, er erinnert sich)

7. sonstige Antworten: (Computer sind nicht lebendig, sie sind programmiert)

Kurz zusammengefaßt ergaben diese Untersuchungen:

Je mehr Umgang Kinder mit computerisierten Spielzeugen hatten, desto differenzierter wird die psychologische Sprache über diese Objekte.

Sie diskutieren untereinander, ob die Computer auch wissen, wie schön ihre Bildschirmdarstellungen seien. Sie malten sich aus, was die Computer wohl in der Nacht machen.

Die Gespräche über den Computer thematisieren Empfindungen und Gefühle, sie befassen sich mit der Psychologie des Computers.

Turkle schrieb: "Die Kinder wissen, daß die Maschinen nicht im selben Sinne wie Menschen lebendig sind und doch denken und reden sie in einer Sprache über sie, die eigentlich nur für Lebenwesen angemessen ist" (Gergely 200)

Sind dies schon Beweise dafür, daß Maschinen, von denen gesagt wird, sie seien mit einer sogenannten künstlichen Intelligenz ausgestattet, mit Menschen vergleichbar, die denken können und die ein Bewußtsein haben?

Können Maschinen mit künstlicher Intelligenz denken und haben sie ein Bewußtsein?

Von einem pragmatischen und operationalen Standpunkt aus könnten wir die These vertreten:

Sofern der Computer nicht unterscheidbar von einer denkenden Person handelt, denkt er.

Beide Untersuchungen, Haefners durchgeführter Test im Radio Bremen und Turkles Beurteilungen der Computer durch Kinder, können danach auf die Idee des sogenannten Turing-Tests 1950, zurückgeführt werden. (Alan Turing 1912-1980)

Dieser Test war zur Beantwortung der Frage entwickelt worden, ob man von einer Maschine vernünftigerweise sagen kann, daß sie denkt, fühlt und ein Bewußtsein hat.

Wird dies von einem Computer behauptet, so muß sich dieser dem Test unterziehen.

Der Test läuft folgendermaßen ab:

Der Computer sowie ein (intelligenter) Mensch muß vor den Blicken eines Fragenstellers verdeckt sein. Die Fragen die dieser Fragesteller formuliert, werden unpersönlich an beide übermittelt, z.B. über eine Tastatur. Durch Testfragen muß nun der Fragensteller versuchen, festzustellen, welcher von beiden der Computer und welcher der Mensch sei.

Falls die fragende Person im Verlauf einer Testserie nicht eindeutig den echten Menschen identifizieren kann, gesteht man dem Computer, (oder dem Programm, dem Programmierer oder dem Konstrukteur usw. ) zu, den Test bestanden zu haben.

Falls dieser Test bestanden wurde, soll dies ein Beweis sein, daß der Computer nicht nur Wissen widergeben kann, sondern auch sein Wissen verstanden hat.

Rodger Penrose hat in seinem erst kürzlich erschienen Buch: "Computerdenken - Des Kaisers neue Kleider" ein Beispiel angeführt, an dem dieses Problem verdeutlicht werden kann:

"Ein Mann ging in ein Lokal und bestellte einen Hamburger. Als der Hamburger kam, war er total verbrannt, und der Mann stürmte wütend aus dem Lokal, ohne zu bezahlen und Trinkgeld zu geben"

"Ein Mann ging in ein Lokal und bestellte einen Hamburger. Als der Hamburger kam, war der Mann sehr zufrieden damit und als er das Lokal verließ, gab er der Kellnerin ein großes Trinkgeld, bevor er bezahlte."

Als Test, ob der Computer diese Geschichten "verstanden" habe, wird er gefragt, ob der Mann in beiden Fällen den Hamburger gegessen habe. Gibt der Computer im ersten Falle die Antwort "nein" und im zweiten Falle "ja " an, so hat er den Turing-Test bestanden.

Die Frage stellt sich natürlich, ob diese Art von Erfolg wirklich irgend ein echtes Verstehen auf seiten des Computers oder des Programmes anzeigt.

Der amerikanische Philosoph und Sprechakttheoretiker John Searle widerspricht einem echtem Verstehen der Computer und begründet dies am Beispiel des chinesischen Zimmers:

Er stellt vor, daß die beiden oben beschriebenen Geschichten nicht auf deutsch, sondern auf chinesisch erzählt werden. Dies mag noch keine wesentliche Veränderung der Situation sein. Außerdem sollen alle Operationen des Algorithmus, mit dem der Computer diese spezielle Übung ausführt, in Form von Regeln in Searls Muttersprache vorliegen, die angeben, wie man Kärtchen mit chinesischen Symbolen zu manipulieren hat. Searle malt sich nun aus, er führe alle Manipulationen selbst aus, und zwar in einem versperrtem Zimmer. Die Symbolfolgen, die die Geschichten und dann die Fragen, repräsentieren, steckt man ihm durch einen kleinen Schlitz ins Zimmer. Sonst werden keine anderen Informationen zugelassen. Wenn nun durch Searle nach den vorgegebenen Regeln alle Manipulationen ausgeführt sind, wird das Ergebnis, eine Symbolfolge, durch den Schlitz nach draußen geschoben.

Da bei unseren Geschichten alle Manipulationen nur nach dem Computer-Programm ausgeführt wurden, muß auch das Resultat, das chinesische Symbol "ja" oder "nein" sein. Es gibt jeweils die richtige Antwort auf die ursprünglich gestellte Frage zu einer in chinesisch gestellten Geschichte.

Searle legt dabei großen Wert darauf, daß er kein Wort chinesisch versteht, also nicht die geringste Ahnung hatte, um was es in der Geschichte ging. Dennoch war er nur durch korrektes Ausführen seiner Regeln in der Lage, die richtigen Antworten zu finden, wie ein Chinese, der die Geschichten verstanden hätte.

Searle zieht daraus den Schluß, daß das bloße Ausführen eines Algorithmus allein noch nicht bedeute, daß dabei irgend eine Art von Verstehen stattgefunden habe, und sich dadurch womöglich auch ein Bewußtsein gebildet hätte.

Kann aber ein Computer überhaupt ein Bewußtsein bilden?

Sicherlich mag das Bewußtsein einem Lebewesen bestimmte Selektionsvorteile verschaffen. Bei einem Raubtier etwa, das sich in die Situation der Beute versetzt und zu erraten versucht, wie die Beute im Falle der Gefahr reagiert.

Dieser Gedanke birkt allerdings auch in sich, daß die Beute sich in die Situation des Jägers versetzen kann.

Übertragen auf die Maschinen hieße dies, daß ein völlig unbewußter Raubtier-Automat als Teil seines Programmes ein Unterprogramm enthielt, das mit dem tatsächlichem Programm des Beute-Automaten identisch wäre.

Wir wollen nun nicht die Frage stellen, ob überhaupt bei einer Jäger-Beute-Beziehung überhaupt das Bewußtsein mitspielen muß, sondern die Frage stellen, worin überhaupt dere Unterschied zwischen einer "bewußten" und einer "programmierten" Handlung besteht?

Meist hört man den Standpunkt: "Ein System sei sich seiner Sache bewußt, wenn es in sich ein Modell seiner Sache habe,

und das System werde selbstbewußt, wenn es in sich ein Modell von sich selbst trage." (Penrose 400)

Ein Computerprogramm nun, das als Unterprogramm eine Beschreibung eines anderen Programmes hat, muß deshalb nicht das Bewußtsein des anderen haben. Ebensowenig hat ein Computer, der als Unterprogramm eine Kopie sein eigenes Programm gespeichert hat, ein Selbstbewußtsein. Ganz abgesehen davon, daß diese Kopie nie ganz vollständig wäre, da die vollständige Kopie einschließlich des Unterprogramms zum Unterprogramm gehört.

Folie x

Betrachten Sie nun bitte dieses Bild,

wird hier in der Videokamera durch das eigene Abbild im Spiegel ein Selbstbewußtsein erzeugt?

Folie 1

Ich glaube dieser Weg führt uns in eine Sackgasse, über das Bewußtsein bei Maschienen zu resümieren zu wollen.

Es lassen sich sowieso nur schwer präzise Unterscheidungen zwischen bewußtem und unbewußtem Handeln treffen. Zwar scheint Bewußtsein nötig zu sein, um Situationen zu bewältigen, in denen wir neue Urteile bilden müssen, und bei denen die Regeln vorher nicht niedergelegt worden sind, vielleicht hängt aber, so die Meinung der Verfechter der Künstlichen Intelligenz, das Bilden neuer Urteile auch von der Anwendung gewisser wohldefinierter algorithmischer Regeln ab, die wir teilweise garnicht kennen.

Vielleicht könnte man die Unterscheidung zwischen nicht-algorithmischen und algorithmischen Prozessen auf diese Art und Weise lösen.

Folie 2

Ich möchte nnun einen anderen Weg gehen, um das komplizierte Gefelcht der Mensch-Maschine-Beziehung darzustellen.

Ich möchte hierzu die Sprache, die eng mit dem menschlichen Denken verbunden ist, heranziehen.

Was ist aber zunächst einmal "menschliches Denken"? Situationen, in denen wir nicht nach Instinkt oder nach erlernten Verhaltensweisen handeln, sondern in denen wir in unserem Tun innehalten, um in einem bestimmten Rahmen die weitere Vorgehensweise zu überlegen, dies bezeichnen wir allgemein als Denken. Es werden Vor- und Nachteile abgewogen.

Unter diesem Verhaltensaspekt wird solch eine Situation durch folgende Merkmale charakterisiert:

Ein Hindernis, das die ererbten oder gewohnten Vollzüge unmöglich macht; eine konfliktbedingte Pause und eine mehr oder minder erfolgreiche Lösung, die gelegentlich auch darin bestehen kann, daß man 'aus dem Felde geht', d.h. daß man auf die Überwindung des Hindernisses verzichtet, und sich unter Umständen mit einer wunscherfüllenden Phantasie zufriedengibt.

Bei positiven Lösungen kommt es entweder zur Überwindung des Hindernisses oder zu dessen Umgehung.[1]

Nach Freud gibt es die Möglichkeiten, die Erlangung eines Zieles durch eine Orientierungspause, also eine Phase der Besinnung, aufzuschieben, d.h. "die erhöhte Reizspannung während des Aufschubes"2 zu ertragen, ohne dabei das Ziel aus den Augen zu verlieren.

Es gibt dabei natürlich Unterschiede im Verhalten einzelner Individuen, je nach ihrer jeweiligen psychischen Verfassung, die sich z.B. in einem differenzierten Grad von Aufregung ausdrücken kann, und es gibt Unterschiede zwischen Bedürfnissen verschiedener Dringlichkeiten.

Dieses während einer Orientierungsphase stattfindende Probehandeln ist Gegenstand der Denkpsychologie. Innerhalb ihrer stieß die Motorische Theorie des Denkens allerdings auf große Schwierigkeiten, da entscheidende seelische Vorgänge nur zum geringen Teil an die Peripherie der Persönlichkeit gelangen bzw. beobachtet werden können, und meist im Zentralorgan verborgen bleiben.

Ebenso erbrachte der Versuch eines Nachweises motorischer Abläufe an den Sprechorganen (z.B. bei Messung der Stimmfrequenzen) keine eindeutigen Ergebnisse.

Das Denken oder besser gesagt, der Ablauf der Gedanken findet jedoch in einem Raume statt, der nicht die Dinge selbst enthält, sondern sich mit deren Repräsentationen befaßt.

So sagte Aristoteles: "Für die Denkseele treten die Vorstellungen an die Stelle der Inhalte der sinnlichen Wahrnehmung"[3], woran sich nahezu die gesamte ältere Psychologie orientierte, indem sie das Denken als eine Verbindung von Vorstellungen (Assoziationen) auffaßte und Vorstellungen als wahrnehmungsähnliche anschauliche Gegebenheiten bzw. Phantasien ansah.

Ein Großteil des Denkens bewegt sich aber im Medium sprachlicher Repräsentationen. Demnach steht der Sprache ein Reservoir von Denkformeln zur Verfügung, und sie benutzt mehr oder minder scharf umrissene Begriffe.

Die in neuerer Zeit sehr stark beachtete Theorie, daß Denken und Sprechen miteinander identisch seien, geht allerdings schon auf Platon zurück, wobei man jedoch den Einwand berücksichtigen muß, daß bei Manifestationen von Sprachstörungen nicht auch die Denkfähigkeit beeinflußt sein muß. Auch besitzt Sprache eine lineare Folgeordnung, z.B. kommt das Prädikat in der Regel nach dem Subjekt, wohingegen beim Denken beide gleichzeitig auftreten können.

Trotzdem läßt sich nicht bestreiten, daß im Normalfall das gedankliche Probehandeln zumindest beim Erwachsenen im Medium der Sprache erfolgt und die Entwicklung des Denkens auf das engste mit der Sprache verbunden ist. Auf dieser Theorie bauen heute die meisten Intelligenztests auf, da die aktuelle Ausübung der Fähigkeit des Denkens als Intelligenz bezeichnet wird und sich über die Eigenheiten der Sprache wie Wortschatz, Satzbau, Komplexität grammatikalischer Konstruktionen usw. ausdrückt.

Sprache wird somit als Ausdruck des Denkens angesehen und ist daher zu einer wichtigen Persönlichkeitsdimension geworden.

"Was ist also Sprache?"

Sprache wird als: "Ausdruck und Darstellung von Gedanken, Gefühlen, Willensregungen durch gleichbleibende Zeichen (z.B. Laute Wörter, Gebärden)"[4] bezeichnet, oder als

"Jedes Zeichensystem, das geeignet ist, als Kommunikationsmittel zwischen den Individuen zu dienen"[5] oder

"...als ein System deutlich unterschiedener Zeichen, die zu deutlich unterschiedenen Ideen in Entsprechung stehen."6

Solche Definitionen von Sprache versuchen mehrere Aspekte, verschiedene Ebenen oder Funktionen zu erfassen oder eine bestimmte Eigenschaft der Sprache hervorzuheben.

Aus logischer Sicht ist die natürliche Sprache voll von historischen Zufälligkeiten, von Mehrdeutigkeiten, Inkonsequenzen und Metaphorik.

Um aber die Beziehung Mensch-Computer Mittels des Kommunikationsträgers Sprache untersuchen zu können, soll die Kommunikationssituation Mensch-Computer im folgenden in drei Handlungssituationen unterteilt werden:

1. in die Kommunikationssituation Mensch-Mensch, wobei der Computer im Mittelpunkt des Interesses steht, also zum Kommunikationsobjekt wird,

2. in die Kommunikationssituation Mensch-Mensch, in welcher der Computer quasi als Medium fungiert, d.h. zur Sprach- und Datenübermittlung dient, und

3. in die Kommunikationssituation Mensch-Maschine, in welcher der Computer als Kommunikations-Partner des Menschen agiert, der Mensch vom Computer Antworten und Ergebnisse, aber auch Fragen und Befehle erwartet. Nur diese Situation läßt sich im eigentlichen Sinne als kommunikative Handlungssituation bezeichnen und wurde im wesentlichen von allen anderen Wissenschaftlern diskutiert.

Zu Pt. 1: Der Computer als Objekt zwischenmenschlicher Kommunikation

Nicht nur die Werbung der Hard- und Softwarehäuser in Werbebroschüren und Fachzeitschriften trägt dazu bei, das angebotene Objekt Computer zu anthropomorphisieren, einen metaphorischen Sprachgebrauch zu fördern und die Wertigkeit allgemeiner Lebensinhalte zu ändern, auch Gruppenzugehörigkeiten und Gruppennormen im beruflichem und privatem sozialen Kontexten, wie Kollegen oder Mitgliedern von Computerclubs, zwingen zur Anpassung an einen elitären und modischen, vor allem aber von anderen Gruppen abgrenzenden Sprachgebrauch. Emotionalisierungseffekte, bedingt durch soziale Defizite, wie Partnerschaftsprobleme oder Vereinsamung, bringen den Menschen emotional in die Situation, den Computer als Liebes- und Lustobjekt zu substituieren, ihm also jene Partnerschaftseigenschaften zuzuschreiben, die in der realen Lebenssituation vernachlässigt werden.[7]

Folie 3


  • Zweiter Teil des Vortrages!