Info

Dieser Artikel ist in der MSZ 4-1989 erschienen.

Systematik


DIE KÜNSTLICHE INTELLIGENZ

Daß der Computer eine ziemlich atemberaubende Karriere als Geschäftsmittel gemacht hat und noch immer macht, ist eine Sache. Daß er gleichermaßen Karriere macht als Ideologieproduzent oder richtiger: Berufungsinstanz einer Ideologie, ist eine andere Sache, die eben wenig zu tun hat mit seinen technischen Qualitäten, aber sehr viel mit der Sorte falschen Nachdenkens und Urteilens, die der Gesellschaft, der er dient, nicht minder notwendig ist als der Gebrauch natur- und ingenieurwissenschaftlicher Einsichten. Gemeint ist die Behauptung einer „künstlichen Intelligenz“ (englisch: „artificial intelligence“, kurz „AI“); versprochen wird der Bau wahrer Denkmaschinen und eine Revolution unseres Weltbildes.

Was da allerdings behauptet und dann auch wieder bestritten wird, ist so neu gar nicht, sondern ein Hin- und Herwälzen all der trostlosen Attribute für den menschlichen Geist, die der Standpunkt der Sorge um das Funktionieren des braven Staatsbürgers geboren hat. Wer die Intelligenz als einen Mechanismus betrachten will - das reicht von volkstümlichen Redensarten („Schraube locker“) bis zu allerlei hochtrabenden Ansätzen von Philosophen, Psychologen, Linguisten usw., - feiert den Computer als den endgültigen Beleg. Da ist dann jedes Schachprogramm eine Vermehrung unserer Kenntnisse über die Psychologie, als ob die überhaupt vorgekommen wäre. Wer dagegen meint, Intelligenz brauche echte Gefühlsbindungen, lebensgeschichtliche Erfahrungen oder soziale Kontexte befleißigt sich der vulgärmaterialistischen Denunziation des Elektronengehirns. Das besteht dann nur aus Schaltern, die Strom fließen lassen oder sperren (bestehen tut der Mensch freilich auch nur aus Wasser, Maggi und dergleichen), oder es bringt nur hervor, was vorher in es hineingesteckt worden ist (was für kein nützliches Gerät, noch nicht einmal für einen Kühlschrank gilt).

Vom Rechnen

Der Computer ist eine Rechenmaschine. Er unterscheidet sich zweifach von früheren Geräten. Zum einen ist er eine automatische Rechenmaschine, d.h. er führt komplexe Rechnungen ohne menschlichen Eingriff, einem zuvor festgelegten Programm folgend aus. Und des weiteren ist er eine universelle Rechenmaschine, d.h. er kann schlechterdings für jede Rechenaufgabe programmiert werden. Diese beiden Eigenschaften, zusammen mit der elektronisch erreichbaren Geschwindigkeit und Zuverlässigkeit, bedingen seine erstaunliche Anwendungsbreite, ändern aber nichts an seinem fundamentalen Charakter.

Das Rechnen kennt heute jeder zumindest als die schriftliche Bewältigung der Grundrechnungsarten für Zahlen.

„Dupliren lehret wie du ein zahl zweyfaltigen solt. Thu ihm also: Schreib die zahl vor dich, mach ein Linien darunder, heb an zuforderst, duplir die erste Figur. Kompt ein zahl die du mit einer Figur schreiben magst, so setz di unden. Wo mit zweyen, schreib die erste; die ander behalt im sinn. Darnach duplir di ander, und gib darzu, das du behalten hast, und schreib abermals die erste Figur, wo zwo vorhanden, und duplir fort bis zur letzten, die schreibe ganz aus.“ (A. Riese, Rechenbuch, 1574)

In solchen Algorithmen, hier einem alten Rezept zum Verdoppeln einer Zahl, erscheint das Rechnen durchaus schon als ein materielles Geschäft. Aus Zahlzeichen, niedergeschriebenen Folgen von Ziffern, werden schrittweise andere Zahlzeichen gewonnen. Die geistige Leistung des Rechnens besteht wesentlich in Aufmerksamkeit, in der peinlichen Beachtung eines feststehenden Verfahrens, auf dessen aktuellen Stand er aufpaßt („eins im Sinn“) und dessen fällige Schritte er ebenso auswendig, d.h. ohne zu denken, weiß wie die unterwegs einzusetzenden Teilresultate („Kleines Einmaleins“). Die beiden typischen Fehlerquellen sind deshalb Mängel des Schriftbildes (z.B. schlampiges Ausrichten von Zahlenkolonnen) und ein Erlahmen der Aufmerksamkeit, in dem, soweit es sich nicht um äußere Störungen handelt, das rechnende Subjekt gegen die ihm zugemutete Stupidität rebelliert, also etwa nach Abkürzungen der Routine sucht oder gleich zum Fenster hinaus denkt. Man kann sich gegen solche Zwischenfälle durch kariertes Papier, Durchstreichen erledigter Partien oder Fixieren von Zwischenergebnissen zu wehren suchen; die vernünftige Lösung ist es, dieses Geschäft an einen Mechanismus zu übertragen.

Eine solche Rechenmaschine ist nicht sonderlich verschieden von einem Gerät, das beispielsweise Pullover strickt. Das Resultat aber, wie es auf dem Papier steht, befriedigt kein materielles Bedürfnis; die Umwandlung von Zahlzeichen in andere Zahlzeichen hat die Zahlen selbst, d.h. Gedanken, zum Zweck. Die volkstümliche Bewunderung einer Rechenmaschine als intelligent, vergleichbar der naiven Redensart von einem „schlauen Buch“, übersieht, daß die Schlauheit ganz auf die Seite des Benutzers fällt, dem das Gelesene etwas sagt. Die Zahlzeichen, die der Mechanismus transformiert, sind für ihn eben überhaupt keine Zeichen; sie sind materielle Dinge oder Zustände von solchen, beispielsweise Zahnradstellungen, die auf ganz materielle Weise, dem zweckmäßigen Bau der Maschine folgend, andere Zahnradstellungen bewirken. (Das ist dann auch der Unterschied zwischen einem menschlichen und einem mechanischen Rechner, selbst wenn sie analoge Verfahren verwenden: Der Mensch braucht für jeden Schritt des Algorithmus seinen Kopf, weshalb er die Sache auch erst lernen und zur Gewohnheit machen muß.) Das wahre Verhältnis von Intelligenz und Rechenmaschine ist also dies, daß die Maschine für die Intelligenz fungiert; insofern der Mechanismus Repräsentanten für Gedanken manipuliert, ist er nicht intelligent, sondern ein einziger Verweis auf Intelligenz außerhalb seiner Operationen.

Soweit nun eine Maschine Kopfarbeit ersparen kann, ist damit zugleich der Gegenstand dieser Kopfarbeit als kombinatorisch charakterisiert. Daß die Intelligenz ganz allgemein sich Zeichen schafft und gebraucht, heißt eben noch lange nicht, daß das Geschäft der Intelligenz durch ein geschicktes Operieren mit dem bloßen Zeichenmaterial, durch ein Kalkül (Spiel mit „Steinchen“) ausgeführt werden kann. Das naheliegende Anwendungsfeld solchen Rechnens bieten die Zahlen, also Denkinhalte, deren Prinzip die ganz abstrakte und äußerliche Beziehung ist, ein Zusammenfassen und Trennen, Prüfen auf Gleichheit und Ungleichheit. Bei den Zahlen macht die Schwierigkeit, den begriffslosen Inhalt festzuhalten, eine sachliche Darstellung absolut notwendig. Die Entwicklung eines Zeichensystems, das Zahlen nicht nur für den Verstand zu fixieren, sondern auch die ihnen eigentümlichen Operationen auszuführen erlaubt, ist ein historisch bedeutender, allerhand Einsicht in die Arithmetik einschließender Schritt; vgl. die Ungeschicklichkeit der römischen Zahlen. Die mathematische Wissenschaft führt dann in ihrem Fortschritt auf viele andere Gedankendinge (Gleichungen, Funktionen usw.), die dem Rechnen zugänglich sind und es erfordern, und sie entwickelt dafür Zeichensysteme und Verfahren. Der Erfolg des Computers, unter dessen Anwendungen die eigentlich numerischen Aufgaben heute nicht mehr dominieren, beruht auf der andauernden Entdeckung, wie viele nützlichen Tätigkeiten, auch solche mit materiellem Endzweck, sich auf ein Rechnen zurückführen lassen. Dem Benutzer eines Textsystems mag es nicht bewußt sein: befaßt ist er mit einer Art Algebra, deren Objekte Buchstabenfolgen und deren Operationen Einfügen, Löschen, Vergleichen u.ä. sind, und die genausogut Gesetze kennt wie z.B. die Arithmetik.

Die AI-Doktrin

Vom Rechnen, das Gedanken zum Zweck hat, aber durch die Gegenwart von Gedanken eher gestört als befördert wird, kann mit Fug und Recht gesagt werden, daß es sich selbst vom Denken unterscheidet. Das theoretische Programm der AI, die Identifizierung des Denkens mit der Leistung von Rechenmaschinen, beginnt deshalb mit einem geistigen Gewaltakt, der jede Erfahrung von, jedes Wissen über Rechnen und Denken ein für allemal durchstreicht. Die Magna Charta der AI ist der vielzitierte Turing-Test. (Der Engländer A. Turing war ein Mathematiker und Vertreter der Formalen Logik, der für das Konzept der universellen Rechenmaschine bedeutende Vorarbeit leistete.) Es handelt sich dabei um ein fiktives Experiment, dessen Beschreibung weniger zum Zweck seiner Ausführung als zur Normierung der Frage „Can machines think?“ erfolgt:

Man stelle sich ein Ratespiel vor, bei dem der Spieler mit zwei Versuchspersonen, einem Mann A und einer Frau B, über ein anonymisierendes Medium, etwa eine Fernschreibeinrichtung, kommuniziert. Der Spieler soll durch gezielte Fragen, die von den Versuchspersonen wahrheitsgemäß oder mit der Absciht der Täuschung beantwortet werden herausbekommen, wer welches Geschlecht hat.

„Wir fragen jetzt: ‚Was wird passieren, wenn eine Maschine die Rolle von A in diesem Spiel übernimmt?‘ Wird der Fragesteller sich dann genau so oft täuschen, wie wenn das Spiel mit Mann und Frau gespielt wird? Diese Fragen erstzen die ursprüngliche Frage, ‚Können Maschinen denken?‘.“ (A. Turing, Computing Machinery and Intelligence, 1950)

Dieses Vorhaben ist befremdlich. Rechenmaschinen sind wohldurchdachte Artefakte, und was das Denken angeht, so verfügt ein jeder über reichlich Material: Es ist nicht einzusehen, warum man Versuche anstellen sollte, um das Verhältnis beider zu klären. Umgekehrt: Wer hier ein Experiment fordert, der hat nicht eine Einsicht, sondern ein Eingeständnis im Sinn. Er will nicht Meinungen, die er für falsch hält, widerlegen oder eine These beweisen, sondern den Verstand in die Enge treiben. Eine wissenschaftliche Frage soll ausgerechnet dadurch entschieden werden, daß einer genügend oft der Täuschung überführt wird und klein bei gibt.

Es wird eben nicht gesagt, dies ist die Intelligenz und nicht die Maschine, und jetzt überlegen wir mal. Vielmehr wird, wie bei einem Ratespiel um Mann und Frau, ein Zustand der Unwissenheit künstlich hergestellt. Das eigentliche Versuchskaninchen ist dann der Experimentator selber; ob er diese Unwissenheit überwinden kann, soll er dartun. Bloß: Was wäre mit seinem Scheitern, wenn es nicht zustande käme, bewiesen? Wenn es der Versuchsperson nicht gelingt, Computer und Mensch außer durch den Augenschein, also nach ihrer Physis zu unterscheiden, so kann das eben sowohl an der Ungeschicklichkeit wie an tatsächlicher Übereinstimmung liegen. Vom Nicht-Unterscheiden-Können gibt es keinen richtigen Schluß auf Unterschiedslosigkeit; im vorgeschlagenen Experiment sind eben beide enthalten, beurteilendes Subjekt und beurteilte Sache.

Was Turing propagiert, ist, daß Intelligenz von Maschinen bewiesen werden kann, ganz ohne daß man sagt, was Intelligenz ist. Das ist ein Widerspruch, ja eine Unverschämtheit, gilt aber als die beste Stütze des Glaubens an die Denkmaschine, was ja auch wiederum gerecht ist. Turings „imitation game“ hat Epoche gemacht unter Computerfachleuten. Sie fühlen sich seitdem berufen, Programme zu schreiben, die nachahmen, was als Äußerung von Intelligenz gilt, die also einen Zuschauer, wenn er will, ein Stück weit täuschen oder, richtiger, zur Bewunderung der schlauen-dummen Maschine veranlassen können; es geht dabei zu wie im Zirkus, wenn das Pferd rechnet und der Affe mit Messer und Gabel ißt. Spitzenreiter unter den Beispielen waren von Anfang an Denksportaufgaben, insbesondere Schach; man hat dem Computer auch schon die Verrücktheit als untrügliches Zeichen für Intelligenz beigebracht, d.h. ihn Texte produzieren lassen, die von Psychiatern als Äußerungen eines echten Paranoikers anerkannt wurden. (Das Sachliche solcher Bemühungen, Techniken und Grenzen, besprechen wir später an wichtigeren Beispielen.)

Bei diesem Mitte der fünfziger Jahre aufblühenden Geschäft merkte man sehr schnell, daß man sich auf nichts Einfaches eingelassen hatte. Es ist eben ein Unterschied, ob man auf Basis einer mathematischen Theorie über, sagen wir, eine Sorte Gleichungen Algorithmen zu ihrer Lösung erfindet oder ob man einfach mal damit anfängt, daß der Mensch dies oder jenes kann. Daher die dauernde Klage, daß eine objektive Analyse des gewählten Problems schwer ist oder nichts hergibt, daß aber umgekehrt dem Subjekt schlecht abzulauschen ist, wie es bei der Bewältigung solcher Aufgaben eigentlich tickt. Dieser mißliche Umstand führt nicht zu einer Ernüchterung, sondern zu einer erstaunlichen Neubewertung des eigenen Tuns: Wenn wir die menschliche Intelligenz nachahmen, aber nicht wissen, was wir nachahmen, dann ist unsere Programmiererei recht eigentlich die Erforschung der menschlichen Intelligenz:

„Die Entdeckung, daß die einzelnen Schritte beinahe allen intelligenten menschlichen Verhaltens unbekannt waren, steht am Anfang der AI als einer besonderen Abteilung der Computerwissenschaft. AI-Forscher untersuchen verschiedene Formen des Rechnens und verschiedene Weisen der Beschreibung des Rechnens nicht allein deshalb, um intelligente Kunstprodukte zu schaffen, sondern auch in dem Bemühen, Intelligenz zu verstehen. Ihre Grundposition ist, daß das menschliche geistige Vermögen am besten mit den Mitteln beschrieben werden kann, die wir erfinden, um AI-Programme zu beschreiben.“ (A. Barr, E. Feigenbaum, Handbook of AI, 1981)

Die Unterstellung, daß die Intelligenz überhaupt wie die Ausführung eines Computerprogramms aus einer Folge von „detailed steps“ besteht, ist völlig unbegründet, ja zugegebenermaßen aus der eigenen Unwissenheit geboren. Die AI-Ideologie (manche Mitglieder der Gemeinde verwenden selber dieses Wort) ist damit perfekt. Während Turing Mensch und Maschine als black box behandelt, die hinsichtlich ihrer Leistungen übereinstimmen sollen, lautet die Behauptung jetzt, daß die beiden Kästen selber wesentlich identisch seien, und dabei glücklicherweise der eine, die Maschine, gar nicht so schwarz, sondern recht gut zugänglich sei und deshalb Aufschluß über den anderen, den Menschen liefern könne. Dies ist ein Widerspruch; wenn der eine Kasten schwarz ist, läßt sich die Übereinstimmung mit dem anderen nie dartun.

Das neue Selbstverständnis wurde zusammenfassend formuliert in A. Newells und H. A. Simons Aufsatz „Computer Science as Empirical Inquiry“ (1976), dessen Titel die ganze Paradoxie der AI herausstellt: Eine Ingenieurwissenschaft soll nicht bloß mit einer bestimmten Technologie befaßt sein, sondern eben dadurch ein ganz anderes Stück Realität erforschen. (Die Amerikaner Newell und Simon sind die eigentlichen Pioniere der AI; sie arbeiteten jahrzehntelang an einem Wechselbalg namens „General Problem Solver“.)

„Ein physikalisches Zeichensystem besteht aus einer Kollektion von Dingen, Zeichen genannt, die physikalische Muster sind und die als Bestandteile anderer Gebilde, Ausdrücke genannt, auftreten können... Neben diesen Strukturen enthält das System eine Kollektion von Prozessen, die auf Ausdrücke einwirken, um andere Ausdrücke zu erzeugen...

Hypothese: Ein physikalisches Zeichensystem hat die notwendigen und hinreichenden Mittel für allgemein intelligentes Verhalten.“ (a.a.O.)

Was die Autoren als „physikalisches Zeichensystem“ definieren, ist ein komisch-dürftiges Bild von Bau und Funktionsweise einer Rechenmaschine. Der wissenschaftliche Fortschritt besteht darin, diesen Bau und diese Funktionsweise als hinreichend und notwendig für Intelligenz zu behaupten: Der Glaube, daß Menschen intelligent sein können, wird ergänzt um den Glauben, daß intelligente Wesen Maschinen der beschriebenen Art sein müssen. Ein Argument gibt es nicht; deshalb verkaufen die Autoren ihre Sache als „empirische Hypothese“ und spekulieren auf den Fortschritt der Technik, als ob der den fehlenden Beweis erbringen könnte. Sie schämen sich nicht, ihren Einfall sogar als „substantielle wissenschaftliche Hypothese“ vom Schlage der Entdeckung der Zelle in der Biologie, des Atoms in der Physik, der bakteriellen Krankheitserreger in der Medizin zu behaupten.

Dabei ist die Vorstellung eines „physikalischen Zeichensystems“ ein Widerspruch in sich. Zeichen sind Dinge, die etwas anderes vorstellen als sie selber sind: Soweit Zeichen physische Wirkungen erleiden oder ausüben können, tun sie dies nach ihrer eigenen physischen Beschaffenheit und nicht nach ihrer Bedeutung. Wenn also Newell und Simon „Bezeichnung“ wie folgt definieren, so verfehlen sie vor lauter Interesse an einem physikalischen Zusammenhang die Eigenart des Zeichens:

„Ein Ausdruck bezeichnet ein Objekt, falls, bei Vorliegen des Ausdrucks, das System entweder das Objekt beeinflussen oder sich seinerseits in Abhängigkeit von dem Objekt verhalten kann.“ (a.a.O.)

Eine solche Macht über die Dinge (oder umgekehrt) ist mit dem Zeichen aber nicht gegeben; außer im Aberglauben, in Magie, Alchemie oder Astrologie!

Von der Freiheit der Wissenschaft

Natur- und Ingenieurwissenschaften sind ein Erfordernis der kapitalistischen Produktionsweise; sie lassen sich selber aber kaum als Geschäft betreiben. Denn die fleißigste Forschermannschaft kann nicht garantieren, daß sie überhaupt ein Ergebnis zustande bringt, geschweige denn ein nützliches, gar dem Konkurrenzerfolg eines speziellen Unternehmens auf den Leib geschneidertes. Der Staat finanziert deshalb die Wissenschaften und organisiert sie als allgemeine Voraussetzung der Profitmacherei getrennt von jedem besonderen Interesse. Diese Freiheit zu forschen wird dann von den Beteiligten konsequent auch nie nur so verstanden, daß sie sich unbekümmert und vollen Herzens ihrem Lieblingsthema, seien es Kartoffelkäfer, Benzolringe oder Primzahlen, hingeben dürfen. Sie stellen allemal die Sinnfrage, was in Form von Reklame auch ein Erfordernis der akademischen Konkurrenz um Karrieren und Laborausstattungen geworden ist. Das Bedürfnis, der eigenen täglichen Tüftelei ein dickes ‚Wozu‘ anzukleben, setzt lauter illusorische Zweckbestimmungen in die Welt, in denen sowohl der wissenschaftliche Inhalt als auch die Logik potentieller Nutznießer gründlich verfremdet erscheint. Da wird das wirtschaftliche Überleben der Nation vom Gedeihen speziell des eigenen Fachgebietes abhängig gemacht, obwohl sich das heimische Kapital dumm und dämlich verdient mit japanischen Bauteilen, amerikanischem know-how und einem bißchen Währungsspekulation. Oder da wird eine ganz unwissenschaftliche Alleskönnerschaft reklamiert; man will wieder das Prinzip entdeckt haben, das die Welt im Innersten zusammenhält, oder ein Verfahren, und dies ist immer noch Spitze, den Homunculus zu machen, sei es molekularbiologisch, computertechnisch oder wer weiß wie demnächst.

Die künstliche Intelligenz wurde unter den Fittichen des amerikanischen Verteidigungsministeriums ausgebrütet und hochgepäppelt. Es ist dies überhaupt die größte und wichtigste Institution der freien Wissenschaft, und Leute mit Erfahrungen geraten ins Schwärmen:

„Ich meine, daß ein guter Teil des früheren Erfolgs von RAND (Denkfabrik des Militärs) auf das Forschungsverständnis der Luftwaffe zurückgeht, die zur RAND-Leitung sagte: ‚Hier ist ein Sack Geld, gehe hin und gib es zum Wohle der Luftwaffe aus.‘ Und dann teilte die RAND-Leitung den Sack auf in eine Reihe kleiner Säcke... In einer solchen Umgebung kann man Fehlschläge decken, und folgerichtig war man viel mehr bereit, auf unsichere Vorhaben zu setzen, die vielleicht eine Erfolgschance von 1:10 hatten... Diese Strategie funktioniert nur, wenn man sehr gute Leute hat, und in seinen Anfängen zog RAND einige sehr gute Leute an, weil das Verfahren ziemlich einzigartig war. Und nachdem man erst ein paar gute Leute hatte, konnte man leicht mehr kriegen.“ (P. McCorduck, Machines who think, 1979)

In den ersten gut zwei Jahrzehnten ihrer Existenz fristete die AI eine wohldotierte Randexistenz. Sie produzierte Doktorarbeiten und akademische Querelen, aber weder Waffensysteme noch Profit und wurde von der Mehrzahl der Computeringenieure als „praxisfern“ verachtet. Das änderte sich schlagartig Anfang der achtziger Jahre, als Japan einen nationalen Kraftakt an Forschung beschloß, der die auf dem Computersektor dominierenden USA links überholen sollte und dazu voll auf AI setzte. Der Grund für diese Wahl ist wohl einfach der, daß die Initiatoren die AI-Doktrin glaubten und es für die Chance des Jahrhunderts hielten, daß die Sache im Ursprngsland bisher so wenig genutzt wurde.

„Japan wird inzwischen weltweit als ökonomische Macht angesehen. Wenn wir deshalb überlegen, in welche Richtung sich unsere Industrie entwickeln soll, so wird klar, daß wir nicht länger den besser entwickelten Ländern hinterherlaufen müssen, sondern Maßstäbe der Führerschaft und Kreativität in Forschung und Entwicklung zu setzen beginnen sollten...

Mit diesem Projekt spielt Japan eine weltweit führende Rolle in der Computer-Technologie. ...Der Computer der fünften Generation wird bei der Lösung sozialer Engpässe helfen, beispielsweise dem Energieproblem oder dem Problem einer alternden Gesellschaft. Er wird ebenfalls als Motor im industriellen Bereich wirken ... Durch die Förderung von AI-Forschung sollte sich ein besseres Verständnis der Mechanismen des Lebens herstellen lassen.“ (T. Moto-oka, Fifth Generation Computer Systems: Challenge for Knowledge Information Processing Systems, 1981)

Die engeren technischen Ziele des Projekts sind nicht glaubwürdiger als dieses Menschheitsbeglückungsprogramm:

„Die Intelligenz-Kapazität von Computern muß in dem Umfang gesteigert werden, daß sie die Umwelt erfassen können...

...urteils- und entscheidungsfähig sind...

...unsere Gedanken verstehen und entsprechend antworten können...

...automatisch in mehrere Sprachen übersetzen...

...das Wissen, das der Mensch über Jahrhunderte hinweg angehäuft hat, gespeichert und effektiv genutzt werden kann.“ (a.a.O.)

Der nächste Effekt dieser durch reichlich Yen substantierten Flötentöne war, daß die imperialistische Konkurrenz dasselbe beschloß und den Topf mehrfach aufdoppelte; in den USA gibt es seitdem eine „Strategic Computing Initiative“, und seitens der EG einen „European Strategic Plan for Research in Information Technology“, die ebenfalls heftig auf AI spekulieren. Und gemacht wird in all diesen Projekten auch etwas, wenn auch nicht genau das, was die illusorischen Titel besagen. Erstens führt auch die Suche nach Denkmaschinen zu besseren Chips, leistungsfähigerer Grundsoftware, Rechnernetzen etc., d.h. der „mainstream“ der Computertechnologie wälzt sich unter diesem Vorzeichen um so schneller fort. Zweitens aber findet innerhalb der Anstrengungen, die zugunsten von Turings „imitation game“ und Newell und Simons „cognitive science“ unternommen wurden, eine Sortierung statt: Da gibt es durchaus ein paar verheißungsvolle Ansätze, mechanische Leistungen des Geistes zu verselbständigen und, wie früher mit dem Zahlenrechnen geschehen, auf Maschinen zu übertragen.

„Ob solche Entwicklungen zu einem besseren Verständnis des Geistes führen oder nicht, es ist jedenfalls klar, daß sie zu einer neuen intelligenten Technologie führen, die dramatische Auswirkungen auf unsere Gesellschaft hat. Prototypische AI-Systeme haben schon Interesse und Begeisterung in der Industrie erweckt und werden gegenwärtig komerziell entwickelt. Zu solchen Systemen zählen Programme, die

1. schwierige Probleme in Chemie, Biologie, Geologie, Technik und Medizin auf dem Niveau menschlicher Experten lösen.

2. Roboter steuern, die nützliche repetitive sensomotorische Aufgaben wahrnehmen,

3. Fragen beantworten, die in einem Teilsystem des Englischen (oder anderer sogenannter natürlicher Sprachen) gestellt werden.“ (Handbook of AI)

Im folgenden sollen diese drei Gebiete noch etwas näher betrachtet werden. Der Witz ist, daß praktikable Systeme die AI-Gleichung von Geist und Computer gerade nicht als bloß gleichgültig erscheinen lassen, sondern der Sache nach widerlegen.

Die Praxis der AI

Angesichts der Inkongruenz von Rechnen und Denken verwundert es nicht, daß die AI eine Technik benutzt und kultiviert, die zwar ein Rechnen ist, sich aber von dessen landläufigen Ausprägungen durch einen Mangel an Zielstrebigkeit und Effizienz unterscheidet: The work horse of AI is search. Egal, ob es sich um die Lösung einer Schachaufgabe oder um das Austüfteln der Molekülstruktur einer Chemikalie handelt, der typische Ansatz der AI ist ein systematisches Raten und Ausprobieren, ein Generieren von Möglichkeiten und Abgleichen mit den Bedingungen des Problems. Und die keineswegs kleine Kunst und Anstrengung des AI-Programmierers besteht darin, dies Grundmuster jeweils durch geeignete Repräsentation, Suchstrategien und vor allem drastische Beschränkung des Suchraums überhaupt praktikabel zu machen und auf den Rechner zu bringen. (Die Vermehrung nackter Computerpower, Geschwindigkeit und Speichervermögen, ist eine materielle Bedingung für den gegenwärtigen AI-Boom.)

Natur und Grenzen der AI treten an diesem speziellen Gebrauch der Rechenmaschine noch deutlicher zutage. Zum einen geht es beim Raten auch dem Inhalt nach um ganz begriffsloses Zeug; was die Demokratie ist, läßt sich nicht erraten, wohl aber, wie der Kanzler heißt und dergleichen. Zum anderen stellt das Verfahren, in dem das Nichtwissen zum Ziel führt, durchaus Ansprüche an vorhandenes Verständnis und Material; um ein Examen mit Glück zu machen, ist auch Vorbereitung nötig. Beide Aspekte erweisen den Computer wieder als selber unintelligentes Werkzeug der Intelligenz. In der beliebten Debatte, ob der Computer kreativ sei und etwas Neues - ohnehin ist Neuheit das dümmste, weil bloß mit der Existenz befaßtes Lob einer Sache - schaffen könne, haben beide Seiten unrecht: Die Domäne des Computers ist das Kombinieren. Wenn er, im obigen Beispiel, schon zur Aufklärung komplizierter Molekülstrukturen und damit dem glücklichen Benutzer ohne weiteres zu einer wissenschaftlichen Veröffentlichung verholfen hat, so hat nicht die Maschine etwas erkannt, sondern die Erkenntnis ist auf dem Punkt gewesen, wo ihr bloß noch die maschinenmäßige Knobelei gefehlt hat.

Expertensysteme

Das ist zur Zeit der größte Schlager der AI-Szene, prospektiver Geschäftsartikel großer Firmen ebenso wie mancher Goldrausch-Neugründung. Die Idee ist, die Arbeit teurer Fachleute durch ein Programm zu ersetzen oder abzukürzen; als „Wissensverarbeitungskomponente“ gehört die Sache zu allen AI-Anwendungen.

Geistige Arbeit, soweit nicht Ideologieproduktion, besteht heute großenteils in der Anwendung vorhandenen Wissens. Wenn Mediziner Infektionskrankheiten diagnostizieren, Versicherungsjuristen Schadensfälle einordnen oder Maschinenbauer eine Kupplung nach vorgegebenen Leistungsmerkmalen entwerfen, dann findet eine ganz mechanische Subsumtion des vorliegenden Falles statt, eine Kombination von Indizien, ein Ausschließen von Alternativen. Man denke an botanische Bestimmungsbücher, mit deren Hilfe sich auch der Laie an Merkmalen entlang zum Hirtentäschelkraut vorarbeitet. Expertensysteme verfahren ähnlich, sind aber weniger systematisch durchgebildet als klassische Bestimmungstabellen und leichter änder- und erweiterbar. Das Wissen wird repräsentiert durch einen großen Haufen von Wenn-dann-Beziehungen, die ein Programm, Interferenzmaschine genannt, zu verketten sucht; unterwegs mag es den Benutzer zum Abprüfen fälliger Bedingungen auffordern.

Die formale Logik läßt offenbar schön grüßen. Wie wenig deren Anspruch, das Denken, damit es nicht länger in die Irre gehe, als ein Rechnen zu rekonstruieren, gerechtfertigt ist, läßt sich auch an solchen Expertensystemen ersehen. Sie unterstellen einen verständigen Benutzer, der sich über die allgemeine Natur der Gegenstände im klaren ist, die er identifizieren möchte. Wer sich mit einem rostigen Nagel in der Hand ans botanische Bestimmungsbuch wendet, wird sicher ein Stück weit kommen - Größe, Farbe, Fundort hat auch das Stück Eisen -, aber dadurch auch bloß ein Stück in die Irre gegangen sein. Die Klage des „knowledge-engineers“, daß seine Systeme leider keinen common sense haben und speziell nicht die eigenen Grenzen kennen, ist konsequent, aber ungerecht: kennen tun Experten-Systeme eben überhaupt nichts.

Sprach- und Bildverstehen

Hier geht es um die Schnittstellen des Computers zu einer nicht ganz für ihn präparierten Umwelt; er soll als Roboter auf die wechselnde Gestalt eines Werkstücks reagieren oder als Auskunftssystem einem ungeschulten Benutzer dienen können. Die Schwierigkeiten, aus der bloßen Physik (Optik, Akustik) herauszukommen, sind immens; beim Sprachverstehen setzt man meistens beim maschinengeschriebenen Text an.

Einfache Sprachprogramme suchen lediglich nach Schlüsselwörtern, deren Vorkommen dann eine Aktion, eben die Antwort, auslöst. (Das berühmteste und bis heute in der Sphäre der Computerspiele nicht totzukriegende Programm dieser Art ist „Eliza“ alias „Doctor“; seine Überzeugungskraft rührt daher, daß es einen Gesprächstherapeuten nachäfft, also die eigene Gedanken- und Inhaltslosigkeit durch seine angenommene Rolle überspielt.) Weil das einzelne Wort nicht reicht, es könnte zum Beispiel negiert sein, hat sich die AI der ohnehin kongenialen Linguistik in die Arme geworfen. Diese verspricht, die Bedeutung eines Satzes über die Analyse seiner „syntaktischen Struktur“ zu gewinnen. Bloß ist es nicht möglich, die Beziehung zwischen den Satzteilen allein an Äußerlichkeiten wie Wortstellung oder Endungen zu klären, was von der Linguistik in der Beschwerde über die „inhärente Mehrdeutigkeit natürlicher Sprachen“ zugestanden wird. Das ganze Unternehmen dreht sich deshalb im Kreis, man muß erst den Satz verstehen, um ihn korrekt gliedern zu können.

Praktisch durchbrochen und theoretisch bestätigt wird dieser Zirkel durch eine drastische Einschränkung der möglichen Bedeutung. Das Programm nimmt hypothetische Klassifizierungen von Satzteilen vor und schaut, ob es, gemessen am vorgegebenen Gesprächszweck, widerspruchsfrei durchkommt. Es gibt praktikable Systeme für allereinfachste Zwecke, Reiseauskunft, Hotelreservierung und dergleichen. Es ist keine Kunst, sie aufs Kreuz zu legen, aber das wollen die Benutzer ja nicht; sie werden zu Computern ohnehin reden wie zu Ausländern.

Das Computer-Sehen geht ganz analog. (Schon dieser Analogie könnte man den Unterschied zum eigentlichen Sprachverstehen und Sehen entnehmen.) Es wird versucht, in ein Kamerabild eine Kollektion von Helligkeitswerten, Linien zu legen und diese als Außenkanten, einspringende Kanten usw. eines geometrischen Körpers zu klassifizieren, um dann auf dessen Gestalt und Ausrichtung zu schließen. Solche Klassifizierung ist wieder ganz hypothetisch und uneindeutig, es müssen ein bestimmter Typus von Objekt und feste Beleuchtungsverhältnisse vorgegeben sein. Ein Roboter kann mit solchen Voraussetzungen leben, und auch die automatische Luftbildanalyse, dies ist der wichtigste selbständige Zweck des künstlichen Sehens, wird mit brauchbarem Erfolg russische Panzer von russischen Traktoren unterscheiden können.

Roboter

Techniker definieren Roboter so:

„Industrieroboter sind universell einsetzbare Bewegungsautomaten mit mehreren Achsen, deren Bewegung hinsichtlich Bewegungsfolge und -wegen bzw. -winkel frei programmierbar (d.h. ohne mechanischen Eingriff veränderbar) und ggf. sensorgeführt sind. Sie sind mit Greifer, Werkzeugen oder anderen Fertigungsmitteln ausrüstbar und können Handhabungsund/oder Fertigungsaufgaben ausführen.“ (VDI-Entwurf 2860)

Roboter sind Mechanismen, die Werkzeuge, d.h. Mittel der Einwirkung auf einen Arbeitsgegenstand, führen. Im Unterschied zu herkömmlichen Maschinen, die um ihre Werkzeuge gleichsam herumgebaut sind, operieren Roboter nicht in festgelegten Bahnen; sie sind allgemeine Handhaber. Ihr mechanischer Bau erlaubt grundsätzlich jede wünschenswerte Bewegung des Werkzeugs; der jeweilige Ablauf wird durch einen Computer gesteuert und durch dessen Programm spezifiziert.

Der gelegentliche Streit, was genau den Titel eines Roboters führen darf, also wieviel frei programmierbare Achsen u.ä. er haben muß, mag die Leistung des Konstrukteurs messen oder japanische Weltrekordansprüche im Roboterbau in Zweifel ziehen. Vom ökonomischen Standpunkt aus taugt solche Definitionskunst nichts, insofern sie die Aufgabe solcher Maschinen im Produktionsprozeß ignoriert. Die volkstümlich-literarische Meinung, nach der der Roboter ein guter oder böser Kamerad aus Blech ist, irrt sich hinsichtlich der inneren Werte und der äußeren Gestalt. Einem Menschen ähnlich ist ein Roboter, insofern er dessen Platz in der Produktion einnehmen kann. Dazu hat aber der menschliche Arbeiter vorher selber den Charakter einer bloßen Naturkraft zugewiesen bekommen. Er wird als lebendiges kybernetisches Element, als Verbindung von Auge, Hirn und Hand, von einem Maschinensystem angewendet, das selber die Spezifik und Zweckmäßigkeit des produktiven Vorgangs verkörpert und als dessen übergreifendes Subjekt erscheint.

Ingenieure halten die menschliche Arbeit heute für ein weitgehend entbehrliches Element in der Produktion, solche Ersparnis aber für unwirtschaftlich: Ein entsprechend perfekt durchgebildetes und damit zum Beispiel unflexibles Maschinensystem gilt ihnen als Verstoß gegen den Geschäftszweck der Sache. Daher der Einfall, den menschlichen Handlanger, der, wie das schöne Wort lautet, die Maschine bedient, seinerseits durch eine besondere Maschine zu ersetzen. Im Vergleich zum eigentlichen Produktionsapparat erscheint die Leistung eines solchen Roboters ausgesprochen schlicht und kläglich; er bewegt nur ein einzelnes Werkzeug, womöglich gar ein primitives Substitut der menschlichen Hand. Seine Bestimmung ist eben auch nur, eine unter Umständen profitable Alternative zur einfachen Arbeitskraft zu bieten. Für ihr „rein technisch“ eher hirnrissiges Programm - erst schafft man Fließbandarbeitsplätze und dann besetzt man manche von ihnen mit Automaten - wissen Techniker gute Gründe anzugeben, die alle auf eine Kampfansage an den menschlichen Kostenfaktor hinauslaufen:

„Stillstandzeiten, aus welchem Grund auch immer, müssen minimiert und womöglich vermieden werden. Menschliche Arbeiter tragen wahrscheinlich mehr zu Ausfällen bei als Automaten. Zu den Gründen zählen Unfall, Verletzung, Krankheit, Überdruß, Langeweile, Nachlässigkeit, Verspätung, Müdigkeit, Aufs-Klo-Gehen, Waschen und Essen, Abwesenheit, Streiks usw. Roboter und Automaten haben die meisten dieser menschlichen Schwächen nicht...

Idealerweise sollten Produktionselemente eingesetzt werden, die jederzeit an die Arbeit gestellt werden können, keine häufigen Ruhepausen brauchen, ohne große Vorwarnung und zu unsozialen Zeiten, einschließlich Feiertagen arbeiten können, ohne dauernde Aufsicht arbeiten können, unangenehme Arbeitsumstände aushalten können und häufigen Wechsel tolerieren und bewältigen... Die Kosten des Robotereinsatzes bleiben ungefähr gleich, was auch immer der Einsatzzeitpunkt. Die Kosten für menschliche Arbeit können sich beträchtlich erhöhen durch Überstunden, unsoziale Zeiten oder Feiertage...

Fixe Kosten sind solche, die unabhängig von der Ausbringung anfallen. Es folgt, daß aus Effizienzgründen entweder die Produktion für ein gegebenes Niveau fixer Kosten maximiert werden muß, oder, insofern die Produktion nicht ins Unendliche wachsen kann, solche Kosten auf ein möglichst niedriges Niveau gedrückt werden müssen. Fixe Kostenelementem, die zum Betrieb von Robotern gehören, schließen ein Programmierung, Wartung, technische Produktionsplanung, Preisverfall usw. Fixe Kosten, die zum Gebrauch menschlicher Arbeit gehören, entstehen aus juristischem Aufwand, Sozialleistungen und Sicherheitsvorkehrungen, Aufsicht, Zeitüberwachung, Arbeitsplanung und Administration, Gestaltung der Arbeitsumgebung usw. Ganze Abteilungen sind oft für solche Betreuung der eigentlichen Arbeitsmannschaft nötig.“ (B. Leatham-Jones: Elements of Industrial Robotics, 1986)

Vor solchen Gesichtspunkten blamiert sich die beliebte Problematisiererei, ob jetzt die Arbeit ausstirbt. Ausgangspunkt des Roboters ist der kapitalistische Arbeitsplatz, und sein Lebensprinzip ist die Gewinnkalkulation: Technisch wie ökonomisch unterstellt der Roboter die Lohnarbeit, mit der er sich vergleicht. Die Autoren halten ihn deshalb nicht für das ausgezeichnete Mittel des Sozialismus. Soweit er die Arbeit erleichtert, kommt er zum Einsatz; wenn er aufgrund seiner Beschränktheit die eine oder andere Sache genauer zu erledigen gestattet als es der menschliche Organismus wegen der dazugehörigen und spürbaren Beschränkungen vermag. Freilich nicht, um dann seine Bedienungsmannschaft zum achtstündigen disziplinierten Anhängsel zu erniedrigen.

Industrieroboter sind historisch ein Produkt der Maschinenbauer, das erst jetzt mit der einschlägigen AI-Forschung zu verschmelzen beginnt. Das Bedürfnis, Handhabungsautomaten „intelligenter“ zu machen, rührt einerseits aus den Schwierigkeiten ihrer Programmierung. (Das wichtigste Verfahren ist immer noch, daß der Roboter, um die richtige Bewegung zu lernen, d.h, die einzelnen Winkelstellungen zu registrieren, zunächst geführt wird.) Zum anderen soll der Roboter keine genau definierte und konstante Umgebung brauchen, also, wiewohl programmiert, noch Variationen in Position, Orientierung oder Art des zugeführten Arbeitsgegenstandes verkraften. Statt also einer minutiös vorweg definierten Bewegung zu folgen, soll der Roboter deren Details selbständig anhand einer Beschreibung des Ziels und einer Wahrnehmung der aktuellen Situation aussuchen und zusammensetzen; man bemüht sich deshalb, ihm die oben beschriebenen Techniken der Bild- und Wissensverarbeitung aufzupfropfen.

Zur Herkunft des Programms

Am Roboter wird deutlich, was Kisten und Kästen praktisch mit Intelligenz zu tun haben. Sie wird nicht nachgebaut und ersetzt, sondern ausgeschaltet, weil sie sich in der kapitalisitisch organisierten Arbeit und dem zugrunde liegenden Rechnungswesen störend bemerkbar macht. Das ist insofern zu machen, als zuvor die Inhaber der Intelligenz beim Arbeiten auf deren Gebrauch verzichtet haben, soweit es die „Natur“ ihrer Tätigkeit erforderte. Zugunsten ihrer Funktion im Arbeitsprozeß, die auf dem ausgiebigen Gebrauch der mechanischen Leistungen des Menschengeistes beruht, haben sich Willen und Bewußtsein darauf zu richten, daß der Einsatz dieser mechanischen Fertigkeiten gewohnheitsmäßig und effektiv erfolgt. Wegen der ruinösen Folgen, die das auf Körper und Geist hat, haben dann manche das Loblied auf den technischen Fortschritt angestimmt, als die Konstruktion tatsächlich abgetrennter, selbständiger Mechanismen gelang.

Die Ideologie der künstlichen Intelligenz kennzeichnet ihre Anhänger nicht nur als Leute, die mit der gewöhnlichen vorhandenen Intelligenz nichts Besseres anzustellen wissen, als sie mit Apparaten zu simulieren. Ihr Programm besteht im theoretischen Fanatismus der Einstellung, die in der bürgerlichen Arbeitswelt so ausgiebig zum Zuge kommt: Intelligenz gilt ihnen schlicht als ein Set brauchbarer Fähigkeiten, deren Äußerungen anderen von Nutzen zu sein hat. Dieser Anspruch an das unbekannte Wesen, auf dessen „Anpassungs“leistungen die Forscher so neugierig sind, bildet die Quelle und den Motor des ständigen Vergleichs, den sie anstellen. Stur verlegen sie sich auf die Begutachtung von Identität und Differenz, wie sie aus Funktionen ihrer hard- und software und dem Vermögen der tatsächlichen Intelligenz hervorgehen. Daß die Computerforschung immer nur flinkere Rechenmaschinen immer größerer Kapazität hervorbringt, macht ihnen dabei gar nichts aus. Der Wille zum Vergleich stammt ja nicht aus der Erklärung ihres Objekts, sondern aus dem bedingungslosen Funktionalismus, den sie für das einzig Senkrechte in der Wissenschaft halten.