KI-Forschung: Eine kurze Geschichte über Kackenten, Schachtürken und Simulanten.

/

Allgemein

/

Bild c xxx

Es überrascht nicht, dass schon das Universalgenie Wilhelm Gottfried Leibniz über „Künstliche Intelligenz“ (KI) sinnierte. Aber ausgerechnet der Erfinder der Rechenmaschine, Entdecker der binären Zahlen und Zeichner phantastischer Automaten schloss für die Zukunft aus, dass Maschinen je denken könnten. Ein genauer Blick in das innere einer Maschine würde zeigen, dass diese frei von „Perception und Empfindung“ seien. Für die von ihm im Jahre 1700 gegründete Akademie wollte Friedrich der Große 40 Jahre später einen gewissen Jacques de Vaucanson verpflichten. Vaucanson hatte u.a. eine mechanische Ente samt künstlichem Verdauungstrakt entwickelt und mit dieser unerhörten Entwicklung die Wissenschaftler und Fürsten seiner Zeit in Aufregung versetzt. Das Angebot des Preußenkönigs schlug er aus. Damals waren Paris und London die Zentren für große Geister und Erfinder. Das Investment hätte sich für Berlin vermutlich nicht gelohnt, denn der Plan von Vaucanson, einen künstlichen Menschen zu erschaffen, blieb unerfüllt. Aber der Traum, die Natur zu imitieren und sogar das menschliche Denken zu simulieren, blieb.

Und nicht jeder Versuch war so dreist, wie der des österreichischen Mechanikers Wolfgang von Kempelen, der 1769 vorgab, einen Schachroboter entwickelt zu haben. In Wahrheit saß im inneren des sogenannten „Schachtürken“ ein Schauspieler, der die Züge machte.

Geprägt wurde der Terminus „Künstliche Intelligenz“ von dem US-amerikanischen Logiker John McCarthy, als er im Sommer 1956 in Dartmouth einen zweimonatigen Workshop aufsetzte. Titel: „Dartmouth Summer Research Project on Artificial Intelligence.“ Unter den 10 Teilnehmern war auch Jahrhundertgenie John von Neumann. Bereits auf der Konferenz gab einen großen Richtungsstreit in zwei Lager. Die Verfechter der regelbasierten KI, die Logiker und die Anhänger der statistischen Mustererkennung, die Konnektionisten, gingen von da an getrennte Wege. Der MIT-Professor Andrew McAfee erklärt den Unterschied sehr anschaulich wie folgt: Der Ansatz der Logiker gleicht den von Erwachsenen, die eine Fremdsprache lernen. Die Konnektionisten und Anhänger von neuronalen Netzen gehen eher vor wie Kinder, die ihre erste Sprache lernen. Letztere sind die Wegbereiter der KI-Forschung, die heute „Maschine Learning“ und „Deep Learning“ bezeichnet wird.

Als die Logiker ein Programm präsentierten, das die wichtigsten Theoreme des philosophischen Standardwerks Principia Mathematica von A. Whitehead und B. Russel bewies, deutete alles auf die Dominanz der regelbasierten KI hin. Doch Jahrzehnte Versuche, mit Hilfe von Regeln Bilder und Texte zu erkennen, blieben deutlich hinter den Erwartungen zurück. Berühmt ist die Anekdote über ein KI-Übersetzungsprogramm, das den Satz „The spirit is willing, but the flesh is weak“ übersetzte mit „The Vodka is good, but the meat is rotten.“

Das Lager der Konnektionisten hatte schon früher die Segel gehisst. 1958 lud die US-Navy zu einer Pressekonferenz ein, um die von ihr finanziere Maschine „Perceptron“ zu präsentieren. Die auf Basis neuronaler Netze gebaute Maschine, die vorgeblich dem menschlichen Gehirn nachgebaut war, wurde vollmundig angepriesen als ein „Embryo eines Computers, das schon bald reden, laufen, sehen, schreiben, sich reproduzieren und reflektieren sollte.“ Der Durchbruch des maschinellen Denkens fiel aus, in die Adultphase hat es der Perceptron nicht mehr geschafft, sondern eher den tiefen Winter der AI-Forschung eingeläutet. Fördermittel wurden gestrichen, Forschungsprogramme gestoppt, manche Karrieren fast verhindert. So wäre es beinah dem heute gefeierten KI-Forscher Geoffrey Hinton gegangen. Als er 15 Jahre nach dem famosen Perceptron sein Studium in Cambridge abschloss, legte er lieber eine Pause als Schreiner ein, bevor er mühsam neuronale Netze für die KI-Forschung aufbaute.

Doch was genau ist seither passiert, das den CEO von Google zu der Aussage verleitet, KI sei für die Menschheit noch entscheidender als die Erzeugung der Elektrizität? Was hat zu der Explosion von Anwendungen geführt wie autonomes Fahren, Internet der Dinge, Sprachassistenten wie Siri und Alexa. Eine gute Erklärung ist, dass das Zusammenprallen unterschiedlicher Entwicklungen den Fortschritt und vielleicht sogar den Durchbruch möglich gemacht hat. Gill Prett, der CEO von Toyota Research Institut, spricht vom Nexus der fünf Kräfte, die er unter dem Akronym DANCE zusammenfasst (data, algorithms, networks, the cloud, and exponentially improving hardware).

Trotz gewaltiger Rechenleistung, Explosion von Daten und Software, die stets besser und erschwinglicher wird, vielmehr als ein Denksimulator ist der Computer auch heute nicht. Er funktioniert besser als der Mensch, er kann auch besser Schach und Go spielen, und mittlerweile kann er Musik komponieren, dichten und malen. Aber er ist nur ein Simulant, und wahrscheinlich ist der Mensch nicht schlau genug, um sich selbst zu imitieren, oder wie Jostein Gaarder sagt: „Wenn das Gehirn des Menschen so einfach wäre, dass wir es verstehen könnten, dann wären wir so dumm, dass wir es doch nicht verstehen würden.“

Übrigens, der Leibniz-Preis, der wichtigste Forschungsförderpreis in Deutschland geht dieses Jahr an Prof. Dr. Bernhard Schölkopf. Raten Sie mal, womit sich der schlaue Herr Schölkopf beschäftigt. Richtig, Maschinelles Lernen, und zwar am Max-Planck-Institut für Intelligente Systeme in Tübingen.

Weitere News