So denken Computer

5. Mai 2017

Zum Auftakt seiner Vorlesungsreihe "Künstliche Intelligenz für den Menschen: Digitalisierung mit Verstand" widmete sich Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster der Frage "Wie lernen, verstehen und denken Computer?" Im größten Hörsaal der Johannes Gutenberg-Universität Mainz (JGU) skizzierte der Inhaber der Johannes Gutenberg-Stiftungsprofessur 2017 die kurze Geschichte der Künstlichen Intelligenz (KI).

Es sind nur wenige Plätze frei im Hörsaal RW1. "Ich freue mich, dass Sie so zahlreich erschienen sind", begrüßt der Vorsitzende des Vereins der Freunde der Universität Mainz e.V., Peter Radermacher, das Publikum – nur um gleich hinzuzufügen: "Alles andere wäre aber auch eine Überraschung gewesen." Die Johannes Gutenberg-Stiftungsprofessur, im Jahr 2000 von den Freunden der Universität ins Leben gerufen, hat sich längst zum Publikumsmagneten entwickelt. "Sie ist zum Leuchtturm geworden, dessen Leuchtkraft weit über die Universität und die Stadt Mainz hinausreicht", betont Radermacher.

Mit Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster präsentiert diesmal ein weltweit anerkannter Informatiker ein hochaktuelles Thema. "Künstliche Intelligenz für den Menschen: Digitalisierung mit Verstand" hat der Gründungsdirektor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) seine Vorlesungsreihe überschrieben. Die Zweideutigkeit im Titel ist beabsichtigt: Wahlster geht es einerseits darum, wie der Verstand in die Maschinen kommt, er wird andererseits aber auch darüber reden, wie wichtig es ist, diese Technologie mit Verstand einzusetzen.

60 Jahre Künstliche Intelligenz

"Ich will nicht nur an der Oberfläche kratzen", so Wahlster, "sondern Sie dahin bringen, dass Sie auch anderen erklären können, wie solche Geräte funktionieren." Er verspricht: "Am Ende meiner Vorlesungsreihe werden Sie einen vollständigen Überblick über die Teilgebiete der Künstlichen Intelligenz haben, die Chancen, die Grenzen und den Forschungsbedarf."

An seinem ersten Abend auf dem Gutenberg-Campus geht es Wahlster um "Künstliche Intelligenz vs. menschliche Intelligenz: Wie lernen, verstehen und denken Computer?" Er will die Grundlagen schaffen für das Verständnis Künstlicher Intelligenz. "KI ist einfach die Realisierung von intelligentem Verhalten auf Computern", erklärt er. Immer neue Aufgaben würden an Computer herangetragen und zugleich verschiebe sich dabei der Intelligenzbegriff: "Wenn etwas mechanisch abläuft auf einer Maschine, ist es keine Intelligenz", bekommt Wahlster oft zu hören. "In einigen Jahren wird man sagen: Automatisches Autofahren, da gehört doch keine Intelligenz dazu."

Wahlster blickt auf 60 Jahre KI-Geschichte, auf wichtige Meilensteine der Forschung: Zuerst nennt er den Sieg eines Computers über Schachweltmeister Garri Kasparow. "Mittlerweile gewinnen Computer in allen Spielen." Der zweite Durchbruch gelang mit KI-Systemen, die Telefongespräche verstehen und übersetzen können. "Sie sind noch nicht so gut wie menschliche Dolmetscher, das gleich an die Adresse Ihrer Dolmetscher- und Übersetzerschule in Germersheim." Den dritten großen Schritt sieht Wahlster im bereits erwähnten automatischen Autofahren: Einer seiner Schüler brachte einen PKW erstmals dazu, selbstständig durch eine Landschaft zu manövrieren.

Vier Phasen, vier Systeme

Wie kam es zu diesen Erfolgen? Wahlster teilt die KI-Entwicklung in vier Phasen: Bis zum Jahr 1970 setzten die Fachleute auf heuristische Systeme. "Sie wendeten kleine Tricks an, um zu möglichst optimalen Ergebnissen zu kommen." Heuristische Algorithmen arbeiten mit Kniffen wie Schätzungen oder vereinfachenden Annahmen. "Das war aber eine Sackgasse", konstatiert der Informatiker.

Die wissensbasierten Systeme führten aus dieser Gasse hinaus. Bis 1990 waren sie im Trend. "Man fütterte dem Computer Wissen, um ihn dann denken zu lassen." Eine manuell erstellte Wissensbasis war die Grundlage. "Was man aber vergessen hatte: Der Mensch geht nicht nur in Vorlesungen, er erlebt ja auch. Der Physiker macht Experimente und zieht daraus Schlüsse." Es folgte die Erkenntnis: "Eintrichtern, was kluge Leute sich ausgedacht haben – das genügt nicht."

Bis zum Jahr 2010 arbeiteten die Fachleute an lernenden Systemen: Sie erlaubten maschinelles Lernen über Massendaten. Wahlster zieht den Vergleich mit dem Menschen, um die Vorgänge im Computer zu erklären: "Einiges kriegt man erklärt, anderes lernt man selbst."

In der vierten und aktuellen Phase kommen nun die kognitiven Systeme zum Zug. Sie sind eine Mischung aus wissensbasierten und lernenden Systemen. Sie beherrschen das regelbasierte Lernen, wie etwa der Analysecomputer fürs Auto, der aus Befunden nach dem Wenn-dann-Prinzip Schlüsse zieht: Wenn die Batterie okay ist, wenn die Tankuhr größer null, dann … "Einige dieser Systeme sind besser als der Fachmann", sagt Wahlster.

Unvollständige Informationen

"Diese neuen Systeme können sich aber auch neue Zusammenhänge überlegen." Wahlster erklärt das anhand eines Familienstammbaums, der vom Großvater hinunter zu den Nachkommen führt. Der Computer bekommt Informationen, was ein Elternteil, was ein Sohn oder eine Tochter ist. Gewisse Verwandtschaftsbeziehungen sind in diesem Stammbaum bereits eingezeichnet. Doch nun beginnt der Computer, weitere Verbindungen in dieses Geflecht einzufügen.

"Jetzt stehen wir vor einem großen Problem: Der Mensch arbeitet sehr viel mit nicht-monotonen Schlüssen." Das heißt: Er zieht Schlüsse, obwohl ihm nur unvollständige Informationen zur Verfügung stehen. "Das sind vorläufige Schlüsse unter Annahmen. Im Grunde schummeln wir etwas. Wir sagen: Ein Vogel fliegt, wissen aber, dass es auch Vögel gibt, die nicht fliegen." Diese nicht-monotone Logik liest sich auf den Computer zugeschnitten so: "Wenn es sich um einen Vogel handelt, aber nichts unmittelbar dagegen spricht, dass der fliegt, fliegt er eben. Wenn es allerdings ein Pinguin ist, kann er nicht fliegen."

Moderne Computer brauchen so mittlerweile keine riesigen Datenbanken mehr, um zu lernen. Wahlster nennt das "Quick, Draw!"-System von Google: Mit ein paar Strichen zeichnet man eine Katze. "Das System lernt an verschiedenen Eingaben, was eine Katze ist." Das geht auf höherer Ebene auch mit Fotos von Autounfällen. Je mehr der Computer davon verarbeitet, desto mehr erkennt er darauf: Zuerst identifiziert er Details wie scharfe Kanten, dann erkennt er die Autos und zum Schluss versteht er die Konfiguration von Unfällen.

Künstliche vs. menschliche Intelligenz

"Der Computer wird gefüttert mit Zehntausenden von Beispielen und dadurch entfaltet sich ein Netz zwischen den Neuronen", erklärt Wahlster – und ist wieder ganz nah am Modell menschlicher Lernvorgänge. Allerdings tut sich der Computer hier immer noch schwerer als der Mensch. Die Riesendatenbank ist zwar nicht mehr nötig: "Aber damit er einen Tennisaufschlag versteht, müssen wir ihm immer noch Zehntausende davon vorführen." Dem menschlichen Tennisschüler reichen wenige Demonstrationen, dann beginnt er nachzuahmen und zu improvisieren.

Computer und Mensch haben unterschiedliche kognitive Qualitäten. "Was für den Computer schwierig ist, ist für uns einfach, und was für den Computer einfach ist, ist für uns schwierig." Allerdings schaut der Informatiker Wahlster begeistert auf das menschliche Gehirn: "Es kann zwar nicht so schnell rechen wie ein Supercomputer, aber es macht mehr daraus. Und was mich immer wieder fasziniert: Es braucht extrem wenig Energie dazu."

Oft wird Wahlster gefragt, ob künstliche Intelligenz der menschlichen Intelligenz überlegen sei. Mit seiner pointierten Antwort schließt er seinen ersten Vortrag als Johannes Gutenberg-Stiftungsprofessor 2017: "Noch lange nicht – aber künstliche Intelligenz ist eben besser als menschliche Dummheit."