Die neuronalen Netze im menschlichen Hirn (Foto: Wikimedia - siehe Bildnachweis unten)

Kleine Weltgeschichte der KI (1): Vom Elektronenhirn zu neuronalen Netzen

Es ist schon verrückt: Was uns Digisauriern als eine der großen Verheißungen der Computerei vorkam, ist heute für viele Menschen ein Angstauslöser. Die Rede ist von der sogenannten „Künstlichen Intelligenz„, kurz: KI (oder auf Englisch „Artificial Intelligence“, AI). Wer ein bisschen zu viele Science-Fiction-Filme gesehen hat, fürchtet die Machtübernahme durch die Maschinen. Andere sehen ihre Jobs demnächst von Algorithmen übernommen. Und es erscheint ziemlich vielen Menschen als Bedrohung, dass die Systeme irgendwann alles über einen wissen. Dumm nur, dass nur ein Bruchteil der Menschheit mit den Fakten zur KI vertraut ist. Dagegen wollen wir mit unserer kleinen Serie etwas unternehmen.

Das Duck'sche Elektronengehirn (Abb.: Dr.-Erika-Fuchs-Stiftung)
Das Duck’sche Elektronengehirn (Abb.: Dr.-Erika-Fuchs-Stiftung)
Eigentlich lachhaft, dass schon die riesigen, aber langsamen, mit Lochkarten gefütterten Rechner von Zeitgenossen als „Elektronenhirne“ bezeichnet wurde, ging denen doch jede Spur von Intelligenz ab. Aber, anders konnte man in den Fünfziger- und Sechzigerjahre wohl nicht fassen, was solche Maschinen ganz konkret in der Lage waren zu erledigen. Die Großrechner jenen Jahre waren schon ganz gut im Rechnen und konnten so komplexe Statistiken erzeugen und Formeln berechnen, deren humane Bearbeitung Wochen, Monate oder gar Jahre gedauert hätte.

Alan Turing und sein Test (Screenshot: TED Ed)
Alan Turing und sein Test (Screenshot: TED Ed)
Und doch: Propheten wie der begnadete Alan Turing hatten bereits eine Vision von schlauen Systemen. Der Schlüssel schien ihm und anderen zu sein, dass eine Maschine die natürliche, also von Menschen gesprochene Sprache verstehen könnte. Dass sie also den Sinn und Kontext von komplexen Sätzen entschlüsseln und in natürlicher Sprache antworten könnten. Noch heute hat der Turing-Test seine Bedeutung behalten. Und ein Gespräch mit Eliza, dem 1966 von Joseph Weizenbaum entwickelten Computerprogramm, kann noch heute verblüffen.

Die Rosinen in den Köpfen anderer Vordenker waren jedoch erheblich größer. Auch wenn es bis heute keine allgemeingültige Definition von Intelligenz gibt, träumten sie davon, das menschliche Hirn nachzubilden, also die Abläufe dort so in Programmierung zu gießen, dass sich ein Computer verhalten könne wie ein Mensch. Anfangs waren die Wege der KI-Forschung verschlungen. Während sich die einen auf das Beherrschen natürlicher Sprache fokussierten, arbeiteten andere an der Automatisierung intelligenten Verhaltens und wieder andere an der Entwicklung selbstlernender Systeme.

Schematische Darstellung des Dijkstra-Algorithmus (Abb.: SmithCollege)
Schematische Darstellung des Dijkstra-Algorithmus (Abb.: SmithCollege)
Zu einem Testfeld wurde das Schachspiel. Noch bis in die Siebzigerjahre hinein waren Schachexperten davon überzeugt, dass kein Computer je würde besser Schach spielen können als – sagen wir einmal – ein vierjähriges Kind, das die Regeln beherrscht. Dass es anders kam, hat zunächst wenig mit künstlicher Intelligenz zu tun, denn Wissenschaftler (übrigens vor allem in Deutschland) fanden heraus, dass es einem Rechner gelingen könnte, zu jedem Zeitpunkt praktisch alle möglichen Züge und Folgezüge und Folgezüge und … durchzurechnen. Sie schrieben Programme, in denen Algorithmen zum Einsatz kamen, die noch heute im Computerschach Gültigkeit haben. Gleichzeitig kamen diese Forscher zu dem Ergebnis, dass die menschliche Intelligenz an der Stelle einsetzt, an der sinnlose Züge und damit ganze Zugbäume eliminiert werden.

1985 - Das große Computerschachbuch
1985 – Das große Computerschachbuch
Diese Erkenntnis in Algorithmen umzusetzen, war der Beitrag der Schachprogrammierer zur Entwicklung der künstlichen Intelligenz. Und ziemlich plötzlich, etwa Mitte der Achtzigerjahre, erkannten ganz verschiedene Akteure das ein Fortschritt bei den Algorithmen etwas mit der Fähigkeit von Computersystemen zu tun hatte, selbständig zu lernen. Bis dahin „lernten“ Computer gar nicht, sondern arbeiteten sorgfältig, aber stupide den Code ab, den man ihnen zu fressen gab. Sich auf verändernde Bedingungen einzustellen, war Rechnern nicht möglich.

Modell eines künstlichen Neurons (via Wikimedia, siehe unten)
Modell eines künstlichen Neurons (via Wikimedia, siehe unten)
Dabei hatten sich schon in den Vierzigerjahre namhafte Wissenschaftler mit dem Thema der neuronalen Netze befasst. Warren McCulloch und Walter Pitts skizzierten ein Modell zur Verknüpfung einzelner, autonomer Elemente zu Netzen, wobei diese sich je nach der Problemstellung zusammenfinden – dies entsprach dem Stand der Dinge bei den Neurowissenschaften, also der Lehre von der Funktionsweise des menschlichen Hirn. Die These der beiden – denn experimentell ließ sich die Sache nicht belegen – lautete, dass sich mit künstlichen neuronalen Netzen praktisch jedes logische und arithmetische Problem lösen ließe. Außerdem definierten sie das Neuron als logisches Element mit mehreren Eingängen und einem Ausgang – ein Modell, das bis heute gültig ist.

Die Hebbsche Lernregel
Die Hebbsche Lernregel
Etwa zur selben Zeit stellte der Psychologe Donald Olding Hebb eine allgemeine Regel zum Zustandekommen von Lernen auf, die Hebbsche Lernregel. Ausgangspunkt war die Annahme, dass sich Hirnzellen (Neuronen) durch Signale über ihre Synapsen ständig gegenseitig beeinflussen und dass der Einfluss eines Neuron auf ein anderes dieses zu einer metabolischen Veränderung oder zum Wachstum anregen könne – was in beiden Fällen das Gewicht eines Neurons ändert. Dass hat Hebbs später nachweisen können und die schöne Formel „What fires together, wires together“ dafür gefunden, dass sich so Netze aus Neuronen bilden. Sind Neuronen miteinander „verdrahtet“, lernen sie durch die veränderte synaptische Übertragung voneinander.

SNARC - die erste Maschine mit einem künstlichen neuronalen Netz (via historyof.ai, siehe unten)
SNARC – die erste Maschine mit einem künstlichen neuronalen Netz (via historyof.ai, siehe unten)
Nachdem dieses Grundprinzip des neuronalen Lernen bewiesen war, machte sich der legendäre Marvin Minsky 1951 bei der Arbeit an seiner Dissertation gemeinsam mit Dean Edmonds daran, einen neuronalen Netzcomputer namens SNARC (Stochastic Neural Analog Reinforcement Calculator) zu bauen, der das Verhalten einer Maus in einem Labyrinth simulieren sollte. Kern des Konzept war die automatische Veränderung der Neuronen-Gewichte – ein Prinzip, das in der KI bis heute Gesetz ist. Funktioniert hat SNARC nur theoretisch, er regte allerdings die Phantasie vieler Forscher an, die sich 1956 auf der Dartmouth Conference trafen und dort den Begriff „Artificial Intelligence“ prägten.

Von 1957 bis 1958 entwickelten Frank Rosenblatt und Charles Wightman den ersten erfolgreichen Neurocomputer, mit seinem 20×20 Pixel großen Bildsensor bereits einfache Ziffern erkennen konnte. 1959 kam das Adaline-Modell, das auf der Neuron-Definition basiert und ein sogenanntes Perzeptron bildet. Durch den Input über die eingehenden Synapsen verändert das Neuron sein Gewicht und erzeugt einen entsprechenden Output. In den folgenden Jahren mehrten sich die Zweifel an der praktischen Anwendbarkeit neuronaler Netze, weil die Forscher vor damals unlösbaren Problemen standen. 1969 nahm die KI-Forschung zunächst ein abruptes Ende.

Tatsächlich aber waren in den knapp 25 Jahren der wissenschaftlichen Forschungen auf den Gebieten der Neurophysiologie und der Informatik alle wesentlichen Prinzipen, Modelle und Thesen entstanden, auf dem der aktuelle Stand der Dinge bei der Künstlichen Intelligenz fußt.

[Fortsetzung folgt…]

[Bildquellen – Titelbild: Hagmann P, Cammoun L, Gigandet X, Meuli R, Honey CJ, Wedeen VJ, Sporns O via Wikimedia unter der Lizenz CC BY 3.0; Elektronengehirn: Dr.-Erika-Fuchs-Stiftung; Dijkstra-Algorithmus: Smith College; Neuron-Modell: via Wikimedia unter der Lizenz CC BY 3.0; SNARC: via historyof.ai;]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert