Algorithmen gehen auch ganz ohne Computer mit Kreide und Tafel

Weltgeschichte der KI (2): Böse, böse Algorithmen?

Vor einiger Zeit haben wir uns schon einmal mit dem Thema „Algorithmen“ befasst und dabei festgestellt, dass es sich um einen Allzweckbegriff handelt, der plötzlich mit der Diskussion um die gesellschaftlichen Folgen der Künstlichen Intelligenz ins Gerede gekommen ist. Aus einem Prinzip, mit dem man Problemlösungen beschreiben kann, wurde etwas Geheimnisvolles, ja, Böses. In der sogenannten „schwachen KI“ hat man lediglich versucht, die menschlichen Wege der Entscheidungsfindung in Computerprogrammen nachzuahmen, wobei die tatsächlichen Verhaltensweisen derartiger Programme im höchsten Maße vom Denken und Fühlen des/der jeweiligen Programmierer abhing. Denn letztlich bildeten deren Algorithmen die Art und Weise ab, wie SIE Probleme üblicherweise lösten. Ganz anders in aktuellen KI-Systemen. Vereinfacht ausgedrückt: Da schreiben sich die Computer ihre Algorithmen selbst.

Googles selbstlernendes Programm AlphaGo schlägt alle!
Googles selbstlernendes Programm AlphaGo schlägt alle!
Nachgeahmt wird also nicht mehr menschliches Denken, sondern menschliches Lernen. Das eigenständige Entwickeln, Anwenden und Verbessern von Algorithmen ist das, was man „maschinelles Lernen“ nennt. Bestes, wenn auch relativ banales Beispiel für ein selbstlernendes System ist die Google-Software AlphaGo. Die beherrscht das japanische Brettspiel Go so gut, dass es sogar den amtierenden Weltmeister schlagen konnte. Ausgangspunkt waren die von Programmieren in Algorithmen gefassten Spielregeln – die ja bei Go ausgesprochen simpel sind. Dann ließ man AlphaGo gegen menschliche Gegner spielen, immer und immer wieder. Weil auch das Spielziel in den Regeln verankert ist, die das Programm „kennt“, strebte AlphaGo immer den Sieg an. Und lernte aus seinen Fehlern. Dieses Lernen bestand daraus, die Algorithmen so zu ändern, dass diese zu einer höheren Erfolgsquote führten.

Warum Go ein so gutes Spielfeld für selbstlernende KI-Systeme darstellt? Weil sich dabei im Gegensatz zum anderen komplexen Brettspiel, also Schach, durch reine Brute-Force-Technik die Spielstärke nicht verbessert – davon war im ersten Teil unserer kleinen KI-Serie die Rede. Mit anderen Worten: Mehr und noch mehr Rechenpower macht kein Go-Programm besser. Es hat etwas unglaublich Japanisches an sich, dass ein Go-Spieler immer besser wird, je mehr er aus der Spielpraxis lernt; am besten von einem Meister. Genauso gestaltete sich die „Ausbildung“ von AlphaGo. Basis sind auch hier natürlich neuronale Netze, die in der Lage sind, Veränderungen an Algorithmen abzubilden.

GRM, die wahnwitzige Dystopie der Sibylle Berg
GRM, die wahnwitzige Dystopie der Sibylle Berg
Nun wird seit einiger Zeit heftig über Algorithmen diskutiert, deren Aufgabe es ist, Menschen und ihre Eigenschaften sowie Verhaltensweisen zu beurteilen. Ausgehend von der Beobachtung von Individuen auf die eine oder andere Art sollen KI-Systeme vorhersagen können, was die beobachtenden Individuen tun werden – kurzfristig, mittelfristig und langfristig. Das soll einerseits der sozialen Kontrolle dienen (wie es in der VR China schon jetzt gang und gäbe ist), andererseits der Konsumsteuerung und -steigerung. Auch diese Systeme sind selbstlernend, verändern also ihre Algorithmen selbständig. Auch bei diesen Systemen werden nur die Regeln vorgegeben. Und exakt an dieser Stelle wird die Sache zum moralischen Problem: Wer stellt die Regeln auf? Wer formuliert sie? Wer überwacht, dass diese Regeln den Grundwerten des jeweiligen Sozialsystems entsprechen? Wessen Interessen bilden diese Regeln ab?

Natürlich werden diese Regeln als Algorithmen gefasst, wenn auch als vergleichsweise simple. Beispiel: „Sieht“ ein Bilderkennungssystem auf den Bildern einer Überwachungskamera eine Hand mit einem langen Messer, schlägt es Alarm, weil die zugrundliegende Regeln besagt, dass Aktionen mit einer Waffe verboten sind. Dazu muss dem Kontrollsystem „beigebracht“ werden, was eine Waffe ist und wie Situationen beschaffen sein müssen, in denen der Waffengebrauch unerwünscht ist. Womit klar wird: Nicht der Algorithmus ist böse, sondern schlimmstenfalls das, was durch ihn beschrieben und entschieden wird.

[Bildnachweis: Titelbild – via datascienceblog.pw; AlphaGo – via Business Insider]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert