Last Updated on 25.11.2020 by Redaktion Digisaurier
Vor einiger Zeit haben wir uns schon einmal mit dem Thema „Algorithmen“ befasst und dabei festgestellt, dass es sich um einen Allzweckbegriff handelt, der plötzlich mit der Diskussion um die gesellschaftlichen Folgen der Künstlichen Intelligenz ins Gerede gekommen ist. Aus einem Prinzip, mit dem man Problemlösungen beschreiben kann, wurde etwas Geheimnisvolles, ja, Böses. In der sogenannten „schwachen KI“ hat man lediglich versucht, die menschlichen Wege der Entscheidungsfindung in Computerprogrammen nachzuahmen, wobei die tatsächlichen Verhaltensweisen derartiger Programme im höchsten Maße vom Denken und Fühlen des/der jeweiligen Programmierer abhing. Denn letztlich bildeten deren Algorithmen die Art und Weise ab, wie SIE Probleme üblicherweise lösten. Ganz anders in aktuellen KI-Systemen. Vereinfacht ausgedrückt: Da schreiben sich die Computer ihre Algorithmen selbst.
Warum Go ein so gutes Spielfeld für selbstlernende KI-Systeme darstellt? Weil sich dabei im Gegensatz zum anderen komplexen Brettspiel, also Schach, durch reine Brute-Force-Technik die Spielstärke nicht verbessert – davon war im ersten Teil unserer kleinen KI-Serie die Rede. Mit anderen Worten: Mehr und noch mehr Rechenpower macht kein Go-Programm besser. Es hat etwas unglaublich Japanisches an sich, dass ein Go-Spieler immer besser wird, je mehr er aus der Spielpraxis lernt; am besten von einem Meister. Genauso gestaltete sich die „Ausbildung“ von AlphaGo. Basis sind auch hier natürlich neuronale Netze, die in der Lage sind, Veränderungen an Algorithmen abzubilden.
Natürlich werden diese Regeln als Algorithmen gefasst, wenn auch als vergleichsweise simple. Beispiel: „Sieht“ ein Bilderkennungssystem auf den Bildern einer Überwachungskamera eine Hand mit einem langen Messer, schlägt es Alarm, weil die zugrundliegende Regeln besagt, dass Aktionen mit einer Waffe verboten sind. Dazu muss dem Kontrollsystem „beigebracht“ werden, was eine Waffe ist und wie Situationen beschaffen sein müssen, in denen der Waffengebrauch unerwünscht ist. Womit klar wird: Nicht der Algorithmus ist böse, sondern schlimmstenfalls das, was durch ihn beschrieben und entschieden wird.
[Bildnachweis: Titelbild – via datascienceblog.pw; AlphaGo – via Business Insider]