Archiv der Kategorie: Ge-dacht

Das ist eher das philosophische bei uns. Lautes oder verschriftliches Denken hat hier seinen Platz: ob nun nachdenken, vorausdenken oder mitdenken ist egal

Weltgeschichte der KI (2): Böse, böse Algorithmen?

Vor einiger Zeit haben wir uns schon einmal mit dem Thema “Algorithmen” befasst und dabei festgestellt, dass es sich um einen Allzweckbegriff handelt, der plötzlich mit der Diskussion um die gesellschaftlichen Folgen der Künstlichen Intelligenz ins Gerede gekommen ist. Aus einem Prinzip, mit dem man Problemlösungen beschreiben kann, wurde etwas Geheimnisvolles, ja, Böses. In der sogenannten “schwachen KI” hat man lediglich versucht, die menschlichen Wege der Entscheidungsfindung in Computerprogrammen nachzuahmen, wobei die tatsächlichen Verhaltensweisen derartiger Programme im höchsten Maße vom Denken und Fühlen des/der jeweiligen Programmierer abhing. Denn letztlich bildeten deren Algorithmen die Art und Weise ab, wie SIE Probleme üblicherweise lösten. Ganz anders in aktuellen KI-Systemen. Vereinfacht ausgedrückt: Da schreiben sich die Computer ihre Algorithmen selbst.

Googles selbstlernendes Programm AlphaGo schlägt alle!
Googles selbstlernendes Programm AlphaGo schlägt alle!
Nachgeahmt wird also nicht mehr menschliches Denken, sondern menschliches Lernen. Das eigenständige Entwickeln, Anwenden und Verbessern von Algorithmen ist das, was man “maschinelles Lernen” nennt. Bestes, wenn auch relativ banales Beispiel für ein selbstlernendes System ist die Google-Software AlphaGo. Die beherrscht das japanische Brettspiel Go so gut, dass es sogar den amtierenden Weltmeister schlagen konnte. Ausgangspunkt waren die von Programmieren in Algorithmen gefassten Spielregeln – die ja bei Go ausgesprochen simpel sind. Dann ließ man AlphaGo gegen menschliche Gegner spielen, immer und immer wieder. Weil auch das Spielziel in den Regeln verankert ist, die das Programm “kennt”, strebte AlphaGo immer den Sieg an. Und lernte aus seinen Fehlern. Dieses Lernen bestand daraus, die Algorithmen so zu ändern, dass diese zu einer höheren Erfolgsquote führten.

Warum Go ein so gutes Spielfeld für selbstlernende KI-Systeme darstellt? Weil sich dabei im Gegensatz zum anderen komplexen Brettspiel, also Schach, durch reine Brute-Force-Technik die Spielstärke nicht verbessert – davon war im ersten Teil unserer kleinen KI-Serie die Rede. Mit anderen Worten: Mehr und noch mehr Rechenpower macht kein Go-Programm besser. Es hat etwas unglaublich Japanisches an sich, dass ein Go-Spieler immer besser wird, je mehr er aus der Spielpraxis lernt; am besten von einem Meister. Genauso gestaltete sich die “Ausbildung” von AlphaGo. Basis sind auch hier natürlich neuronale Netze, die in der Lage sind, Veränderungen an Algorithmen abzubilden.

GRM, die wahnwitzige Dystopie der Sibylle Berg
GRM, die wahnwitzige Dystopie der Sibylle Berg
Nun wird seit einiger Zeit heftig über Algorithmen diskutiert, deren Aufgabe es ist, Menschen und ihre Eigenschaften sowie Verhaltensweisen zu beurteilen. Ausgehend von der Beobachtung von Individuen auf die eine oder andere Art sollen KI-Systeme vorhersagen können, was die beobachtenden Individuen tun werden – kurzfristig, mittelfristig und langfristig. Das soll einerseits der sozialen Kontrolle dienen (wie es in der VR China schon jetzt gang und gäbe ist), andererseits der Konsumsteuerung und -steigerung. Auch diese Systeme sind selbstlernend, verändern also ihre Algorithmen selbständig. Auch bei diesen Systemen werden nur die Regeln vorgegeben. Und exakt an dieser Stelle wird die Sache zum moralischen Problem: Wer stellt die Regeln auf? Wer formuliert sie? Wer überwacht, dass diese Regeln den Grundwerten des jeweiligen Sozialsystems entsprechen? Wessen Interessen bilden diese Regeln ab?

Natürlich werden diese Regeln als Algorithmen gefasst, wenn auch als vergleichsweise simple. Beispiel: “Sieht” ein Bilderkennungssystem auf den Bildern einer Überwachungskamera eine Hand mit einem langen Messer, schlägt es Alarm, weil die zugrundliegende Regeln besagt, dass Aktionen mit einer Waffe verboten sind. Dazu muss dem Kontrollsystem “beigebracht” werden, was eine Waffe ist und wie Situationen beschaffen sein müssen, in denen der Waffengebrauch unerwünscht ist. Womit klar wird: Nicht der Algorithmus ist böse, sondern schlimmstenfalls das, was durch ihn beschrieben und entschieden wird.

[Bildnachweis: Titelbild – via datascienceblog.pw; AlphaGo – via Business Insider]

Das Telefonjoker-Prinzip und die selbstverschuldete Unmündigkeit

[Kurzessay] Wenn ein Kandidat der Quizshow “Wer wird Millionär?” (WWM) partout nicht weiterweiß, kann er den Telefonjoker ziehen und einen von drei Helfern anrufen, die es vielleicht besser wissen. Vermutlich ohne es zu wissen, haben die Macher der beliebten Sendung ein grundsätzliches Prinzip dessen implementiert, was man “Schwarmwissen” nennt. Und gleichzeitig ein schlagendes Beispiel dafür gefunden, dass es wichtiger zu wissen, wer etwas weiß oder wo man eine Antwort findet. Dieses Prinzip ist so alt wie die Aufklärung an sich, dieser geisteswissenschaftlichen Revolution des 18. Jahrhunderts, die (so Immanuel Kant) den Menschen aus seiner “selbst verschuldeten Unmündigkeit” führen sollte und in der Erkenntnis “Wissen ist Macht” mündete. Das Telefonjoker-Prinzip und die selbstverschuldete Unmündigkeit weiterlesen

Die Zwanzigerjahre: Was wird anders in der digitalen Welt?

“Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen”, heißt es in einem Zitat, das wir schon vor anderthalb Jahren brachten als es um Googles inzwischen fast vergessene Datenbrille (siehe Titelbild) ging. Und weil Vorhersagen so schwierig sind, wollen wir in dieser Vorschau eben nicht prognostizieren, was im Jahr 2030 in einem Rückblick auf die Zwanzigerjahre stehen würde, sondern einfach ein paar offensichtliche Trends weiterstricken. Beginnen wir mit dem schnöden Mammon. Die Zwanzigerjahre: Was wird anders in der digitalen Welt? weiterlesen