Was zur #Hölle… bewirken #Hashtags wirklich?

Eine Legende geht so, dass #Twitter den #Hashtag erfunden habe. Bei einer anderen Mär wird der #OpenSource-Vorreiter Chris Messina #chrismessina als Erfinder genannt. In Wahrheit stammt das manchmal #Lattenzaun genannte Symbol (das offiziell auf Deutsch “Doppelkreuz” heißt) aus dem #Chatprogramm IRC, wo es als Bezeichner für Kanalnamen benutzt wurde. Der Mikrobloggingservice Twitter aber war es, der dem #Gatter eine neue, bis heute in den sozialen Medien gültige Funktion gegeben hat. Anwender, die nicht so ganz tief drinstecken, fragen sich manchmal, ob das Verhashtaggen von Nachrichten überhaupt etwas bringt. Und wenn ja, was. Was zur #Hölle… bewirken #Hashtags wirklich? weiterlesen

Weltgeschichte der KI (2): Böse, böse Algorithmen?

Vor einiger Zeit haben wir uns schon einmal mit dem Thema “Algorithmen” befasst und dabei festgestellt, dass es sich um einen Allzweckbegriff handelt, der plötzlich mit der Diskussion um die gesellschaftlichen Folgen der Künstlichen Intelligenz ins Gerede gekommen ist. Aus einem Prinzip, mit dem man Problemlösungen beschreiben kann, wurde etwas Geheimnisvolles, ja, Böses. In der sogenannten “schwachen KI” hat man lediglich versucht, die menschlichen Wege der Entscheidungsfindung in Computerprogrammen nachzuahmen, wobei die tatsächlichen Verhaltensweisen derartiger Programme im höchsten Maße vom Denken und Fühlen des/der jeweiligen Programmierer abhing. Denn letztlich bildeten deren Algorithmen die Art und Weise ab, wie SIE Probleme üblicherweise lösten. Ganz anders in aktuellen KI-Systemen. Vereinfacht ausgedrückt: Da schreiben sich die Computer ihre Algorithmen selbst.

Googles selbstlernendes Programm AlphaGo schlägt alle!
Googles selbstlernendes Programm AlphaGo schlägt alle!
Nachgeahmt wird also nicht mehr menschliches Denken, sondern menschliches Lernen. Das eigenständige Entwickeln, Anwenden und Verbessern von Algorithmen ist das, was man “maschinelles Lernen” nennt. Bestes, wenn auch relativ banales Beispiel für ein selbstlernendes System ist die Google-Software AlphaGo. Die beherrscht das japanische Brettspiel Go so gut, dass es sogar den amtierenden Weltmeister schlagen konnte. Ausgangspunkt waren die von Programmieren in Algorithmen gefassten Spielregeln – die ja bei Go ausgesprochen simpel sind. Dann ließ man AlphaGo gegen menschliche Gegner spielen, immer und immer wieder. Weil auch das Spielziel in den Regeln verankert ist, die das Programm “kennt”, strebte AlphaGo immer den Sieg an. Und lernte aus seinen Fehlern. Dieses Lernen bestand daraus, die Algorithmen so zu ändern, dass diese zu einer höheren Erfolgsquote führten.

Warum Go ein so gutes Spielfeld für selbstlernende KI-Systeme darstellt? Weil sich dabei im Gegensatz zum anderen komplexen Brettspiel, also Schach, durch reine Brute-Force-Technik die Spielstärke nicht verbessert – davon war im ersten Teil unserer kleinen KI-Serie die Rede. Mit anderen Worten: Mehr und noch mehr Rechenpower macht kein Go-Programm besser. Es hat etwas unglaublich Japanisches an sich, dass ein Go-Spieler immer besser wird, je mehr er aus der Spielpraxis lernt; am besten von einem Meister. Genauso gestaltete sich die “Ausbildung” von AlphaGo. Basis sind auch hier natürlich neuronale Netze, die in der Lage sind, Veränderungen an Algorithmen abzubilden.

GRM, die wahnwitzige Dystopie der Sibylle Berg
GRM, die wahnwitzige Dystopie der Sibylle Berg
Nun wird seit einiger Zeit heftig über Algorithmen diskutiert, deren Aufgabe es ist, Menschen und ihre Eigenschaften sowie Verhaltensweisen zu beurteilen. Ausgehend von der Beobachtung von Individuen auf die eine oder andere Art sollen KI-Systeme vorhersagen können, was die beobachtenden Individuen tun werden – kurzfristig, mittelfristig und langfristig. Das soll einerseits der sozialen Kontrolle dienen (wie es in der VR China schon jetzt gang und gäbe ist), andererseits der Konsumsteuerung und -steigerung. Auch diese Systeme sind selbstlernend, verändern also ihre Algorithmen selbständig. Auch bei diesen Systemen werden nur die Regeln vorgegeben. Und exakt an dieser Stelle wird die Sache zum moralischen Problem: Wer stellt die Regeln auf? Wer formuliert sie? Wer überwacht, dass diese Regeln den Grundwerten des jeweiligen Sozialsystems entsprechen? Wessen Interessen bilden diese Regeln ab?

Natürlich werden diese Regeln als Algorithmen gefasst, wenn auch als vergleichsweise simple. Beispiel: “Sieht” ein Bilderkennungssystem auf den Bildern einer Überwachungskamera eine Hand mit einem langen Messer, schlägt es Alarm, weil die zugrundliegende Regeln besagt, dass Aktionen mit einer Waffe verboten sind. Dazu muss dem Kontrollsystem “beigebracht” werden, was eine Waffe ist und wie Situationen beschaffen sein müssen, in denen der Waffengebrauch unerwünscht ist. Womit klar wird: Nicht der Algorithmus ist böse, sondern schlimmstenfalls das, was durch ihn beschrieben und entschieden wird.

[Bildnachweis: Titelbild – via datascienceblog.pw; AlphaGo – via Business Insider]

Der DeepL-Translator: Wenn die KI zum Übersetzer wird

Die Übersetzungen des Google Translators sorgen gern mal für einen Lacher, besonders wenn ein Text aus einer eher exotischen Sprachen ins Deutsche oder Englische übertragen wird. Dabei ist die Technik, die Google genau wie Microsoft anwenden, an sich hochmodern. Die Maschine ist ein KI-System, in der rekurrente neuronale Netze (RNN) wirken. Aber das Kölner Unternehmen DeepL GmbH (früher: Linguee) übertrifft die Branchengiganten bei Weitem, weil es bei seinem Übersetzer auf CNN (Convolutional Neural Networks) setzt. Der DeepL-Translator: Wenn die KI zum Übersetzer wird weiterlesen

Die Zukunft betrachtet mit dem Wissen der Vergangenheit. Die Vergangenheit betrachtet mit dem Blick auf die Zukunft.