Ernsthaft, Google? Fotobücher als KI-Anwendung

Google I/O 2017: AI is all around you…

Als im Vorfeld der jährlichen Google-Konferenz namens I/O gerüchtet wurde, Google beträte den Markt der Fotobücher, konnten sich altgediente Fans des Unternehmens, das einst eine Suchmaschine war, das Lachen kaum verkneifen. Dann betrat Vizepräsident Anil Sabharwa, zuständig für die kaufbaren Produkte aus dem Hause G. die Bühne im hauseigenen Freilichttheater, begann über die Neuausrichtung des Service „Google Photos“ zu sprechen und landete tatsächlich beim Angebot: Fotobücher von Google ab 9,99 US$. Spätestens da wussten diejenigen, die bei der I/O im Vorjahr gut aufgepasst hatten: Künstliche Intelligenz ist im Alltag angekommen – AI is all around you…

Google Photos erkennt jeden und alles

Da fragt sich der geneigte Leser, was zur Hölle denn Fotobücher mit KI zu tun haben. Ganz einfach: Wer mag, überlässt die Auswahl der Bilder einfach der Bilderkennung von Google Photos – und die ist hochintelligent, um es mal vorsichtig auszudrücken. Die App ist in der Lage, den Fotobestand eines Nutzers durchzuforsten und sinnvolle Vorschläge zu machen, die jeden denkbaren Kontext berücksichtigen. Beispiel gefällig? Unter den Bildern im Juni 2013 findet Google Photos eines, auf dem der User mit einem kleinen Hund auf dem Arm zu sehen ist. Ja, die App erkennt den Nutzer und die Tatsache, dass es sich beim flauschigen Etwas um einen Welpen handelt. Tauchen nun weitere Fotos auf, die den Hund zeigen, wird Google Photos ein Album (und damit ein Fotobuch) vorschlagen, das die Lebensgeschichte des kleinen Kerls dokumentiert. Natürlich ist die App in der Lage, gute (scharfe) und schlechte (unscharf), schöne (Licht, Farben) von weniger schönen und typische von weniger typischen Fotos im Kontext zu unterscheiden.

Wo es im vergangenen Jahr noch um den KI-Chip, den sie TPU nennen, ging, war nun KI im Alltag angesagt. Ganz offensichtlich hat Google enorme Fortschritte bei der intelligenten Bilderkennung gemacht und dies flugs in die Software integriert. Noch ein Beispiel gefällig? Fotos, auf denen Blätter von Bäumen zu sehen sind, führen zur Erkennung der jeweiligen Pflanzenart und einem Link auf Wikipedia oder ein anderes Nachschlagewerk zum Thema. Erkennt Google ein markantes Gebäude, liefert es (auf Wunsch) nicht nur den Namen, sondern die exakte Adresse und bald auch die Liste aller öffentlich bekannten Telefonnummern im Haus. Diese Infos erscheinen beispielsweise als Links in Google Maps; durch Anklicken bzw. Antippen lässt sich die Routenplanung starten und ein Anruf auslösen.

Privatsphäreeinstellungen müssen Pflichtfach werden!

Weiter im Text: Google Photo wird anbieten, störende Elemente aus Bilder herauszurechnen. Wird eine Person beispielsweise teilweise von einem Laternenpfahl verdeckt, lässt die App den verschwinden und ergänzt das Foto um das, was zuvor verdeckt wurde. Ist das schlau? Ja, das ist intelligent… Menschen werden natürlich erkannt – im Rahmen der Privatsphäreeinstellungen. Apropos: Sich mit diesen Optionen INTENSIV zu befassen und sie so zu wählen, dass von der eigenen Privatsphäre exakt das zu sehen ist, was man zeigen möchte, wird zu einer Art Überlebenstechnik und MUSS ab sofort in den Schulen gelehrt werden. Jedenfalls: Hat Google Photo Verwandte und Freunde erkannt, schlägt es vor, die entsprechenden Fotos mit diesen zu teilen. Und plötzlich findet Onkel Kurt die Fotos vom kleinen Neffen Justin in seinem Google-Photo-Bestand, ohne dass irgendwer irgendetwas daran tun muss.

So alltagspraktisch sich das alles anhört, so sehr berührt die Intelligenz in einer unscheinbaren App wie Google Photos doch tiefgehende politische und soziale Fragen. Wenn schon dieser kostenlose Service jeden auf jedem x-beliebigen Foto erkennt, dann dürften ja wohl die Systeme der Polizei und der Geheimdienste jeden identifizieren können, den irgendeine Überwachungskamera erfasst hat. Wertet eine App wie Google Photos die Sammlungen solcher Kameras aus, werden Kontexte erzeugt, die vollständige Lebensprofile ergeben können. Das ist nicht mehr Zukunftsmusik, das ist jetzt! Die nächste Stufe bei der KI-Bilderkennung dreht sich um Emotionen. Die Systeme sollen und werden erkennen, in welchem Gemütszustand sich der/die Abgebildete befindet. Weil das demnächst auch fürs Bewegtbild gilt und in Echtzeit möglich sein wird, könnten Amokläufer sehr frühzeitig und ohne menschliches Zutun identifiziert werden, bevor sie Unheil anrichten. Das wäre eine ausgesprochen menschenfreundliche Umsetzung sich rasant weiterentwickelnder Techniken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert