Die Geschichte der Computerei lehrt uns: Nicht das technisch Bessere hat sich immer durchgesetzt, sondern nur der Standard. Der IBM PC mit seinen Komponenten ist das beste Beispiel dafür. Das müssen die Mütter und Väter des Universal Serial Bus (kurz: USB) geahnt haben, als sie anfangs der Neunzigerjahre begannen, ein wirklich universelles Schnittstellensystem zu entwickeln. Also einen Standard, der es ermöglichen sollte, alles mit allem zu verbinden. Damit würde, so ihre Annahme, eine der größten Unbequemlichkeiten im Bereich der digitalen Geräte bereinigt. Um ehrlich zu sein: Noch etwa 1999 oder 2000 haben wir Digisaurier nicht wirklich daran geglaubt, dass sich USB auf breiter Front durchsetzen könnte.
Apropos: Alle Chip-Sätze der ersten beiden USB-Generationen kamen von IBM, auch wenn sie möglicherweise ein anderes Label trugen. Und es dauerte relativ lange, bis die damals in diesem Bereich hochaktiven taiwanesischen Unternehmen begannen, selbst USB-Chips zu bauen und für immer kleineres Geld anzubieten. Und trotzdem: Zur Standardausrüstung von Laptops und Notebooks wurden USB-Schnittstellen erst ab etwa 2004. Und den Durchbruch erzielte diese Schnittstellentechnologie dann mit der Ankunft des Smartphones – für die Entwickler der handlichen Computer zum Telefonieren war es natürlich ein Segen, einen platzsparenden, universellen Anschluss einbauen zu können.
Denn der Standard selbst hat sich in zwei Wege gespalten: der Datenschnittstelle und der Stromversorgung. Wenn wir heute mit USB-Ladegeräten hantieren, haben wir es eigentlich mit einer Perversion der USB-Philosophie zu tun. Zwar gelten die Spezifikationen für Leistungen bis zu 100 Watt für jede aktuelle USB-Schnittstelle, aber bei den Ladengeräten werden die Datenleitungen einfach lahmgelegt. Die Spaltung wird weitergehen. In einigen Labors wird a) an Strom-USB mit wesentlich höherer Leistung und b) an USB-Ladeschalen gearbeitet. Beide hätten dann mit der Datenverbindung zwischen Geräten nichts mehr zu tun.