Wie ich lernte, die Spracherkennung zu mögen

Landschaftsfoto mit Wiese im Vordergrund
Die besten Ideen habe ich auf einem Spaziergang

Ja, ich bin ein digitaler Dino. Bei neuer Technik brauche ich manchmal Jahre, bis ich sie annehme. Oder ein paar Jahre mehr. Spracherkennung zum Beispiel: die gibt es schon ewig, aber ich habe sie nie verwendet. Bis ich plötzlich merkte, dass die ganz praktisch ist.

Spracherkennung ist mir zu  fehlerhaft – selbst optimistische 99 Prozent Erkennungsrate sind lächerlich – jedes hundertste Wort ist falsch. Mit der Tastatur bin ich außerdem 20mal schneller, wenn es ums erfassen eines Textes geht. Und ich kann mich viel besser gleich korrigieren.

Nun ist es aber so, dass ich beim spazieren gehen über Ideen und Texte nachdenke. Jeder Spaziergang ist ein Brainstorming. Manchmal formuliere ich im Gedanken Sätze aus. Am liebsten würde ich sie gleich aufschreiben. Doch womit? Mit einem iPhone? Nein, keine Lust auf der Winz-Tastatur rumzuknöpfeln. Dazu müsste ich stehen bleiben. Dann ist es kein Spaziergang mehr.

Spracherkennung ausprobiert

So sieht der diktierte Rohentwurf dieses Beitrags aus.
So sieht der diktierte Rohentwurf dieses Beitrags aus.

Vor gut einer Woche hat sich alles geändert. Da habe ich das iPhone 6 bekommen und angefangen, Texte und Ideen zu diktieren. Warum das gerade mit dem neuen iPhone los ging? Ich bin nicht sicher, aber ich glaube, das liegt am schnelleren Prozessor und daran, dass die Spracherkennung fixer funktioniert. Vielleicht war es auch mein Spieltrieb.

Aber egal. Denn mit der Spracherkennung landen jetzt Gedanken, Ideen und manch ausformulierter Satz in der Notizfunktion des iPhone. Und dank der Cloud habe ich die Notizen gleich im Büro auf meinem Computer.

Natürlich spreche ich nicht druckreif. Ich muss jeden Text hinterher korrigieren. Doch das stört mich nicht. Hauptsache, die Ideen sind ausgesprochen.

25 Jahre später…

Nach 25 Jahren also finde ich Spracherkennung endlich nützlich. Nicht, weil mich Fakten überzeugt haben, sondern weil sie jetzt zu meinem Alltag passt. Und genauso muss es sein: eine gute Technologie muss sich in den Arbeitsalltag eines Benutzers einpassen und ihn erweitern. Am besten ohne dass es der User merkt.

Übrigens hat die Spracherkennung noch einen tollen Nebeneffekt: sobald ich die Gedanken und Grübeleien ausgesprochen habe, sind sie aus dem Kopf. Und ich kann den restlichen Spaziergang richtig genießen.

Übrigens: unser etwas nerdigeres Alte-Ego Intelligente Welt hat zum Thema sogar ein Video zu bieten…

7 Gedanken zu „Wie ich lernte, die Spracherkennung zu mögen“

  1. Ich hatte ja gerade erst das Vergnügen mich „zwangsweise“ mit dem Thema diktieren statt tippen auseinander zu setzen. Hätte es vermutlich auch nicht gemacht, wenn ich mir nicht den Finger gebrochen und Kollege Robin Cumpl mir den Tipp gegeben hätte. (Der hat auch das Video gemacht.) Ich muss sagen: ich war erstaunt, wie gut das schon geht (sofern man eine Netzverbindung hat) und nutze es auch jetzt, wo ich wieder besser tippen kann, immer wieder. Ohne das Fingerproblem hätte ich es vermutlich gar nicht gemacht… ;-) Naja, der eine wird freiwillig vom Digisaurier zum Digitierer. Der andere nur mit ärztlicher Hilfe in Form einer Gips-Schiene…

  2. Best Timing Ever! Gerade als ich wegen eines Autsch!*-Fingers in die erfahren-erprobte Runde fragen will, was Ihr von Spracherkennung haltet, kommt diese Info. Geht das jetzt mit jedem Handy? Und Mut jedem Schleppy? Brauche ich SW?

    1. Ohne jetzt den Fach-Digisauriern vorgreifen zu wollen. Wie heißt es so schön: im Prinzip ja ;-) Bei Blackberry kann ich das nicht sagen: aber alles was Android hat, bietet die Spracherkennung. Wenn die Tastatur auf dem Schirm ausfährt, weil man was tippen will erscheint links neben SPACE-Tase ein Mikrofon. Man muss allerdings online sein, weil die Sprachdaten ja auf Server übertragen werden und dort verwandelt (nicht lokal auf dem Handy). Bei Apple genau das gleiche. Die im Video gezeigte Kombi ist in dem Moment möglich, wo man die Texte in der Cloud ablegen kann und dann mit dem PC drauf zugreifen. Also würde ich vorlaut sagen: es geht mit allen gängigen Systemen… Hoffe das hilft schon mal ;-)

  3. Genauso ist’s auch beim iPhone und dem iPad. Auf den großen Macs drückst Du zwei Mal die Taste [fn] und schon startet die Spracheingabe. Es braucht aber immer eine Internet-Verbindung.

    Google hat bei der Suche auch eine Spracherkennung dabei. Bei Google Docs habe ich jetzt aber vergeblich danach gesucht. Wie es bei Windows ausschaut, weiß ich leider nicht.

  4. Gottseidank muss ich keine Apple-Produkte nutzen ;–)) Im Ernst: „OK, Google“ ist mir innerhalb von Tagen in Fleisch und Blut übergangen. Allerdings nur zuhause gegenüber meinem Nexus 7 als Second Screen. Draußen finde ich es immer noch peinlich, mit meinem Smartphone zu reden wie ein Verstörter. Gerade vorgestern habe ich zum ersten Mal eine ein Story komplett diktiert – immerhin fast 1.000 Wörter lang. Das Einzige, was mir dabei noch Schwierigkeiten bereitete, war, den richtigen Rhythmus als Kompromiss zwischen meinen Eingebungen und der Verständnisgeschwindkeit der Spracherkennung zu finden. Ging zum Schluss ganz schön flott. Die Fehlerquote war übrigens erstaunlich gering…

  5. Ja, ich bin auch froh, dass mich keiner sieht draußen. Überlege schon, es einmal mit den Ohrhörern des iPhone zu probieren – glaube, da ist ein Mikro dran. Denn so sieht es immer aus, als würde ich grad in das Telefon beißen und dabei irgendwas erzählen ;)

    Im Betrieb daheim hat sich die Spracherkennung noch nicht so durchgesetzt. Glaub, ich schreibe mit der Tastatur eher druckreif.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.