Ein Moog System 55 auf der NAMM Show 2015 (Foto: Wikimedia - siehe Bildnachweis unten)

Kleine Weltgeschichte der Computermusik – vom Oszillator bis zur Beatbox-App

Möglicherweise zählen die Erfindungen von Mikrofon und Lautsprechers zu den fundamentalsten Innovationen in der Kulturgeschichte. Genauer: die Entwicklung der Schallwandlung im Umfeld des Telefons nach Alexander Graham Bell. Verrückt genügt liegt diese Epoche gerade einmal 120 Jahre zurück, in der jemand auf die Idee kam, Schall in elektrische Impulse zu verwandeln und umgekehrt. Kaum klappte das, kam 1874 ein gewisser Elisha Gray mit seinem „Musikalischen Telegraphen“ um die Ecke, in dem Oszillatoren Schwingungen erzeugten, die dann nach dem Verfahren der Schallwandlung in Musik umgesetzt werden konnten. Der Weg zum Telharmonium, dem ersten elektrischen Musikinstrument von 1897, war dann nicht mehr weit.

Das Telharmonium - ein Monster, das elektrisch Musik machen konnte (Foto: public domain via Wikimedia)
Das Telharmonium – ein Monster, das elektrisch Musik machen konnte (Foto: public domain via Wikimedia)
Da waren die hellen Erfinderköpfe schon auf die Möglichkeit gestoßen, verschiedene Schwingungskurven mit Oszillatoren zu erzeugen. Auch das Beeinflussen der Hüllkurve und der Modulation durch Filter war um die Wende zwischen dem 19. und dem 20. Jahrhundert zumindest theoretisch schon bekannt. Eigentlich war alles beisammen, um wunderbare neue Musikinstrumente zu bauen, die in der Lage wären, herrliche und nie gehörte Sounds zu erzeugen. Aber, bis etwa 1915 konzentrierten sich die musikalischen Innovatoren darauf, mit ihren Maschinen bekannte Klangwelten zu imitieren. So galt es zwischen 1900 und 1910 quasi als heiliger Gral, menschliche Chöre nachzuahmen.

Weil rund um den ersten Kinoboom ab Anfang der Zwanzigerjahre die Nachfrage nach passenden Orgeln zur Begleitung der Stummfilme rasant anwuchs, dachte der Ingenieur Laurens Hammond über eine elektromechanische Variante nach und kam über Umwege zu Beginn der Dreißigerjahre auf das Prinzip der typischen Klanggeneratoren seiner später so genannten „Hammond-Orgeln„. Getrieben war er kein bisschen von der Liebe zur oder dem Interesse an der Musik, sondern vom Wunsch platzsparende Orgeln für Kirchen und Kinos zu günstigen Preisen anbieten zu können, die im Klang mit den klassischen Pfeifenorgeln mithalten könnten. Das Hauptproblem, das er lösen wollte, bestand darin, das Klangvolumen und den Reichtum an Sounds von Kirchenorgeln elektromechanisch zu erzielen. Dementsprechend kompliziert war sein Verfahren, dass er sich 1934 patentieren ließ.

Ein Tonewheel-Generator aus einer Hammond-Orgel (Foto: public domain via Wikimedia)
Ein Tonewheel-Generator aus einer Hammond-Orgel (public domain via Wikimedia)
Weil da aber schon der Tonfilm die Leinwand eroberte hatte, fiel eine ganze Kundengruppe aus. Dafür aber stürzten sich besonders die afroamerikanischen Christengemeinden, die sich für ihre Gotteshäuser keine Pfeifenorgel leisten konnten, auf die Hammond-Orgel. Und weil der dort vielfach zelebrierte Gospel-Gesang so dicht am Jazz lag und viele Kirchenmusiker gleichzeitig in den Jazz-Clubs auftraten, wurde das elektromechanische Monster innerhalb weniger Jahre zu einem eigenständigen Instrument – zunächst ausschließlich im Jazz, später natürlich in der daraus erwachsenen Blues- und Rockmusik. Überhaupt waren die Sechzigerjahre die turbulenteste Ära der elektrischen Musik. Dabei trennten sich zwei Linien voneinander: einerseits die Entwicklung von E-Pianos, also elektrischen bzw. elektronischen Klavieren, die den Pianoklang nachahmten, und andererseits die von Synthesizern.

Als den wichtigsten Pionier dieser Richtung muss man natürlich Robert Moog betrachten. Der wurde von einem elektrischen Instrument inspiriert, das bis heute in der Geschichte der Musik einzigartig ist: das Theremin. Es handelt sich bei diesem 1920 vom eingewanderten Russen Lew Termen Ding um das einzige berührungslos zu spielende Instrument, dessen Wirkungsweise darauf beruht, dass die Position und Entfernung der Hände relativ zu zwei Antennen die Tonhöhe und Lautstärke beeinflussen. Dies geschieht durch gezielte Störungen der elektrischen Felder, von denen die Antennen umgeben sind. Durch die Veränderungen der Spannung werden wiederum die Oszillatoren beeinflusst, die Klangkurven erzeugen.

Bob Moog an seiner Maschine (Foto via electronibeats.net)
Bob Moog an seiner Maschine (Foto via electronibeats.net)
Bis heute bauen überall auf der Welt Menschen solche Theremine selbst, und auch Robert „Bob“ Moog gehörte zu den Bastlern, die eine ganze Reihe solcher Instrumente selbst bauten. So kam er als studierter Physiker in den Fünfzigerjahren auf die Musik, genauer: auf die elektr(on)ische Klangerzeugung. So entwickelte er die ersten Bauteile für das, was später „Synthesizer“ genannt wurde. Revolutionär die Konstruktion des spannungsgesteuerten Oszillators (VCO) und des ADSR-Hüllkurvengenerator. Damit ausgestattete Maschinen waren anfangs allerdings nur schwer zu spielen. Erst der 1964 vorgestellte, von Peter Mauzey, einem seiner Studenten, mitentwickelte Moog-Synthesizer Mark II hatte das Zeug zum Musikinstrument – vor allem, weil er mit einer Klaviatur ausgestattet war und so Musiker ansprach, die vom Piano oder der Hammond-Orgel kamen.

Schaltplan für einen spannungsgesteuerten Oszillator (VCO) (Quelle: elektronik-compendium.de)
Schaltplan für einen spannungsgesteuerten Oszillator (VCO) (Quelle: elektronik-compendium.de)
Die Kombination aus VCOs mit verschiedenen Kurvenformen, Hüllkurvengeneratoren und weiteren akustischen Filtern sowie der Klaviatur bildet bis heute den Grundstock für elektronische Musikinstrumente. Wobei: Während die Baugruppen der ersten Moog-Synthesizer analog arbeiteten, brachte die Digitalisierung der Klangerzeugung die Musik erst auf den Computer. Die Achtzigerjahre waren das Jahrzehnt, in der enorm viel Gehirnschmalz in die Umsetzung elektrischer und elektronischer Analogsysteme in Software investiert wurde. Und weil alle Elemente analoger Synthesizer relativ einfach digital nachgebaut werden können, übernahmen digitale Synthesizer die musikalische Weltherrschaft. Zumal die Frequenzmodulation per FM-Synthese die Möglichkeiten der Klangerzeugung über ein Vielfaches vergrößerte. Ja, mit diesem Verfahren lassen sich praktisch unbegrenzt viele Klangfarben synthetisieren, nicht nur solche, die in der Musik eine Rolle spielen.

Ein feiner DJ-Sampler von Pioneer (Foto: dj-lab.de)
Ein feiner DJ-Sampler von Pioneer (Foto: dj-lab.de)
Eine zweite für den heutigen Zustand der Computermusik entscheidende Erfindung betrifft das Sampling. Gemeint ist damit die Digitalisierung von Tönen, also die Überführung der komplexen Eigenschaften von real existierenden Geräuschen in digital verarbeitbare Daten. Solche Samples können natürlich auf unterschiedlichste Weise modifiziert, verzerrt und geschnitten werden und bilden auf diese Weise selbst wieder Ausgangsmaterial für die musikalische Nutzung durch Synthesizer. Die Entwicklung der MIDI-Schnittstelle 1982 durch Dave Smith und Ikutaro Kakehashi öffnete den Weg zum Sampler als eigenständigem Musikinstrument.

Ein schicker Korg-Sequencer im System (Foto via amazona.de)
Ein schicker Korg-Sequencer im System (Foto via amazona.de)
Das dritte entscheidende Element der heutigen compute-gestützten Musikerzeugung ist der Sequenzer, der allerdings schon in den Sechzigerjahren im Umfeld der avantgardistischen elektronischen Musik erfunden wurde. Grundsätzlich dient ein Sequenzer zur Ansteuerung von elektrischen und elektronischen Tonerzeugern, weil der das spielende Instrument steuert, also quasi die Partitur für ein Musikstück liefert. Im Prinzip ist ja eine Partitur, also die schriftliche Aufzeichnung von Musik, ein Programm, das vorgibt, wann welche Stimme welche Töne in welcher Höhe, Länge und Lautstärke zu ertönen hat. Grundlage bilden die Skalen und Takte. Eine Skala (Tonleiter) gibt an, welche Tonhöhen zur Verfügung stehen, der Takt gruppiert Tonfolgen und legt die Betonungen fest. Klassisch wird eine Partitur auf dem Notenblatt dargestellt, mit der elektronischen Musik sind aber viele Formen der schriftlichen und auch grafischen Aufzeichnung entstanden, die sich besser für die digitale Umsetzung eignen.

Rund um die ersten kommerziell erfolgreichen Moog-Synthesizer, die einerseits rasch von Keyboardern der Rock- und Jazzmusik, aber auch von Avantgardemusikern adaptiert wurden, ist eine völlig neue Art Musik zu entwickeln und zu gestalten entstanden, die nur noch wenig mit dem zu tun hat, wie Komponisten seit dem Ende des ersten Jahrtausends gearbeitet und Arrangeure der populären Musik gearbeitet haben. Saß ein früher Elektromusiker noch in einer Burg aus verschiedenen, teils riesigen und mit Drähten, Schaltern und Drehknöpfen versehenen Kisten, ist der Platz eines modernen Musikmachers vor einer oder mehreren Klaviaturen, einem oder mehreren PCs und der nötigen Anzahl an Bildschirmen – seiner musikalischen Workstation.

So kann  ein digitales Tonstudio aussehen (Foto: Steinberg Cubase)
So kann ein digitales Tonstudio aussehen (Foto: Steinberg Cubase)
Ursprünglich wurde die live erzeugte Musik in Echtzeit auf der Festplatte aufgezeichnet, wozu anfangs spezielle HD-Recorder dienten, die man auch als Digital Audio Workstations (DAW) bezeichnete. Heute kann jeder leistungsfähige und rechenstarke Windows-PC oder Apple Mac mit entsprechenden Soundkarten und entsprechender Software als DAW genutzt werden. Einen wichtigen Zwischenschritt in diese Richtung brachten übrigens die 16-Bit-Homecomputer vom Typ Atari ST und Commodore Amiga mit sich, die sowohl hardwareseitig als auch durch das Betriebssystem über damals unerhörte Soundmöglichkeiten verfügten. Deshalb waren sie auch die Rechner, für die die ersten ernsthaft nutzbaren DAW-Softwaresysteme, allen voran Cubase, entwickelt und von professionellen Musikern eingesetzt wurden.

Cubase Pro 10.5 im Einsatz (Screenshot: Steinberg Cubase)
Cubase Pro 10.5 im Einsatz (Screenshot: Steinberg Cubase)
Seit Mitte der Achtzigerjahre ist – wie in allen Bereichen der Computerei – die Standardisierung der Computermusik weit fortgeschritten; gut 90 Prozent der populären Musik wird heute mit Hilfe digitaler Systeme produziert. Für alle Elemente der Klangerzeugung notwendige Algorithmen sind Allgemeingut und so durchdekliniert, das kaum noch Optimierungspotenzial bleibt. Dabei haben hochspezialisierte Programmierer es hinbekommen, Algorithmen so feinzutunen, dass Kenner der Digitalmusik schon von speziellen, hörbaren Unterschieden bei den entstehenden Sounds je nach verwendeter Software sprechen. Und das alles gibt es nicht nur in Form Tausender kommerzieller und Freeware-Anwendungen für persönliche Computer, sondern auch in Gestalt Hunderter Apps für Android- und iOS-Smartphones (eine Auswahl solcher Apps stellen wir demnächst hier vor).

[Bildnachweise – Titel: teakwood via Wikimedia unter der Lizenz CC BY-SA 2.0; Quellen ansonsten an den Bildern angegeben]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert