6.11.05

Elektronische Musik und Computermusik

I. Vorwort

Im Folgenden werde ich mich mit dem Thema der elektroakustischen/elektronischen Musik sowie mit der Computermusik auseinandersetzen. Ich werde etwas über die Anfänge, die im 18. Jahrhundert liegen, berichten und einen kleinen historischen Überblick geben.
Dabei konzentriere ich mich nur auf das Wesentliche und zeige ein Panorama der wichtigsten Etappen. Die Entstehung der elektroakustischen und elektronischen Musik ist eng mit den Bereichen der Mathematik, Physik, Akustik, Mechanik und den wissenschaftlichen Entdeckungen verbunden.
Auch die gesellschaftlichen Veränderungen, die durch die Industrialisierung stattfanden, sind von grosser Bedeutung. In den 1850er Jahren wurden wichtige Meilensteine in der Mechanik und Wissenschaften gesetzt, die für die Entwicklung der elektronischen Musik ausschlaggebend waren. Weitere Fortschritte wurden durch die Verbreitung von elektrischen Anlagen in den Grossstädten bewirkt.
Ab dem 20. Jahrhundert, mit dem Aufkommen der technischen Fortschritte im Bereich der klassischen Physik und der Quantenphysik sowie der Entwicklung der Psychologie und der Psychoanalyse ereigneten sich bedeutende Wandlungen in der Weltanschauung. Dieser Paradigmawechsel inspirierte Künstler, Dichter, Maler, die neue Wege des Ausdrucks entfesselten wie Surrealismus, Dadaismus, Kubismus, Futurismus. Die Experimente in der elektronischen Musik wurden in den Status der Kunst erhoben.
Seit den 1950er Jahren entwickelt sich parallel zur elektronischen Musik der Computer, und die ersten Versuche von Musik-Programmiersprachen wurden gestartet. Seit jener Zeit haben sich die Rechner in ihrer Leistungsfähigkeit enorm entwickelt und die Geräte wurden laufend kleiner.
Die Transportfähigkeit, die kompakte Dimension des Computers, die benützerfreundlichen Programme sowie das Preis-Leistungsverhältnis ermöglichen es, dass seit Mitte der 1990er Jahre der Personal Computer Teil unseres Lebens geworden ist.
Jeder Musiker oder Musikliebhaber kann bequem zu Hause mit einem Homerecording-Studio eine CD produzieren. Die Bearbeitung eines Musikfiles ist nicht mehr eigens Sache eines professionellen Studioproduzenten, sondern ist auch mit den einfachsten Musikprogrammen für jeden möglich. Diese Möglichkeit definiert die Musikproduktion neu, reduziert die Kosten enorm und erlaubt es dem Musiker professionell und selbständig zu arbeiten.
Am Ende werde ich einige Überlegungen über Computer, Gesellschaft, Musik und deren Zukunft machen. Die neuen Technologien, wie z.B. das Filesharing entwickeln sich in einem Masse, welches die aktuellen Gesetze des Urheberrechtes übersteigt und deshalb dringend eine Revision, wenn nicht eine Neuformulierung, nötig machen. Solche Themen müssen ernst genommen werden, um die Rechte eines Künstlers schützen zu können. Wir müssen etwas unternehmen, um uns den technologischen und den damit verbundenen gesellschaftlichen Veränderungen anpassen zu können.
Ich wünsche dem Leser viel Spass in der Entdeckungsreise der Welt der elektronischen- und der Computermusik.


II. Elektrostatische und elektomagnetische Experimente vor 1900

Bereits aus dem 18. Jahrhundert sind Experimente mit elektrischen Kräften und erste Maschinen, die zur Erzeugung von Elektrizität durch Reibung konstruiert wurden, bekannt.
Der Jesuitenpater Jean Baptiste Delabordes berichtet im Jahre 1759 über ein „clavecin électrique“. Es handelt sich um ein elektrisches Musikinstrument mit Tastatur, das durch die Ausnutzung der anziehenden und abstossenden Kraft der Elektrizität Pendel in Bewegung setzte, die wiederum Glocken zum Klingen brachten.
Im 19 Jhr. erreichten die elektrophysikalischen Entdeckungen und Fortschritte zentrale Bereiche des kulturellen Lebens: Mit der Strassenbeleuchtung, dem elektrischen Schienenverkehr, der Telegraphie, aber auch mit den ersten Telephonverbindungen. Diese Entwicklung wurde möglich, durch die Entdeckung des Kondensators von Alessandro Volta, die hundert Jahre davor, nämlich im Jahr 1800 stattgefunden hatte. Dies führte die nachfolgenden Forscher dazu, Beziehungen zwischen Elektrizität und Magnetismus zu studieren und weiter zu entwickeln.
Eine wichtige Erfindung im musikalischen Bereich war der Selbstunterbrecher, der im Jahre 1837 von Johann Philipp Wagner entdeckt wurde. Es handelt sich um ein rudimentäres elektrisches Musikinstrument, das auf dem Prinzip basiert, Bewegungsvorgänge und Schwingungen mechanischer Klangkörper elektromagnetisch auszulösen, sowie mechanische Schwingungen z.B. von Saiten aufrecht zu erhalten. Etwas später, um 1860 erweiterte Hermann von Helmholtz den Selbstunterbrecher zu einem Stimmgabelunterbrecher, der die akustischen Schwingungen der beiden Federn aufrechterhalten konnte. Im Jahre 1884 ging Robert Kirk Boyle aus Liverpool einen Schritt weiter und verwendete statt Stimmgabeln Saiten als Selbstunterbrecher. Im gleichen Jahr arbeitete Ernst Lorenz aus Frankfurt an einem ähnlichem Instrument, wobei er über eine Tastatur eine Reihe von Selbstunterbrechern betätigte, die aus abgestimmten Federn in verschiedenen Tonhöhen bestand. Indem er die Federn in sauerstoffreien Boxen isolierte, vermied er die rein akustische Abstrahlung der Schwingungen. Er war einer der Ersten, der auf das Problem der akustischen Abstrahlung in Zusammenhang mit elektrischen Schwingungen hinwies.
Auch der Bereich der Telegraphie und der Telephonie und deren Innovationen waren wichtig für die musikalischen Versuche und Entwicklungen. 1821 enwickelte Charles Wheatstone das Telepehon, das ursprünglich als mechanisches Musikinstrument gedacht war. 1837 war das Jahr der Entwicklung der elektromagnetischen Telephonie. Sie basiert auf dem Effekt, der galvanische Musik genannt wurde, bei welchem Elektromagneten unter gewissen Umständen tönen können.
Smith und May entdeckten im Jahre 1873, dass durch den Einfluss der Lichtstrahlen der elektrische Widerstand von Selen verändert werden konnte. Dies bot die Möglichkeit, Lichtstrahlen in elektrische Energie umzuwandeln.
Das erste elektronische Musikinstrument ist der Singende Lichtbogen. Dieses Instrument basiert auf der Feststellung, dass ein elektrischer Lichtbogen, der zu einem Schwingungskreis parallel gelegt wird, einen pfeiffenden, fast musikalischen Ton produziert. Der Kondensator lädt sich mit dem Gleichstrom auf und entlädt sich "rhyhtmisch" über den Lichtbogen, der hörbare Schwingungen in der Luft anregt.
Ein weiterer Schub zeigt sich in den 1990er Jahren und Entwicklungen setzen sich mit enormen Tempo fort. Eine der jüngsten Entwicklungen ist das Internet, das in Zukunft wichtige gesellschaftliche Veränderungen bringen wird. Aber dazu später mehr.


III. Elektromechanische und Elektronische Klangerzeugung

Bevor wir uns weiter in die Entwicklung der elektronischen Musik vertiefen, möchte ich an dieser Stelle den Unterschied zwischen elektromechanischer und elektronischer Klangerzeugung klären. Dies ist besonders wichtig, da die Maschinen, die in den folgenden Kapiteln erwähnt werden, diese zwei Grundprinzipien benützen.
Ein bewegender Mechanismus (wie z.B. drehendes Rad) produziert alleine keinen Klang, aber eine regelmässige Schwingung. In der Elektronik hat man sich diese Beoabchtung zu Nutze gemacht und innerhalb eines Stromkreises angewendet. Eine regelmässige Schwingung innerhalb eines Stromkreises kann in hörbare Schwingungen umgewandelt werden. Jedes elektromechanische Filter kann durch Rückkopplung zu Dauerschwingungen angeregt werden. Ein anderer Weg zur Erzeugung von elektrischen Schwingungen ist, die Schwingbewegung durch eine Drehbewegung zu ersetzen. Die Zähne einer Profilscheibe bilden abwechseln Nord- und Südpole, wenn die Scheibe mit konstanter Geschwindigkeit vor einem Abnahmemagneten rotiert. Die Schwingungsfrequenz hängt von der Zahl der Pole und der Umdrehungszahl ab. Die Klangfarbe ist anderseits abhängig von der Kontur der Scheibenränder. Die Scheiben mit zackigem Rand erzeugen mehr Oberwellen als diejenigen mit glattem Rand.
Die elektronische Klangerzeugung ist etwas komplizierter. Mit Hilfe von Elektronenröhren und Gasentladungsröhren kann man auch niederfrequente Schwingungen erzeugen und hörbar machen. Als erstes werden die Schwingungen, die aus stromerzeugende Generatoren entstehen, konstant gehalten. Die Elektronenröhren kann man auf verschieden Arten zur Schwingerzeugung bringen. Mit der Nutzung des Rückkopplungsprinzips kann man durch Hinzufügung eines Schwingungskreises einen Generator für Sinus- und Kippschwingungen aufbauen. Die Tonhöhe kann durch die Veränderung der Kapazität geregelt werden. Es ist aber auch möglich ohne Schwingkreis Schwingungen zu erzeugen.

Die Glimmröhre ist mit Gas gefüllt und ist mit zwei oder mehreren Elektroden ausgerüstet. Zwischen den Elektroden finden Entladungen statt, die direkt hörbare Schwingungen erzeugen. Die Frequenz kann man mit einem Ohmscher Widerstand absenken. Obertonreiche Impulse erhält man, wenn man die Spannung an einem Vorwiderstand abnimmt.
Hiermit stehen dem Esperimentator zwei Methoden zur Verfügung, mit dem Klang arbeiten zu können.
Der Klang hat drei Bestimmungsgrössen, die verändert werden können. Folgende Tabelle veranschaulicht diese drei Parameter, indem sie die Rezeption des menschlichen Gehörs und die Grössen der Akustik gegenüberstellt:

Das menschliche Ohr

Lautstärke
Tonhöhe
Klangfarbe

Akustik

Amplitude der Welle
Frequenz (Hz)
Spektrale Zusammensetzung

Alle diese drei Parameter sind veränderbar, somit sind sie modulierbar. Die Amplitude kann man durch additive oder subtraktives Klangssyntheseverfahren verändern. Je nachdem welches Verfahren angewendet wird, kann man einen Ton mit Obertönen bereichern oder verarmen.
Die Frequenz ist umgekehrt proportional zu den Schwingungen, die pro Sekunde entstehen. Sie kann meistens mit einem Generator verändert werden. Die Klangfarbe kann durch Filter verändert werden, die beliebige Teiltongruppen hervorheben oder unterdrücken können. Diese Selektionsverfahren beruhen auf Resonanzerscheinungen (Formanten).


IV. Die Anfänge: Ab 1900

Beginnen wir mit einer kurzen Definition der elektronischen Musk. Im weiteren Sinne bezeichnet dieser Begriff jegliche Art von Musik, die mit elektronischen Geräten erzeugt wird. Im strengeren Sinne bezeichnet sie die Musik, die mit Hilfe von Instrumenten und Komponenten (wie. z.B Peripheriegeräte des Computers) aus Klangsynthese erzeugt wird.
Das erste elektromagnetische Musikinstrument ist eine Erfindung von Thaddeus Cahill von 1897 und ist unter den Namen des Dynamophon oder Tellharmonium bekannt. Die Erfindung Cahill's zog das Interesse von Ferruccio Busoni auf sich. Das bearbeitete Modell wurde 1906 in Holyoke, Massachusetts, dem Publikum präsentiert. Weil es im gleichen Jahr in der Telharmonic Hall in New York präsentiert wurde, wird das Dynamophon auch Tellharmonium genannt.
Bereits 86 Jahre vor dieser Erfindung, wurde Klang mathematisch definiert. Die bekannteste Methode zu mathematischen Beschreibung des Klanges wurde 1811 vom französischen Mathematiker Jean Fourier entwickelt. Mit seiner Methode, der Fourieranalyse, lassen sich periodische Schwingungen in harmonische, sinusförmige Teilschwingungen zerlegen. Die additive Klangsynthese von Fourier ermöglicht beliebige Klänge durch additive Übereinanderlagerung verschiedener Sinusschwingungen zu erzeugen. Diese Methode wurde für die analogen Studios Mitter der 1950er Jahren entscheidend, und später wurde sie in den Computern angewendet.
Nach dieser Erfindung wurden viele neue elektronischen Instrumente entwickelt und eingeführt. Im Folgenden werde ich die wichtigsten etwas näher beschreiben:
Das Theremin ist bis heute das einzige Instrument , das man berührungsfrei bedient. Das Instrument wurde vom Physiker und Cellist aus St. Petersburg, Leon Theremin erfunden. Das Instrument ist einstimmig und lässt sich mit beiden Händen steuern. Es handelt sich um ein grosses Stehpult mit zwei Antennen: links eine kreisförmige gebogene, rechts eine gerade Antenne. Die eine Hand steuert mit Handbewegung die Tonhöhe, die andere die Lautstärke. Dieses funktioniert mit zwei Hochfrequenzoszillatoren: Der Oszillator arbeitet mit einer konstanten Frequenz von 170 kHz, der zweite lässt sich im Bereich von 168-170 kHz varieren. Die Steuerung funtioniert mit der Antenne, die ein elektrisches Feld erzeugt. Die menschliche Hand bewirkt eine Veränderung im elektrischen Feld, und beinflusst die Steuerung des zweiten Oszillators. Die Differenzfrequenz erzeugt einen hörbaren Ton. Clara Rockmore war die erste Virtuosin des Theremins.
Das Sphärophon wurde von Jörg Mager um 1926 erfunden. Es wurde auch Elektrophon oder Elektromophon genannt. Es besteht aus zwei hochfrequenten elektronischen Schwingkreisen. Mit einem Kurbelapparat kann die Kapazität des Kondensators verändert werden, der als Steuerungsmechanismus für die Tonhöhe des erzeugten Tones dient. Das Sphärophon funktioniert nach dem Prinzip des Schwebungssummers. Ein Schwebungssummer ist eine elektronische Schaltung mit der eine Sinusschwingung mit einer niedrigen Frequenz aus der Überlagerung zweier dicht beieinander liegender Sinusschwingungen hörbarer Frequenzen ereugt wird. Mit Hilfe einer Kurbel konnte Mager auch sehr kleine Tonintervalle einstellen sowie gleitende Töne spielen. Das Instrument wurde von einem Spielttisch aus betätigt, auf dem die Töne als Masseinteilung eingezeichnet waren. Die zwei Kurbeln wurden abwechselnd mit der rechten und linken Hand bedient. Zur Schliessung des Stromkreises befand sich auf den Griffen einen Druckknopf. Während der Ton erklang, stellte die zweite Hand die andere Kurbel auf den gleichen Ton ein, so dass die erste Kurbel frei wurde für eine neue Toneinstellung.
Die Ondes Martenot sind ein einstimmiges, elektronisches Musikinstrument. Es wurde von dem französischen Musikpädagogen und Radioamateur Maurice Martenot erfunden. Er liess sich von der Erfingung von Theremin inspirieren, nachdem sie sich im Jahre 1923 getroffen hatten. Auch die Ondes Martenot basieren auf dem Prinzip des Schwebungssummers und der Klang kann mit elektronsichen Filtern verändert werden. Die rechte Hand bedient ein Manual. Für ein Glissanso kann der Spieler einen Ring, der parallel zur Tastatur, die zur visuellen Orientierung dient und geführt wird, verschieben. Mit der linken Hand kann der Spieler die Lautstärke regeln und die Klangfarbe verändern.
Das Givelet oder "Orgue des Ondes" wurde 1929 von Armand Givelet erfunden. Das Instrument basiert auf der Technologie des Theremins und der Ondes-Martenot, aber da jede Taste einen Oszillator besass, war das Instrument polyphon. Die Orgel besass 700 Vakuum-Oszillatoren, die es ermöglichten, eine Tastatur von 70 Tönen zu entwickeln. Das Givelet wurde bald von der Hammond-Orgel ersetzt, die wegen ihrem einzigartigen Klangcharakter zum Erfolg wurde. Dieses Instrument war viel erfolgreicher, das sie polyphon war und wurde als Substitut der Orgel konstruiert, aber auch an Stelle des Klaviers in der Populärmusik verwendet.
Die Hammond-Orgel ist eine Erfindung von Laurens Hammond. Diese Orgel verbreitete sich sehr schnell im Jazz und wurde als billiger Ersatz der Orgel in den Kirchen für die Gospel-Musik verwendet. Weiter wurde sie in der Rockmusik, R&B, Soul, Funk und Fusion eingesetzt. 1934 erhielt Hammond das Patent und kurz darauf wurde er vom Erfinder des Laufbandes, Henry Ford, beauftragt, sechs Orgeln zu bauen. Zu den ersten Kunden gehörten George Gershwin und Count Basie. Die Töne werden durch einen Zahnradoszillator erzeugt. Metallene Tonräder mit einem sinusförmigen Rand rotieren vor einem elektromagnetischen Tonabnehemer. Durch die Wellenform entfernt und nähert sich der Rand des Rades periodisch dem Eisenkern. Dies bewirkt eine Veränderung des Magnetfeldes, wodurch die Spule eine Wechselspannung induziert und einen Wechselstrom treibt. Der Zahnradoszillator enthält 91 Tonräder unterschiedlicher Zahnanzahl, die auf einer gemeinsamen Achse stecken, die von einem Synchronmotor über ein Übersetzungsgetriebe angetrieben werden. Das Instrument hat den Nachteil, dass durch die vorgegebenen Frequenz nicht stimmbar ist, so dass sich die andere Instrumente danach richten müssen.
Der Vocoder ist 1939 aus der militärischen Forschung als Instrument zur Stimmverschlüsselung erfunden worden. Der Vocoder basiert auf dem Prinzip der Bijektivität. Er verknüpft zwei Eingangssignale miteinander vobei das Spektrum des Signals A auf das andere Signal B formend wirkt. Das Signal A wird analysiert. Sein Spektrum beeinflusst dasjenige des Signals.
Das Trautonium wurde von Friedrich Trautwein erbaut. Dieses elektronische Instrument ist ein Vorläufer der heutigen Synthesizer. Es beruht auf der subhamonischen Tonleiter. Die Kombination von vier subharmonischen Töne bilden eine Mixtur. Die Mixturen bewirken einen Mehrklang.
Die technologischen Erneuerungen erreichten verschiedene europäische Länder, wie Deutschland, Frankreich und auch Italien. Die italienischen Futuristen wie Filippo Martinetti und Balilla Pratella begrüssten diese neuen Technologien und sahen darin, neue Ausdrucksmöglichkeiten zu entdecken, um die traditionelle musikalischen Prinzipien bei Seite zu lassen. Sie alle meinten, dass man neue Klangquellen erforschen und fördern sollte, um unendlich viele neue Möglichkeiten zu entdecken.
Luigi Pratella hat mit dem Perkussionisten Ugo Piatti eine Geräuschmaschine, "Intonarumori" genannt, entwickelt. Die erste Aufführung mit dem "Intonarumori" fand im Juni 1913 im Teatro Storchi in Mailand statt. Die Futuristen haben mit diesem neuen Weg zwar keine Revolution in der Musik bewirken können, aber sie leisteten eine Vorarbeit, welche die Akustik und die neue Musik zusammenführte.
Edgard Varèse arbeitete in den 1920er Jahren mit dem elektronischen Designer René Bertand zusammen, woraus eine lebenslange Freundschaft entstand. Varèses Prinzip war mit organisierten Geräuschen zu arbeiten. Auf dieser Philosophie basierte eine seiner bekanntesten Kompositionen "Ionisation" von 1930.
Varèse war natürlich nicht der Einzige, der an solchen Projekten arbeitete. In Amerika experimentierten Persönlichkeiten wie George Antheil mit der Komposition "Ballet mécanique" oder Joseph Schillinger mit "Airphonic Suite for RCA Thérémin and Orchestra".


V. 1945 bis 1950

1942 gründet Pierre Schaeffer das "Studio d'essay", ein akustisches Versuchsstudio. Die Bezeichnung "Musique concrète" wurde von ihm, der Toningenieur und Komponist war, 1948 in Paris eingeführt. Die Werke der Anfänge der Musique conrète sind durch das Verfahren, vokale und instrumentale Klänge zu transformieren und als Material für neue musikalische Strukturen benützen, gekennzeichnet. Nach der Schallplatten- und Tonbandaufnahme von konkreten Klängen und Geräuschen (daher die Bezeichnung von konkreter Musik), werden Klangfragmente ausgewählt, die mittels elektroakustischer Apparaturen bearbeitet werden.
1953 stiess die Uraufführung von Schaeffer und Pierre Henry's Spectacle lyrique "Orphoe" bei den Donauschinger Musiktagen auf heftigem Widerstand.
Die Musique conrète fand jedoch nicht nur Widerspruch, sondern auch Anklang in der ganzen Welt. Zu den wichtigsten Exponenten gehören unter anderem auch François Bayle, Pierre Boulez und Jean Barraqué. Die Musique concrète wurde zudem bald im Rundfunk, Theater, Ballet, Film und Fernsehen ausgestrahlt. Junge französische sowie ausländische Komponisten wie Mache, Ferrari und Bayle wurden eingeladen, in Paris zu arbeiten.
In der gleichen Zeit arbeiteten Usachewsky mit seiner "Music for Tape" und John Cage mit seinen Experimente auf ähnlicher Weise. Die amerikanische Variante der Musique Concrète ist die Tape Music. Weitere Komponisten wie Honegger, Milhaud, Messiaen, Sauguet, Scherchen unternahmen eigene Versuche.


VI. Ab 1950

Elektroakustische Musik vereint verschiedene Gebiete wie Musique Concrète, Elektronische Musik, Tape Musik, Live Electronic-Musik sowie Teile der Computermusik. Der Begriff Elektroakustische Musik stammt ursprünglich von Iannis Xenakis, der in den 1950er Jahren seine Tonbandkompositionen so nannte. Elektroakustische Musik ist auf Lautsprechewiedergabe angewiesen, deshalb wird sie auch als Lautsprechermusik bezeichnet, da die Instrumente tatsächlich die Lautsprecher sind. Die elektroakustische Musik braucht keinen Interpreten, da sie direkt auf einen Tonträger fixiert wird. Deshalb wird sie auch als unsichtbare oder authentische Musik bezeichnet. Somit hat sie auch die Aufführungspraxis und die Klangästhetik so weit verändert, da sie überall gleich ist.
Anfang der 1950er Jahre wurden in den Bell Telephone Laboriatorires von New Jersey die ersten Versuche gestartet, ein Programm zu entwickeln, das Klang für mit einem Computer synthetisieren kann.
Lejaren Hiller und Leonard M. Isaacson entwickelten in den Jahren 1956-57 mit dem für die chemische Forschung entwickelten Rechner ILLIAC I an der Universität von Illinois, Urbana, die ersten Computeralgorithmen und Partitursynthesen. Aus dieser Arbeit entstand die ILLIAC Suite, auch "String Quartet No. 4" genannt.
Mit dieser Suite erforschten sie, wie sie für Genre und Stil ein spezifisches Regelsystem entwickeln konnten und in Computeralgorhythmen darstellen konnten. Beim ersten Experiment entstand "Monody, two-part, and four-part wirting". Es wurden 16 verschiedene Kontrapunktregeln programmiert mit den Optionen erlaubt-verboten-norm, dazu kamen Regeln für einfache Mehrstimmigkeit. Das Ergebnis waren einfache cantus-Firmus-Melodien.
Beim zweiten Experiment "Four-part first-species counterpoint" wurden die Regeln des ersten Experiments erweitert, so dass unterschiedliche musikalische Stile entstanden. Beim dritten Versuch wurden serielle Strukturen und Reihentechniken programmiert, das vierte Experiment bestand aus den sogenannten "Markov-Ketten", komplizierte mathematische Prozesse, die durch Abläufe, bei denen der Zufall wirkt, bestimmt werden. Die Musikstücke lassen sich somit als eine Folge von bedingten Wahrscheinlickeiten darstellen.
Der Bonner Akustiker und Phonetiker Werner Meyer-Eppler erarbeitete um 1950 Klangmodelle, bei der elektrisch erzeugte und modulierte Klänge auf Tonband gespeichert werden konnten. Er wollte so eine authentische Musik kreieren, die unabhängig von einem Interpreten war. Er bediente sich eines Melochords, das er mit externen Klangquellen austattete. Meyer-Eppler beteiligte sich anschliessend am Projekt des Funkhauses NWDR Köln, wo eine Reihe von Vorträgen und Rundfunksendungen stattfanden, die sich mit der Frage der Technologien und des elektronischen Komponierens auseindandersetzte.
Gleichzeitig untersuchte Max V. Mathews Möglichkeiten zur Übertragung von Sprachsignalen über Telephonleitungen in digitalisierter Form. Daraus entstand die Idee der Klangsynthese, die durch Computer generiert wird. 1957 entwickelte er die erste musikspezifische Computer-Programmiersprache MUSIC I und 1958 MUSIC II. Für das erste Programm wurde den PC IBM 704 verwendet. 1960 entstand in Zusammenarbeit mit Joan Miller MUSIC III. Das Programm MUSIC IV wurde dann zu einem Basismodell für eine Erweiterung der Computerfamilie. Vom gleichen Programm wurde die Version MUSIC IV B ausschliesslich für die Komponisten erarbeitet, da die vorgängigen Versionen eher für Wissenschaftler konzipiert waren. Der Nachteil dieser Versionen war, dass sie ausschliesslich auf den IBM Maschinen funktionierten. Zudem waren diese Programme mit dem Assembler Code geschrieben.
Aus diesem Grund entschied sich Arthur Roberts 1965 MUSIC IV F in FORTRAN zu schreiben, das bald von MUSIC IV FB ersetzt wurde. Zu Beginn lief das Programm viel zu langsam, so dass es an Bekanntheit verlor. Mathews arbeitete jedoch weiter und entwickelte 1968 MUSIC V, das benutzerfreundlicher war. Im gleichen Jahr entwickelte Barry Verroe MUSIC 360, das für die dritte Generation der IBM-Computer konzipiert war. Verroe vertrat die Meinung, dass die Programme auf den PC angepasst werden müssen, da hier das Betriebssystem jeweils nur nach längerem Zeitabstand verändert werde. Anfang der 1970er Jahren entwickelte er das MUSIC 11, das für die Geräte PDP 11 konzipiert war, die von der Digital Equipment Corporation konstruiert wurden. Natürlich wurden aus diesem Programm mehrere Versionen entwickelt, die dann in CSOUND mündeten.
Die letzte Version von der von Mathews entwickelten Programme, war das MUSICn, das dann endlich auch die wichtigen Computer Zentren von Australien, Candada, Frankreich, Italien, Grossbritannien, Durham und Glasgow erreichte.


VII. 1960

Mit Karlheinz Stockhausen verbindet man den Begriff Serielle Musik, wobei diese Definition sehr problematisch ist. Das Adjektiv seriell stammt aus dem Französischen, wobei die Übersetzung nicht exakt ist. Es handelt sich um eine neue Art des Denkens und Formens in der Komposition. Unter Serieller Musik wird auch die Zwölftonmusik als Spezialfall erfasst. Im weiteren Sinne kann man sagen, dass die serielle Musik aus der Zwölftontechnik entstanden ist. Seit den 1950er Jahren spricht man von Serieller Musik.
Man unterscheidet zwei Formen von Serieller Musik: Punktuelle Musik, wo die einzelnen Töne einer Komposition als isolierte Phänomene betrachtet werden, und Statistische Musik, bei der Tongruppen durch Reihen fixiert werden.
Dabei handelt es sich um eine Kompositionsmethode, bei der die musikalisch bedeutenden Eigenschaften vorbestimmt oder reihenmässig organisiert werden. Tonreihen können mit kompositorischen Methoden wie Umkehrung, Transposition, Kreuz und Krebsumkehrung bearbeitet werden. Weitere Elemente können z.B. Mikrotöne, Geräusche, Glissandi, Lautstärke oder Klangfarben sein.
Diese Kompositionsmethode wurde für Stockhausen erst möglich, als ihm im Studio für elektronische Musik ein Sinustongenerator zur Verfügung gestellt wurde. Vorher konnte man mit den Parametern der Klänge nicht seriell arbeiten. Mit diesem Gerät konnte die Frequenz, Amplitude und Dauer jedes Sinustones bestimmt werden. Die Sinustöne konnten auch überlagert werden, so dass neue Klänge entstanden. Eigentlich wurden damit die ersten Versuche mit der Klangsynthese gestartet, die heute von den Computern übernommen werden, obwohl in der heutigen Zeit diese Technik immer noch nicht perfektioniert ist. Deshalb muss man sich bewusst sein, dass dies zu jener Zeit nur in eingeschränktem Rahmen möglich war, doch war diese Technik wegweisend.


VIII. Elektronische Musik und Rock, Pop, Hip-Hop und Techno

Parallel zu den Experimenten der elektronischen Musik entwickelte sich natürlich auch die Popularszene der Musik. In diesem Kapitel wenden wir uns etwas der technologischen Entwicklung in der Unterhaltungsmusik zu. Hierbei werden einige Persönlichkeiten der Popszene erwähnt. Dadurch wird die historische Wichtigkeit dieser Bands in bezug auf die Entwicklung der elektronischen Musik hervorgehoben.
Elektronische Effekte sind via Radio und Fernsehen in das Leben von Millionen von Menschen seit den 1965er Jahre eingedrungen.
Anfangs der 1960er Jahre begann man Begriffe wie Live Electronics, Live Electronic Music, usw. zu verwenden. Man versteht darunter elektroakustische Musik, die mit Hilfe von einem Interpeten auf der Bühne in Echtzeit entsteht. Dieser Begriff unterscheidet sich im deutschprachigen Raum in der Bedeutung von Nordamerika. Für die Nordamerikaner handelt es sich bereits um Live Elektronische Musik, wenn ein vorproduzierter Tonträger von einem oder mehreren Musiker eingespielt wird. In Deutschland versteht man darunter entweder Klangmaterial, das in Echtzeit auf der Bühne synthetisiert wird, oder Klänge von akustischen Instrumenten oder auch die menschliche Stimme, die unmittelbar elektronisch transformiert werden.
Die Pionierarbeit der Effekte von Karlheinz Stockhausen in seinem Sudio in Köln wurden im kommerziellen Sektor angewendet. Die technologischen Erfindungen wurden im Grunde von der Populärmusik seit den 1920er Jahren benützt. Die Tanzbands benützten bereits einfache Arten der Verstärkung und die zunehmende Wichtigkeit der elektrischen Gitarre in den 1950er Jahren führte zur Weiterentwicklung der neuen Technologien.
Weitere Manipulationen wurden mit dem Wah-Wah Dämpfer und den Fuzz-Tone-Effekten möglich. Fuzz-Tone-Effekte werden durch ein Frequenzmultiplikator erzeugt, der jede Note mit komplexen Partialtönen bereichert. Auch Keyboards und elektrische Pianos profitierten von den technologischen Entwicklungen.
Schon vor den 1960er Jahren experimentierten Popgruppen mit den zur Verfügung stehenden neuen Technologien. Die Beach Boys verwendeten 1966 die Technik der "vocal tape transformation" [Manning:172] und die Klänge des Theremins im Song "Good Vibrations". Die Beatles experimentierten mit "tape loops" und "reversed playback" [Manning:172] in den Stücken "I'm only sleeping" und "Tomorrow never knows". In den darauf folgenden Aufnahmen haben sie auch das Multitrackverfahren angewendet. Dies war eine Technik, die natürlich nicht live angewendet werden konnte, obwohl die damaligen Rockbands hauptsächlich an Effekten arbeiteten, die während den Auftritten verwendet konnten. Zu jener Zeit kannte man auch aufgenommene Teile oder "Interludes", die in die Livepartie integriert und abgespielt wurden. Die Rolling Stones verzerrten die Klänge ihrer Instrumente im "Their Satanic Majesties Request" im Jahr 1967. Auch Frank Zappa hat in der Produktion seiner Alben elektronische Effekte sowie Syntesizers verwendet. Auch Pink Floyd, Velvet Underground sowie Jimi Hendrix benützen die neusten Technologien.
Eine weitere Wende kam in den 1970er Jahren, als die Synthesizer billiger wurden und dem breiten Publikum zugänglich wurden. Seit dieser Zeit entwickeln sich verschiedene musikalische Stilrichtungen wie Disco, Hip-Hop, Ambient Music und Techno. Häufig ist es nicht einfach, sie untereinander zu unterscheiden.
Disco war in den Jahren 1974-1983 sehr berühmt. Die Aufnahmen in dieser Zeit wurden mit Hilfe von Syntezisern gemacht, um die akustischen Instrumente zu ersetzen und eine Low-Cost-Produktion zu erreichen. Zu den berühmten Songs gehören "Never can say goodbye" von Gloria Gaynor und "Waterloo" von den ABBA. Wir müssen eingestehen, dass es die Discomusic doch geschafft hat, mit wenig Aufwand, Erfolgsstücke wie "Stayin' alive", "Y.M.C.A" und "You make me feel" zu produzieren.
Hip-Hop wurde von von Afrika Bambaataa und Grandmaster Flash entwickelt. Hip-Hop vereinigt Rap, eine Textrezitation auf rhyhtmischer Art mit einem perkussiven Hintergrund, der seine Ursprünge in der afrikanischen Musik hat. Anfang der 1970er Jahre verwendete der Jamaikaner Disc Jockey Kool Herc eine Technik, die den Pionieren der Musique Concrète bekannt war: Er entwickelte eine Rapvariante, indem er den rezitierten Text mit einer Background-Perkussion schmückte, die aus verschiedenen Aufnahmen entnommen und zusammengefügt wurden.
Ein Beispiel der Ambient Music ist Brian Eno. Dies ist eine Musik zum entspannen und "abschalten", die scheinbar einfache bekannte Melodien abspielt, die aber beim genaueren Zuhören anspruchsvoller ist, als man annehmen würde. Bei dieser Musik wird abschichtlich kein starker Puls verwendet, da dies sonst die Eigenschaften der Sounds verdecken würde.
Techno kann man als Höhepunkt der Verwendung reiner elektronischer- und Computermusik nennen. Über den Ursprung des Begriffs Techno ist man sich nicht einig: Techno ist in Detroit während einer schwierigen Zeit entstanden, als die Arbeitslosenquote besonders hoch war. Die Pioniere sind Juan Atkins, Derrick May und Kevin Saunderson, die 1985 "No UFOs" produziertren. Was Techno ausmacht, ist der Gebrauch von analoger und digitaler Technologie. Die späteren Stilrichtungen wie Minimal Techno, Trance usw., benützen Synthesizer, Sampler und Signalprozessoren. Dieser Trend ist deshalb so wichtig, weil er auch die Beziehung zwischen dem Komponisten und den technischen Möglichkeiten neu definiert. Der Komponist ist sozusagen abhängig von den neuen Technologien, die ihm zur Verfügung stehen.


IX. Computer

An dieser Stelle sollen zuerst einige Begriffe der Informatik eingeführt und erklärt werden, um dann in den Bereich der Computermusik gehen zu können. Dabei wird eine kurzer geschichtlicher Überblick des Computers gegeben.
Das Wort Computer stammt aus dem Lateinischen "computare", was soviel wie zusammenrechnen bedeutet. Tatsächlich sind Computer frei programmierbare Rechenmaschinen, die nach dem Prinzip Eingabe-Verabeitung-Ausgabe funktonieren.
Heute wird die Z3, die 1941 von Konrad Zuse, Bauingenieur und Erfinder, kreiert wurde, als die erste frei programmierbare, auf dem binären Zahlensystem basierende Rechenmaschine der Welt anerkannt. Mit anderen Worten handelt es sich um den ersten Computer. Seit 1941 hat sich vieles im Informatikbereich verändert!
1973 wurde der erste Computer mit Maus und GUI (Graphic User Interface), einer graphischen Schnittstelle von der Xerox PARC hergestellt, die ursprünglich auf Kopiermaschinen spezialisiert war.
In 1980er Jahren trat der Computer in den Haushalt ein, so dass er PC (Abkürzung für Personal Computer) genannt wurde. Die Anfänge des Heimcomputers liegen in den 1970er Jahren. Als Bildschirm wurde der Fernseher verwendet und der Speicher bestand aus Audio-Kassetten. Der Computer besass bereits ein Diskettenlaufwerk, das als Zubehör den Preis des Computers in astronomische Höhen trieb. Der PC besass einen 8-Bit-Prozessor sowie einen Grafik- und Soundchip, womit einfache Grafiken hergestellt werden konnten. Die damalige Programmiersprache war BASIC.
Während meiner Schulzeit in der italienischen Scuola Media machte ich meinen ersten Computerkurs mit diesem Programm. Ich kann mich erinnern, dass ich selber daraus Programme entwickelte wie das "Roulettespiel" oder eine komplizierte Rechenaufgabe lösen konnte. Für graphische Zeichnungen gab es das Logos 123 und die Programmiersprache PASCAL, die sich aus den Bausteinen des BASIC zusammensetzte.
Der erste PC, der kommerziellen Erfolg hatte war 1975 der Altair 8800. Es folgten Commodore Amiga, Atari ST und Apple II (der nichts mit Apple Macintosh zu tun hat). Anfang der 1980er Jahre wurde die IBM führend im Markt der Computer. Ab 1983 begannen die Preise zu sinken, als Compaq einen IBM-kompatiblen PC auf den Markt brachte.
Was entscheidend für die Geschwindigkeit der Datenverarbeitung des Computers ist, ist die Qualität des Mikroprozessors.
Die Intel Corporation (Intel steht für Integrated Electronics) baute 1971 der erste Mikroporozessor Intel 4004. Im Jahre 1978 entstand das Modell 86, nach dem Prozessor 8086/8088 benannt war.
1993 brachte Intel den Pentium Prozessor auf den Markt. Pentium bedeutet auf Griechisch "der Fünfte" womit tatsächlich der fünfte Prozessor der x86-Generation benannt war. Ab diesem Zeitpunkt wurden die Prozessoren immer schneller und spezialisierter.
Das ARPANET, der Ursprung des Internet wurde im Auftrag der US-Luftwaffe eingerichtet, in Erwartung eines Atomkrieges. Die Forschergruppe unter der Leitung von Paul Baran entwickelte ein dezentrales Netzwerk, das im Kriegsfall bei Ausfall vieler Knotenpunkte die Kommunikation weiter ermöglicht hätte. Das damalige revolutionäre Konzept enthält grundlegende Aspekte des heutigen Internets. 1969 wurden vier Institute miteinander verbunden: Das Stanford Research Institute, die Universät von Utah, die Universität von California in Los Angeles und von Santa Barbara. 1972 wurde von Ray Thomlinson das E-Mail erfunden und das @-Zeichen für die elektronische Post eingeführt.1973 gab es 35 Knotenpunkte im ARPANET, 1984 waren es 1000, 1989 schon 100 000. Im gleichen Jahr wurde das ARPANET aufgelöst und Paul Baran erfand die Theorie der paketvermittelten Netze, die ein Grundprinzip des Internets ist.
1991 erfindet Tim Berners-Lee im in Genf das World Wide Web, das soviel wie weltweites Spinnennetz bedeutet. Heute sind ca. 250 Milionen Computer am Netz und über 400 Milionen Menschen nutzen das Netz.
Das Internet war ursprünglich als hierarchisches Netz konzipiert, in dem sich Kleinnetze um einen Backbone (Rückgrat) gruppieren. Heute werden die Daten von Internet Service Provider (ISP) auf andere ISP verteilt, die miteinander vernetzt sind, so dass sie ein weltweites Netz bilden.
Dieses Instrument erlaubt es uns simultan auf drei Ebenen zu kommunizieren: entweder durch Schreiben, durch Hinzunahme eines PC-Mikrophons mit der Stimme oder visuell mit einer Videokamera. Wie wir später sehen werden, ist es auch möglich Musikfiles zu senden und auszutauschen.

Nun möchte ich eine kurzen Ausblick in die Zukunft des Computers geben, bevor wir uns der Computermusik zuwenden Bereits. spricht man von Biocomputer, oder DNA-Computer. Leonard Adleman, Professor für Computerwissenschaften und Molekularbiologie an der "University of Southern California" in Los Angeles präsentierte 1994 den TT100, den Prototyp des DNA-Computers. Dabei bediente er sich eines Reagenzglases mit 100 Mikrolitern DNA-Lösung. Durch die freie Reaktion des DNA konnte diese "Maschine" einfache mathematische Probleme lösen. Wissenschaftler haben ausgerechnet, dass eine Flüssigkeit mit 6 Gramm DNA eine theoretische Speicherkapazität von drei Miliarden Terabyte (dem entsprechen 3'000'000'000'000 Gigabyte!) ergeben würde, was eine für uns unvorstellbare Datenverarbeitungsgeschwindigkeit ergäbe.
Vielleicht wird diese neue Technologie eine neue Erfahrungsebene oder eine neue Sinnesebene für die Musik entstehen lassen. Wissenschaftler sprechen schon von Computern, die riechen können. Lassen wir uns überraschen…


X. Computermusik

Unter Computermusik versteht man Musik, die durch den Computer erzeugt wird. Dabei kann der PC zur Generierung von oder zur Bearbeitung von elektroakustischen Klängen (Klangsynthese) verwendet werden. Mit spezifischen Programmen kann auch komponiert werden (Partitursynthese). Programme sind nichts anderes als Algorythmen, die von einem Computer codiert werden.
Zudem kann der Computer zu Steuerung und Beeinflussung von anderen Musikgeräten eingesetzt werden. Der PC ist eine digitale Maschine, wobei das Hören ein analoger Vorgang ist. Dabei werden die Zahlen des PC in analoge-elektrische Spannungskurven umgewandelt, die als Endresultat über die Lautsprecher zu hören sind. Dazu benutzt man eine Digital-Analog-Wandler. Umgekehrt verwendet man einen Analog-Digitalen-Wandler, wenn Schallereignisse auf dem PC übertragen werden. Darüber mehr im nächsten Kapitel, wenn wir uns mit digitalen Musikfiles beschäftigen werden.
Im Zusammenhang mit Computer- und digitaler Musik sind noch die Begriffe Sampler, MIDI Sequenzer und Synthesizer zu klären.
Der Sampler wie der Synthesizer sind feste Bestandteile eines elektroakustischen Studios. Ein Sampler ist ein elektronisches Instrument, bzw. ein Computer, der analoge Känge digital aufnimmt, speichert, bearbeitet sowie wiedergibt. Der Sampler ist jedoch nicht geeignet, Klänge nach oben oder unten zu transponieren, da dies den ursprünglichen Klang verfälscht, ähnlich wie die Tonbandgeräte, die bei der Transposition von einer Oktave nach oben die Dauer des Klanges um die Hälfte verkürzen.
Der Sampler hat den kommerziellen Vorteil, dass die Präsenz des Musikers für die Wiedergabe der Musik nicht nötig ist.
MIDI ist die Abkürzung für Musical Instrument Digital Interface, deutsch Schnittstelle. Sie verbindet einen Computer mit peripheren Geräten. Sie ermöglicht die Kommunikation zwischen dem Computer und den verschiedenen Effektgeräten und elektronischen Instrumenten. Auch akustische Instrumente können durch das MIDI-Interface mit dem Computer verbunden werden, z.B. um Aufnahmen zu machen. Zudem können die Daten in Echtzeit an weitere Sampler oder Syntesizer übermittelt werden, die dann gleichzeitig klingen.
Mit dem Sequenzer können keine Klänge aufgenommen werden. Der Synthesizer ist ein kompaktes, analoges Studio mit Klaviatur, dass 1964 vom Amerikaner Robert A. Moog neu entwickelt wurde. Der Begriff Synthesizer stammt aus der Firma RCA Electronic Music Synthesizer von 1955 hat aber mit seinem Vorgänger nichts gemein.
Moogs Synthesizer unterscheidet sich von seinen Vorläufern durch die Spannungsteuerung, die es ermöglicht, die Parameter wie Frequenz, Amplitude oder Klangfarbe durch Veränderungen von den an den entsprechenden Modulen angelegten Spannungen zu beeinflussen. Der analgoge Syntesizer arbeitet mit der subtraktiven Klangsynthese, d.h. aus einem teiltonreichen Klang werden mehrere Teiltöne filtriert und somit abgeschwächt oder ganz eliminiert.
Die ersten Syntesizer waren monophon, polyphone Modelle wurden ab 1975 produziert. Ab 1977 wurde auch die Digitaltechnik in die Syntesizertechnik eingeführt, so dass die Analogtechnik digital simuliert oder kontrolliert wurde.
Sydney Alonso Camero Jones entwickelte in Zusammenarbeit mit John Appletin das Synclavier. Dieses Instrument ermöglichte es, die Paramenter in reeller Zeit zu übetragen, so dass man es bequem als Liveintrument benützen konnte.
Anfangs der 1980er Jahre begann man Synthesizer zu kommerziellen Produkten zu entwickeln und für die Masse zugänglich zu machen, mit dem Nachteil, dass die vorprogrammierten Klänge unveränderlich sind und die klangliche Ästhetik von der Industrie vorgegeben wird.
In der gleichen Zeit wurde sich Ikutaro Kakehashi, der Präsident der Firma Roland bewusst, dass man ein Protokoll entwickeln musste, um die verschiedenen Instrumente kompatibel zu gestalten, so dass der Informationsaustausch gewährleistet werden konnte. Das MIDI-Protokoll stellt den Klang nicht direkt dar, sondern besteht aus Befehlen zur Ansteuerung von digitalen Instrumenten oder der Soundkarte im PC wie "Note-on", Beginn einer Note, "Note-off", Ende einer Note, "Key-velocity", Anschlagstärke sowie die Tonhöhe oder das Instrument. Darauf entwickelte Dave Smith das MIDI, worauf später im Verlauf dieser Arbeit näher eingegangen wird. 1983 entickelte Yamaha den ersten digitalen Syntesizer mit integriertem MIDI, das Yamaha DX Das DX basiert auf dei FM-Synthese, ein kompliziertes Synthese-Verfahren, das von John Chowing 1967 an der Stanford Unervisity entwickelt wurde. Das DX ermöglichte ein breites Spektrum an Klängen, auch deshalb, weil der Klang durch die Spielweise beinflusst werden konnte.
Kurz danach entwickelte Dave Oppenheim von der Opcode System ein MIDI für Macintosh, der mit dem MIDI eines Syntesizers Informationen austauschen konnte.


XI. Homerecording

Die heutige Technologie erlaubt es jedem Musiker oder auch Musikliebhaber mit einer relativ kleinen Investition sich mit einem Homerecording-Studio auszurüsten.
Die üblichen Aufnahme-Studios lassen sich auf drei Grundtypen zurückführen: Das Mehrspur-Studio für Audioaufnahmen, das MIDI-Studio und das Hybridstudio.
Das "klassische" Audio-Mehrspuhrstudio dient zur Aufnahme von Audiosignalen mit Mikrofonen, Keyboard, Instrumenten, Stimme, Tonabnehmer und Verstärker.
Im MIDI-Studio werden MIDI-Daten aufgezeichnet, somit handelt es sich nicht direkt um Audiosignale, sondern um Informationen über Tonhöhe und Dynamik einer angeschlagenen Note.
Ein Hybridstudio ist heute das häufigste benutzte Studio: Dabei handelt es sich um eine Kombination aus Audio- und MIDI-Studio.
Von den Musikern werden häufig Kompaktstudios verwendet, die man bequem mitnehmen kann. Dabei unterscheidet man zwischen Analoges-, Digitales- und MIDI-Kompaktstudio.
Ein klassisches Studio besteht aus vielen Geräten: Mutlitrack-Recorder, Mischpult, Mikrofone, Signalprozessoren, darunter auch Psychoakustik- und Masteringprozessoren.
Der Multitrack-Recorder ist das Herzstück eines Tonstudios. Er erlaubt die Aufnahme auf unabhängigen Spuren. Man kann somit zeitlich nacheinander oder gleichzeitig aufnehmen.
Das Mischpult ist die logistische Zentrale der Audio-Daten. Alle Geräte, die Audiosignale erzeugen und aufzeichnen, sind hier angeschlossen und können bearbeitet werden. Zudem wird bestimmt, wo diese Informationen fliessen. Das Prinzip ist immer das gleiche: Die Signale werden an den passenden Eingängen empfangen, die Lautstärke und der Klang werden bearbeitet und zu den richtigen Ausgängen geführt.
Das Mikrofon ist der Anfang der Übertragungskette und hat die schwierige Aufgabe, die Funktion des menschlichen Ohres künstlich nachzubilden. Seine Aufgabe ist, Schallwellen in elektrische Schwingungen umzuwandeln. Das Mikofon besitzt eine Membran, die durch den Schall in Schwingungen versetzt wird. Diese werden in einem Wandler in elektrische Wechselspannung umgesetzt.
Für das Mikrofon gibt es zwei wichtige Charakteristika: Die Art der Schallwandlung und die Richtcharakteristik. Bei der Schallwandlung unterscheidet man zwischen dynamischen und Kondensatormikrofonen. Diese beide Mikrofonetypen unterscheiden sich in der Membran: Beim dynamischen Mikrofon bewegt sich ein elektrischer Leiter im engen Spalt eines starken Magneten hin und her, wodurch an seinen Enden eine elektrische Wechselspannung enststeht. Beim Kondensatormikrofon dient die Membran mit einer festen Gegenelektrode als Kondensator. Die Kapazität hängt vom Abstand der Elektroden zueinander ab.
Dynamische Mikrofone haben den Vorteil, dass sie eine gute Klangqualität haben und hohe Schalldruckpegel ertragen. Kondensatormikrofone haben eine höhere Übetragunsqualität, vertragen aber nicht so hohe Schalldrucke wie die dynamischen Mikrofone. Zur Richtcharakteristik unterscheidet man vier Hauptkategorien: Kugel-, Nieren-, Hypernieren- und Achtercharakteristik. Das Mikrofon mit Kugelcharakteristik nimmt den Schall aus allen Richtungen gleich gut auf. Die Nierencharakteristik hat den höchsten Übertragunsfaktor nach vorne. Hinten ist das Mikrofon am unempfindlichsten. Durch die Bündelung der Empfindlichkeit nach vorne ist der Pegel bei gleichem Abstand der Schallquelle dreimal so hoch wie beim Mikrofon mit Kugelcharakteristik. Zudem werden die tiefen Bässe aus allen Richtungen gleich gut übertragen.
Die Hypernierencharakteristik hat eine stärkere Bündelung nach vorne, als die Nierencharakteristik, und eine geringere bei 120°. Der von vorne kommende Schall wird in einem viermal so hohen Pegel umgewandelt gegenüber einem Mikrofon mit Kugelcharakteristik. Das Mikrofon mit Achtercharakteristik nimmt den Schall in den beiden Richtungen am besten auf, die sich senkrecht zur Membranfläche verhalten.
Die Richtcharakteristik ist somit das wichtigste Merkmal bei der Auswahl eines Mikrofons.

Signalprozessoren sind Geräte, die eingesetzt werden, um das Audiosignal zu verändern. Diese Geräte können Effekte wie Hall, Delay, Chorus, Flanger, Tremolo, Vibrato, usw. erzeugen, ähnlich wie Programme zur Bearbeitung des Direktklangs wie Kompressor, Equalizer, Enhancer einzeln oder gleichzeitig. Die meisten Effektgeräte besitzen MIDI-Anschlüsse. Der Unterschied zu den Soundprozessoren ist, dass das Signal viel unauffälliger bearbeiten als die Effektgeräte. Der wichtigste Soundprozessor ist der Dynamikprozessor, der vier wichtige Funktionen hat: Limiter, De-Esser, Expander und Noisegate. Mit dem Limiter lässt sich der maximale Pegel einstellen, der nützlich ist, um Übersteuerungen zu vermeiden. Der De-Esser ist eine spezielle Form des Kompressors. Er ist dafür zuständig, dass hohe Frequenzanteile, die in den Konsonanten s, sch, t, c, usw. enthalten sind, heruntergeregelt werden. Zudem kann er allgemein störende Zischlaute vermeiden oder abmildern.
Der Expander arbeitet umgekehrt wie ein Kompressor, d.h. er vergrössert die Dynamik. Ein anderer wichtiger Einsatz besteht in der Reduzierung von Störgeräuschen während den Signalpausen. Das Noisegate blendet Signale, die unterhalb der einstellbaren Schwelle liegen, völlig aus. Er wird angewendet, um z.B. das Rauschen oder andere Störsignale in den Signalpausen auszuschalten.
Mic-Preamps sind Mikrofon-Vorverstärker, die äusserst wichtig sind für das Gelingen eine Aufnahme: Sie sind dafür zuständig, dass möglichst alle Signale in die Signalkette aufgenommen werden. Rauschminderer werden eingesetzt, um das Rauschen, das meist in den höheren Frequenbereiche liegt, zu vermindern. Das hat den Nachteil, dass die Musik etwas dumpf klingt. Equalizer sind Schaltkreise zur gezielten Beeinflussung des Frequenzganges eines Signals.
Zu diesen Soundprozessoren gehören auch die sogenannten Psychoakustik-Prozessoren, die die Eigenschaften des menschlichen Ohres ausnützen.
Der Exciter analysiert das Klangmaterial und produziert dazu passende Obertöne, die künstlich hergestellt werden. Der Subbass-Prozessor macht sich folgenden psychoakustischen Effekt zu Nutze, um die Basswiedergabe kleiner Boxen zu verbessern: Tiefe Frequenzen besitzen gut hörbare Obertöne. Diese werden vom menschlichen Gehör analysiert und das Gehirn erzeugt den fehlenden Grundton sozusagen virtuell durch Oberton, ohne dass im Bereich des Grundtons Schall abgetastet werden kann. Ein weiterer Effekt ist der Stereo-Imager. Dieses Gerät erlaubt es, eine eng wirkende Aufnahme, in der z.B. alle Instrumente in der Mitte plaziert sind, nachträglich horizontal aufzufächern. Mit den Mastering-Prozessoren kann man den Aufnahmen die letzte Polierung geben, bevor eine CD gebrannt wird. Dabei handelt es sich um Geräte, wie z.B. Stereo-Equalizer, Multiband-Kompressor und Peak-Limiter, die im Bereich des Klangbildes Perfektionierungen möglich machen.

Hiermit wurden die wichtigsten Komponenten eines Aufnahmestudios erläutert und erklärt. Fast alle dieser obengenannten Effekte lassen sich kostengünstiger im Rechner ohne externe Hardware nachbilden. Zudem kann man die Programme mit Plug-ins erweitern.
Die Aufnahme und die Bearbeitung von Audio und MIDI im Computer hat sehr viele Vorteile. Aufwändige Hardware eines Studios, wie z.B Mixer, Multitrack-Recorder und Effektprozessoren, usw. lässt sich durch Software ersetzten. Zudem lassen sich die Programme über das Internet schnell und preiswert, wenn nicht sogar gratis, auf den neusten Stand bringen. Die Bedienung ist dank den Bildschirmansichten und der auf Windows basierten graphischen Gestaltung einfach und komfortabel. Die ganze Produktion bis zur CD-Pressung bleibt auf digitaler Ebene. Da praktisch heute alle Computer einen integrierten CD-Brenner haben, lassen sich einfach und schnell die Aufnahme vervielfältigen.


XII. Die digitale Ära

Bereits im Jahre 1965, als Sony und Phillips den Walkman lancierten, kauften sie vom nordamerikanischen Erforscher James T. Russel die Rechte für seine Erfindung, die die Benützung des Lasers für die Gravur und Wiedergabe von musikalischen Informationen vorsah.
Mit der Einführung der Compact Discs im Jahre 1981 wurde ein weiterer Schritt der Entwicklung von Tonträgern für digitale Musik erreicht. Die Entwicklung der CD hat eine spannende Entstehungsgeschichte: In den 1970er Jahren untersuchten Sony und Phillips neue technische Möglichkeiten zur digitalen Aufzeichnung des Klanges. Sony suchte sich dazu ein prominentes Versuchskaninchen: Im September 1978 nahm sie heimlich eine Probe auf, die von Herbert von Karajan dirigiert wurde, um ihr neues Verfahren, um Störgeräusche zu beseitigen, auszuprobieren. Danach luden sie den Dirigentenen, die Aufnahme zu hören und zu kritisieren. Dies gab der Sony Anhaltspunkte, um weiter an diesem Projekt zu arbeiten. Gleichzeitig experimentierte Phillips mit neuen Möglichkeiten der Videoaufzeichnung, wobei die Speicherkapazität des Videoträgers sehr limitiert war.
Beide Firmen eigneten sich zur Festlegung eines Standards für den zukünftigen Tonträger: Er sollte mindestens die Länge der 9. Symphonie von Beethoven enthalten können. Dabei nahmen sie als Beispiel die Aufnahme von Willhelm Furtwängler, die die länge von 74 Minuten hatte. Tatsächlich entspricht der Standard einer heutigen CD rund 12 cm Durchmesser der CD entsprechen 74 Minuten Musik.
Aber wieso war die CD so revolutionär? Die CD besteht aus einem durschsichtigem Trägermaterial, dem Polycarbonat. Die Oberseite ist Träger von digitalen Informationen die in Form von mikroskopischen kleinen Vertiefungen, den Pits, und Zwischenräumen, den Lands, graviert sind. Diese zusammen bilden eine "Informationsspirale", die eine Länge von 5 km erreicht. Diese Oberfläche wird mit einer feinen Alumiumfolie beschichtet und mit einer Lackschicht geschützt. Die Informationen werden durch DA-Wandler vom Laser eines Abspielgerätes abgetastet und wiedergeben.
Dank der Verbreitung der PCs und des Internets am Arbeitsplatz sowie im Haushalt wurde der Verbreitung der Musik eine neue Dimension gegeben: Musik ist nicht mehr an einen Tonträger (= analoge Musik) gebunden, sondern ist zu einem normalen File geworden, das mit Hilfe von Software auch zu Hause bequem bearbeitet werden kann und via Internet gesendet werden kann. Es gibt kompakte Formate der Files, wie das MP3, die das File verkleinern und dennoch die Qualität erhalten und somit die Sendung via Internet erleichtern.
Die Vorteile von den digitalen Aufnahmen liegen bei guten AD-DA-Wandlern und gegenüber Auflösung in der hohen Qualität des Tons. Zudem fehlt das Rauschen. Die Lebensdauer beträgt bei normalem Verbrauch ca. 30 Jahre und der Verschleiss ist minim. Auch bei der Kopie entsteht praktisch kein Qualitätsverlust im Gegensatz zu analogen Tonträgern.
Auf welchem Prinzip basiert die digitale Musik? Dazu machen wir einen kleinen Exkurs in die Physik. Ein klingender Ton oder allgemeiner, eine Schallquelle erzeugt Vibrationen, die sich mit dem Medium der Luft im Raum weiterverbreiten. Unser Ohr wandelt dieses "Signal" durch einen komplizierten Mechanismus im Innenohr in elektrische Signale, um die an unser Gehirn weitergegeben werden. Mit speziellen Maschinen ist es möglich, diese Vibrationen als Sinuswellen darzustellen. Eine Sinuswelle verrät uns viele Informationen: Die Amplitude der Welle, gibt uns den Volumen an: Je grösser die Amplitude (bei gleichbleibender Frequenz), desto lauter ist der Ton. Die Lautstärke wird in dB (Dezibel) ausgedrückt, die aus einer logarithmischen Skala gewonnen wird. Man kann sich das einfach so vorstellen: Wenn die Amplitude um 10 dB erhöht wird , hat man die zweifache Lautstärke. Unterhalb von 30-40 dB hört das menschliche Ohr praktisch nichts. Die Schmerzgrenze wird ab 120 dB erreicht.
Das Timbre wird vom Spektrum ausgedrückt, die vom Material des musikalischen Instruments und von der Schallquelle abhängig ist.
Die Höhe des Tones wird von der Frequenz ausgedrückt. Die Frequenz, die in Hz (der Name des deutschen Physikers Heinrich Rudolf Hertz) angegeben wird, kann man als Anzahl der Wellen definieren, die Innerhalb einer Sekunde vibrieren.
Das menschlische Ohr hat die Fähigkeit, die Frequenzen, die sich zwischen 20 - 20'000 Hz befinden, zu hören. Die Frequenzen im Bereich von 20 -500 Hz entsprechen musikalisch den Basstönen, die zwischen 500 - 8000 Hz der Mittellage und diejenigen zwischen 8'000 - 20'000 dem hohen Bereich.

Dazu wird die Sinuswelle in kleine Abschnitte unterteilt. Die Welle wird Treppenförmig in Schritte unterteilt, die einer Pyramide gleichen. Diese Treppenabschnitte (Quanten), die jeweils ein Rechteck unterhalb der Welle formen, erhalten einen bestimmten numerischen Wert. Auf diese Weise kann man jeden kleinen Treppenabschnitt digital übersetzen, indem man die jeweiligen numerischen Werte kennt. Je kleiner die Treppenabschnitte sind, desto besser wird die Klangqualität sein, da die Form der digitalisierten Welle, sich an die reale Form der Sinuswelle anschmiegt. Je enger die Welle ist, desto grösser ist der Anzahl der "Treppenabschnitte" pro Sekunde. Dies bedeutet, dass die Klangqualität entsprechend besser ist. Im ersten Augenblick könnte man denken, dass die analoge Aufnahme exakter als die digitale ist, da die Aufnahme der musikalischen Wellen bei der ersteren ad continuum stattfindet. Die heutigen Geräte können die Dimensionen der "Treppen" aber so sehr verdichten, dass die Töne sehr präzis übernommen werden. Zudem entfällt der Störfaktor der Geräusche, die in analogen Aufnahmen vorkommen. Damit die Qualität der Aufnahme für gute und sensible Hörer bis zu 20'000 Hz gewährleistet wird, muss die Musterentnahme vom doppelten der maximalen Frequenz gemacht werden, also bis zu ca. 44'100 Hz. Dies ist die Frequenz die in der Pulse Code Modulation (PCM) vorgenommen wird, d.h. die Methode mit der die CDs die auf dem Markt erscheinen kodiert werden. Bei einer Kodierung braucht man eine Speicherkapazität von ca 10.5 MB pro Minute. Dies wir ein Problem, wenn man das File z.B. via Internet senden möchte. Aus diesen Gründen, wurden Möglichkeiten entwickelt, musikalische Files zu komprimieren und im kompakten Format zu senden. Man kann die Files so komprimieren, dass man keine Informationen verliert (lossless) oder mit Verlust an Informationen (lossy). Zum ersteren gehören die Files in Wav-Format zum letzteren das MP3-Format. Mit der Methode der Lossless-Formate kann man ein File bis auf maximal 50% komprimieren. Unter diesen Programmen, gehören zu den bekanntesten: FLAC, Monkey's Audio, LPAC, Apple Lossless, Windows Media Audio lossles. Diese Programme kann man in ihren Funktionen mit Plug-ins erweitern, die kleinen Portionen von Software entsprechen.
Die Überlegung bei den Lossy-Formaten ist die folgende: Aus psychoakustischen Forschungen hat man feststellen können, dass der grösste Teil der Menschen doch nur bis zu 15'000 Hz hört. Die Hörfähigkeit nimmt vom 35. Lebensjahr ab. Das menschliche Ohr kann sehr gut hohe Frequenzen hören, wenn die tiefen Frequenzen eliminiert werden. Zudem hat man herausfinden können, dass während den ersten Millisekunden, die einem starken und plötzlichen Klang folgen, das menschliche Ohr die schwächeren Töne nicht mehr wahrnimmt. All diese Schwächen des menschlichen Ohres hat man sich zu Nutze gemacht, um die Files von unnötiger Last, wenn wir das so bezeichnen wollen, zu befreien. Dies führt dazu, dass man der File um das Zehnfache (also bis 90%) verkleinen kann und trotzdem eine hohe Qualität des Klanges gewährleistet wird. Der Nachteil ist, dass der transformierte File nicht mehr in Originalformat umgewandelt werden kann, da ein wichtiger Teil der Informationen verloren geht. Zu den bekanntesten Programmen gehören: LAME; Fraunhofer IIS und Xing. Zudem gibt es eine andere Version von MP3, das mp3PRO, das die Speicherkapazität von MP3 nochmals halbieren kann.
Nachdem die "Verarbeitung" der musikalischen Files erklärt wurde, möchte ich noch kurz die "players" oder Wiedergabeinstrumente kommentieren. Dabei unterscheidet man zwischen "player software" und "player hardware". Die MP3-Files können nämlich entweder auf dem PC oder durch tragbare Ableser wiedergegeben werden. Zur Software gehören aktuell der Window Media Player für Windows und das AppleiTunes für Macintosh. Diese Softwares stehen normalerweise schon beim Kauf des Rechners zur Verfügung. Es gibt auch noch Software von guter Qualität, die von Microsoft und Apple unabhängig ist, das Winamp.
Als Hardware sind die MP3-Player im aktuellen Markt die bekanntesten. Heute besitzen diese Player einen Audio-Eingang, der es ermöglicht, von einer Schallquelle (CD, Radio) direkt im digitalen Format ein File kompakt aufzunehmen. Zudem besitzen sie eine Playlist, wo der Benutzer eine persönliche Repertoireliste herstellen und auswählen kann. Unter den MP3-Ableser unterscheidet man drei Arten: diejenigen mit interne flash-memory, diejenigen mit auswechselbaren Chips und diejenigen mit einer integrierten Harddisk. Zu den ersteren gehören die Player von sehr kleinen Dimensionen, wie z.B. der Typhoon mit periphärer RAM. Ihre Speicherkapazität variiert zwischen 128-512 MB.
Diejenigen der zweiten Kategorie sind etwas grösser, da sie ein Chip von der Art Secure Digital oder Multi Media Card besizten, die immer häufiger in Natels und Digitalkameras verwendet werden. Sie haben den Vorteil, dass die Chips auch in anderen Geräten, die nicht nur für die musikalische Wiedergabe vorgesehen sind, benutzt werden können. Diese Chips sind also multimedial.
Die zur letzten Kategorie gehörenden Geräte werden auch digitale Jukebox genannt, und werden sicherlich zukunftsweisend sein. Durch die integrierte Harddisk variert die Speicherkapazität zwischen 1.5-40 GB (!).
Zu diesen Lesegeräte müssen wir noch die hybride Ablesere hinzuzählen, wie DVD,DivX, Natels, Digitalkameras und CD-Players, die abgesehen von ihren spezifischen Funktionen, auch Audiofiles im MP3-Format wiedergeben können.
Nach dieser kurzer Erklärung der komprimierten Files und deren Anwendung, möchte ich auf das Thema der Tauschbörsen über das Internet zu sprechen kommen, die seitens der Musikkünstler und CD-Kolosse immer noch für viel Polemik sorgen. Dies stellt tatsächlich ein grosses Problem der Urheberschutzes dar, da die Autoren im Internet (noch) nicht geschützt werden können, obwohl die Tauschbörsen illegal sind. Zudem ist der Begriff der Illegalität der Tauschbörsen weltweit nicht gleich geregelt. In der EU ist z.B. das file sharing i. A. erlaubt, wenn es ohne Erwerbszweck getrieben wird, während in Italien file sharing von urheberrechtlich geschützten Files verboten wird. Dies zeigt, wie sich die Gesetzesebene am neuen kulturell bedingten Musikkonsum noch nicht hat anpassen können, teilweise dadurch bedingt, dass die Entwicklung der Soft- und Hardware ständig in Entwicklung ist.
Unterdessen gibt es legale Programme, die es erlauben, files herunterzuladen, die bezahlt werden. Zu diesem Programm gehört zu Zeit ders Apple iTunes Music Store. Bei der Registrierung muss der Kunde die Kreditkartennummer angeben, damit die runtergeladenen Files gebucht werden können. Die berühmteste Tauschbörse ist Napster, die nach zwei Jahren Schliessung von Roxio gekauft wurde und dadurch legalisiert wurde. Napster 2 erlaubt es heute mit einem Abo von ca. $9.95 pro Monat über 700 000 Files zu hören. Zudem kann für den gleichen Preis ein ganzes Album heruntergeladen werden.
Noch zu erwähnen sind die "peer to peer"-Tauschbörsen, die den Tausch von Musikfiles innerhalb einer kleineren Gruppe ermöglichen, die eine dafür konzipierte Software besitzen. Zu diesen Programmen gehören WinMx, Kazaa, eMule, BearShare, StrwamCast Mopheus, Napigator und LimeWare.


XIII. Schlussgedanken

Seit dem 20. Jahrhundert dehnt sich der Wirkungsbereich der Musik stark aus. Bis im 19. Jahrhundert wurde die Musik nur an bestimmten Orten wiedergegeben. Jede Aufführung war einmalig. Das Grammophon und das Radio machten es möglich, dass die Musik nicht mehr an einen Ort gebunden ist. Das akustische Kulturgut beginnt frei verfügbar zu werden. Zudem ermöglicht es die unbegrenzte Reproduktion von Musik. Die gedruckten Noten waren noch ein Privileg des Bürgertrums, während die Schallplatte alle Schichten erreichte.
Durch die elektronischen Medien wird in der ersten Hälfte des 20. Jahrhunderts die Verarbeitung von verschiedener Klänge möglich. Der künstlerische Umgang mit Klängen wird entwickelt. Unter Audio Art versteht man die Klangkunst, die technische Medien verwendet. Eigentlich war es der Filmton, der die ersten Klangmontagen ermöglichte und das Prinzip der Musik-Collage entwickelte.
Im letzten Viertel des 20. Jahrhundert ist eine umfassende Technisierung von Musik zu beobachten, was die Übertragung, Speicherung und Synthese betrifft. Die Experimente von Karlheinz Stockhausen wurden auf den Computer übertragen, so dass heute jede Art von Klang digitalisiert und weiterverarbeitet werden kann. Die nahezu parallel verlaufende Entwicklung des Computers hat die digitale Klangsynthese ermöglicht, die die Computermusik auf den heutigen Stand gebacht hat, aber auch viele neue Fragen in Bezug auf die Manipulation des musikalischen Kulturguts aufgeworfen hat. Die nächste Computergeneration wird, von den heutigen Kenntnissen und Entdeckungen ausgehend, aus den DNA-Computern bestehen.
Die Ästhetik der Popmusik wurde ebenfalls von den neuen Technologien beeinflusst. Mit dem Play-Back-Verfahren ist es möglich, dass die einzelnen Instrumente nacheinander aufgenommen werden. Die Reproduktion übernimmt die wichtigste Stellung in der Musik, so dass praktisch jeder Liveauftritt wie aufgenommen klingen soll. Das Lied im Sinne einer Melodie und einer bestimmten Harmoniefolge wird immer weniger wichtig. Der Klang und die Bearbeitungstechnik werden zum wichtigsten Kriterium.
Die Erzeugung der Musik nimmt heute neue Formen der Gestaltung an. Die Art und Weise wie man die Musik aufnimmt, verändert sich und bildet eine Zäsur in der Geschichte der Rezeption. Im Weiteren haben die heutigen Technologien auch den visuellen Teil verändert und somit die Präsenz des Musikers überflüssig gemacht.
Bis in die jüngste Zeit war die ästhetische Erfahrung der Musik mit dem Interpreten verbunden. In der Tadition des Westens geht die Interpretation eines Stückes von einer niedergeschriebenen Quelle in Form der Notenschrift aus. Der Interpret übernimmt die Rolle des Vermittlers zwischen Komponist und Publikum. Die Computermusik hat diese einzigartigen Aufführungssituation bereichert. Mit den neuen Techniken kann man Konzerte geben, wo ein Interpret überflüssig wird. Dieses Faktum ist aber auch nur eine Interpretation. Der Punkt, der am meisten von den Gegnern der Computermusik aufgenommen ist, ist dass das menschliche Element felht. Mit den heutigen Technologien verschwindet die Grenze zwischen Kreator, Konsument und Interpret. Das Fazit ist, dass aber auch mit den neuen Technologien die Aufgabe des Komponisten doch immer die gleiche bleibt: Die Musik soll uns berühren und unsere Emotionen erwachen lassen.
Wir können an dieser Stelle feststellen, dass sich die Musik in einer neuen historischen Situation befindet. Ungeachtet der Befürworter und Gegner lässt sich sagen: Die elektronische Musik ist ein Weg ohne Rückweg, weil sie zur heutigen Realität geworden ist.


Literatur:

Carpeux, Otto Maria: O livro de ouro da história da musica, Rio de Janeiro 2001

Colombo, Marco: MP3 e Musica Digitale, Milano 2004

Emmerson, Simon: Electro-acoustic music, in: New Grove Dictionary of Music and Musician; hrsg. von Stanley Sadie, London 2001, Bd. 8, S. 59-67

Enders, Roland: Das Homerecording Handbuch, München 2003

Frisius, Rudolf: Serielle Musik, in: Musik in Geschichte und Gegenwart, Sachteil (neue Auflage); hrsg. von Ludwig Finscher, Kassel 2001, Bd. 8, Sp. 1328-1354

Gennari, Maria Cristina: Minidicionàrio de Informàtica, São Paulo 1999

Heinrich, Marie-Noëlle: Création musicale et technologies nouvelles, Condé-sur-Noireau 2003

Manning, Peter: Electronic and computer music, Oxford 2004

Manning, Peter: Computer and Music, in: New Grove Dictionary of Music and Musician; hrsg. von Stanley Sadie, London 2001, Bd. 6, S. 202-218

Meyer, Jürgen: Akustik und musikalische Aufführungspraxis, Frankfurt am Main 1995

Putermann, Paulo: Indústria cultural: A agonia de um conceito, São Paulo 1994

Salmen, Walter/Schneider, Norbert J.: Der musikalische Satz, Innsbruck 1987

Stelkens, Jörg: Komponetzen, in: Neue Zeitschrift für Musik, Bd. 5, September/Oktober, Mainz 2004

Schels, Ignatz: Internet. Sehen und können, München 2005

Supper, Martin: Computermusik, in: Musik in Geschichte und Gegenwart, Sachteil (neue Auflage); hrsg. von Ludwig Finscher, Kassel 2001, Bd. 2, Sp. 967-982

Toop, Richard: Karlheinz Stockhausen, in: New Grove Dictionary of Music and Musician; hrsg. von Stanley Sadie, London 2001, Bd. 24, S. 399-408

Ungeheuer, Elena: Elektroakustische Musik, in: Musik in Geschichte und Gegenwart, Personenteil (neue Auflage); hrsg. von Ludwig Finscher, Kassel 2001, Bd. 2, Sp.1717-1765