<<

Studienreader zur analogen elektroakustischen Musik

hg. von Michael Custodis

2

Der vorliegende Reader dokumentiert die Ergebnisse der Schreibwerkstatt, die als Seminar im Wintersemester 2012/13 im Bachelorstudiengang Musikwissenschaft an der WWU Müns‐ ter angeboten wurde. Innerhalb des vorgegeben Rahmenthemas stand es den Studierenden frei, selbstständig ein Themen zu finden, um in gemeinsamen Arbeitssitzungen das Recher‐ chieren, Präzisieren, Ausarbeiten und Redigieren lexikalischer Artikel zu üben. Die themati‐ sche Fokussierung auf die Geschichte der analogen elektroakustischen Musik diente dabei zugleich der Vorbereitung auf ein Workshop‐Seminar des Komponisten Simon Stockhausen im folgenden Sommersemester 2013, das unter dem Titel „Grenzenlos – Möglichkeiten der elektronischen Klangerzeugung im 21. Jahrhundert“ den Studierenden mit praktischen Übungen die digitale Phase der elektroakustischen Musik nahebringen wird.

Münster, im April 2013

Michael Custodis

3

Seite Additive Synthese 4 7 9 12 Home‐Made Electronics 15 Institut de Recherche et Coordination Acoustique/Musique (IRCAM) 18 21 24 Musique concrète 26 30 34 Walter Ruttmann 37 39 Simon Stockhausen 42 Tape Music 44 Elektroakustische Musik beim Westdeutschen Rundfunk Köln I. Die elektroakustische Musik beim Rundfunk 47 II. Das elektronische Studio des WDR 50 III. Technische Entwicklung 53 I. Biografie 55 II. Stochastische Synthese 58 III. Centre de Mathématique et Automatique Musicales – CEMAMu 60

4

Additive Synthese oder auch Fourier‐Synthese, nennt man die Erzeugung einer komplexen periodischen Schwingung aus einer Reihe von harmonischen Komponenten, den sog. Sinustönen.

1.Fourier‐Theorem 2.Additive Synthese 3.Klangsynthese in der elektroakustischen Musik 4. Digitalisierung der additiven Synthese

1.Fourier‐Theorem Der franz. Mathematiker und Physiker Joseph Fourier (1768‐1830) erkannte, dass jede kom‐ pliziertere periodische Schwingung als Schallphänomen eine Darstellung von Überlagerun‐ gen mehrerer reiner, harmonischer Schwingungen ist. Unter harmonischen Schwingungen versteht man das zu einer Grundtonfrequenz gehörige ganzzahlige Vielfache der Grundfre‐ quenz. Somit lässt sich ein auf seine Obertöne und ihren Lautstärkeanteil im gesamten Klanggebilde hin untersuchen, was auch Fourier‐Analyse genannt wird. Der deutsche Physi‐ ker Georg Simon Ohm fand 1843 heraus, dass das menschliche Gehör nach eben diesen ana‐ lytischen Methoden arbeitet. Umgekehrt zeigt das Fourier‐Theorem, dass sich eine Schwin‐ gungsform aus verschiedenen sinusförmigen Teilschwingungen zusammensetzen lässt.

2.Additive Klangsynthese Einzelne Obertöne (auch Partial‐ oder Teiltöne genannt) einer Klangstruktur entstehen durch das Hinzufügen von Sinuston‐Komponenten. Jeder Teilton hat eine eigene Hüllenkurve im Frequenzspektrum. Die Hüllenkurve einer Frequenz lässt sich in vier zeitlich aufeinander fol‐ gende Phasen unterteilen: Anschwellzeit (A: Attack), Abklingzeit (D: Decay), Haltezeit (S: Sustain), Ausklingzeit (R: Release) (siehe Abb. 1).

Abb. 1: Schema der vier zeitlichen Phasen einer Frequenzhüllkurve

Somit hat jeder Oberton eines Klangs seinen eigenen Charakter der Tonentfaltung und eine direkte und hörbare Einwirkung auf das ganze Tongebilde. Ziel der additiven Synthese ist es unter anderem, natürliche Klänge oder die mechanischer Musikinstrumente authentisch zu reproduzieren. Dabei ergibt die Addition und Modulation von rund 32 Obertönen einen für das menschliche Gehör natürlichen Klang. Zu viele Teiltöne wirken wiederum unrealistisch konstruiert. 5

3.Klangsynthese in der elektroakustischen Musik (1) Subtraktive (selektive) Klangsynthese bezeichnet einen Prozess, in dem gewünschte Fre‐ quenzen eines Klanggemisches oder Rauschens (Überlagerung mehrerer nicht‐harmonischer Schwingungen) mit Hilfe von Frequenzbandfiltern (Equalizer) herausgeschnitten oder aber verstärkt werden. Allerdings lassen sich singuläre Frequenzen nicht separat filtern. Die zu fil‐ ternde Frequenz kann auf Grund von elektrotechnischen Prinzipien nur eingegrenzt und ge‐ filtert werden. Es können deshalb nur ganze Frequenzbänder bearbeitet werden. Partialfre‐ quenzen werden herausgefiltert, bis eine gewünschte Tonfarbe moduliert ist (Funktionswei‐ se früher ). Der neue Klang kann dann mit weiteren Filtern manipuliert werden. Die (2) additive Synthese erfordert zunächst keine digitale Signalverarbeitung. Mit mehreren Oszilatoren werden die Partial‐Sinustöne eines Sounds erzeugt. Grundlage hierfür ist die Ei‐ genart von Sinustönen: Ein Sinuston ist eine periodische Schwingung mit nur einer Frequenz f (1/Periodendauer T), welche die Tonhöhe, und einer Amplitude (. Auslenkung einer Schwingung), die die Lautsärke bestimmt (siehe Abb. 2).

Abb. 2: Schema einer harmonischen und ungedämpften Sinusschwingung

Die Hüllkurven aller Frequenzen im Sound müssen einzeln mit sog. Modulen bearbeitet, be‐ vor sie mit einem VCA (voltage controled Amplifier) verstärkt werden können. Neben den Modulen zur Hüllkurvenbearbeitung werden auch solche zur Freq.‐, Amplituden‐ und Pha‐ senmodulation verwendet, um neue Klänge zu generieren. Bereits in der Kölner elektroni‐ schen Musik der frühen 1950er wurden Klänge mit dem Prinzip der additiven Synthese kre‐ iert. Um einen natürlichen Klang zu reproduzieren, benötigt man für alle Obertöne separat die oben genannten Geräte und Module. Daher ist die additive Synthese mit Computeran‐ wendung leichter und in einem größeren Umfang zu realisieren. Als (3) direkte Klangsynthese bezeichnet man die digitale Berechnung von Frequenzmodula‐ tionen zur Erzeugung der gewünschten Schwingungsform mit einem entsprechenden Pro‐ gramm, dem eine Wertetabelle der Schwingungsformen zugeordnet wird. Die Elongation (max. Auslenkung einer Schwingung) mit einem Spannungswert wird als binäre Form ange‐ geben und durch einen D/A‐Wandler in eine analoge elektrische Schwingung umgeformt.

4.Digitalisierung der additiven Synthese Komplexe, natürliche Klänge, wie die eines mechanischen Musikinstrumentes, können erst am Computer mit einer entsprechenden Rechenleistung nutzerfreundlich, das heißt mit technischen Mitteln geringeren Umfangs realisiert werden. Kompliziert bei der Berechnung von Klängen ist die temporäre Differenz in der Entwicklung der Partialtöne und ihrer jeweils 6 eigenen Hüllenkurve. Durch eine digitalisierte Klangsynthese ist ein präziserer Eingriff in die Mikrostruktur (die Parameter jeder einzelnen Frequenz) von Klängen möglich sowie die Er‐ zeugung einer beliebig hohen Anzahl von Obertönen ohne größeren technischen Aufwand. Es wird eine hohe Rechenleistung benötigt, um eine hohe Auflösung des Klangs zu erzielen. Durch die Digitalisierung können Schwingungen nicht als Ganzes beschrieben werden, son‐ dern immer nur punktuell in Abhängigkeit von der Zeit und somit immer lückenhaft. Zu ei‐ nem Zeitpunkt t werden die Parameter einer Schwingung gespeichert und können so wie‐ dergegeben werden. Je mehr einer Schwingung in Binärform ausgedrückt werden können und je kleiner die Lücken zwischen festgehaltenen Parametern werden, umso präzi‐ ser wird eine Wiedergabe möglich. Bei einer hohen Klangauflösung ist das menschliche Ge‐ hör nicht mehr in der Lage, die Lücken bewusst wahr zu nehmen. Ein klanglicher Qualitäts‐ unterschied desselben Sounds bei unterschiedlicher Auflösung ist durchaus hörbar. Die digi‐ tale additive Klangsynthese ermöglicht theoretisch, alle vorstellbaren Klänge zu erschaffen, diese zu samplen und sie musikalisch nutzbar machen.

Quellen Eimert, Herbert und Humpert, Hans Ulrich, Das Lexikon der elektronischen Musik, Regensburg 1973 Pousseur, Henri, in: 1 (1955), Heft 1 Elektronische Musik Enders, Bernd, Lexikon Musikelektronik", Mainz 1985 Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010 Abb.2: http://musicweb.hmt‐hannover.de/ipmm/mth_content/mth_adsr.gif [3. Februar 2013]

Peter Bergmüller

7

Boulez, Pierre Französischer Komponist und Dirigent (* 26. März 1925 in Montbriston). Er gilt als einer der herausragendsten Vertreter der Avantgarde. Anfangs noch stark durch seinen Lehrer beeinflusst, verband er die bei ihm gelernten, sich wiederholenden Reihenprinzi‐ pien der Satz‐ und Formlehre später mit dem Spätstil Anton Weberns und Igor Strawinskys Rhythmik zu einer einzigartigen Kompositionsweise, welche in der Multiplikationstechnik mündete. Ein zentraler Aspekt seiner Musik ist die stetige Entwicklung der Variation sowie der Einfluss vorklassischer, europäischer als auch außereuropäischer Musik. Außerdem hatte die Literatur und Dichtung von beispielsweise Stéphane Mallarmé oder René Char große Be‐ deutung. Über Zwischenschritte gelenkter Aleatorik erweiterte er seinen Stil immer weiter und schränkte seine Kompositionstätigkeit in den 1960er Jahren zunehmend ein zugunsten seiner Karriere als einer der führenden Dirigenten des 20. Jahrhunderts. Seine Karriere als Dirigent begann 1957 und führte zur Zusammenarbeit u.a. mit dem BBC Symphony Or‐ chestra, den New Yorker Philharmonikern, den Wiener Philharmonikern sowie den Wagner‐ Festspielen in Bayreuth.

Geboren als Sohn des Ingenieurs und Industriellen Léon Boulez, wuchs er in einem großbür‐ gerlichen, katholisch geprägten Elternhaus auf. Erstmalig bekam er mit 6 Jahren Klavierun‐ terricht. Auf Wunsch des Vaters besuchte er von 1941‐43 die École polytechnique in , um Mathematik zu studieren. Boulez setzte sein Klavierunterricht bei Lionel de Pachmann fort, der ihm die ersten zentralen musikalischen Grundlagen vermittelte. Gegen den Wunsch des Vaters zog es ihn im Herbst 1943 nach , um an das dortige Conservatoir zu wech‐ seln. Dort besuchte er den Harmonielehreunterricht von Georges Dandelot. Da Boulez die klassischen Methoden des Unterrichts nicht schätzte, nahm er ab April 1944 Privatunterricht bei Andrée Vaurabourg‐Honegger. Der bald darauf erfolgten Aufnahme in die Harmonieklas‐ se von Oliver Messiaen wurde zu einem zentralen Einfluss , da nicht nur selten zu hörende europäische Musik (z.B. Arnold Schönbergs , Alban Bergs Lyrische Suite), son‐ dern auch außereuropäische Musik behandelt wurde. Nach dem Besuch einer Aufführung von Schönbergs Bläserquintett op.26 unter der Leitung von René Leibowitz beschloss Boulez, fasziniert von der Reihentechnik, bei diesem Unterricht zu nehmen. Er führte ihn an die Spätwerke Weberns heran, kompositorisch umgesetzt als Verschmelzung mit Einflüssen von Messiaen in seinem Werk von 1945 Douze Notations. Seine erste Hörspielmusik, Le Soleil des Eaux, realisierte er 1948 in Zusammenarbeit mit Char, nachdem er einige seiner Werke gele‐ sen hatte. Auf Empfehlung Arthur Honeggers wurde Boulez Direktor des Compagnie Barrault‐Renard, was den Grundstein für seine spätere Karriere als Dirigent legen sollte. Durch die weltumspannenden Tourneen der Gruppe lernte er hautnah z.B. die südamerika‐ nische Musik kennen. Durch die Pariser Aufführung seines Stücks Le Soleil des Eaux im Jahr 1950 wuchs sein Bekanntheitsgrad, jedoch war es die von seinem Mentor Heinrich Strobel initiierte Uraufführung von Polyphon X im folgenden Jahr in Donaueschingen, die seinen Platz als einer der führenden Musiker seiner Generation beflügelte. Bereits Anfang der 1950er Jahre hatte Boulez persönlichen Kontakt mit anderen wichtigen neuen Komponisten wie Karlheinz Stockhausen [→], John Cage [→] oder Henri Pousseur [→], mit denen er sich über die Bedeutung und die neuen Wege und Möglichkeiten der Musik austauschte. 1952 nahm er erstmalig an den Darmstädter Ferienkursen teil, die er von Mitte der 1950er bis in 8 die 1960er Jahre als Dozent mitgestalltete. Der weltweite Durchbruch als Komponist gelang Boulez mit der Uraufführung seines Stücks Le Marteau sans matîre in Baden‐Baden beim dortigen Weltmusikfest 1955 der Internationalen Gesellschaft für (IGNM). Da es ablehnte, die Sonate Le Visage nuptial zu dirigieren, musste Boulez 1957 selbst übernehmen. Er beschrieb diese erfahrung später als wichtiges Erlebnis, da er nun versuchte, eine Verbindung der Ausdrucksweise aus Sicht des Komponisten und des In‐ terpreten zu suchen. Dies schuf den erfolgreichen Grundstein für die Verbindung aus Kom‐ ponist und Dirigent zu einer künstlerischen Einheit. 1959 zog Boulez von Paris nach Baden Baden. In den nachfolgenden Jahren war er vor allem sehr häufig als Dirigent (z.B. in Bay‐ reuth 1966‐70, beim BBC Symphony 1969‐72, bei den New York Philharmonikern 1971‐1975) oder als Lehrer (z.B. an der Musikakademie Basel 1960‐63, als Gastprofessor in Harvard ab 1963) tätig. Der damalige Staatspräsident Frankreichs, Georges Pompidou, bat Boulez im Jahr 1970, die Planung und den Aufbau des IRCAM [→] zu übernehmen, das im Jahr 1977 eröffnet wurde und bis 1991 unter seiner Leitung stand. Mit den neuen technolo‐ gischen Möglichkeiten, die das IRCAM bot, erschuf Boulez neue Klangwelten. Das Wiederho‐ len einzelner rhythmischer oder melodischer Strukturen wird auf virtuelle Klangelemente verlagert, so dass Boulez mit der realen Präsenz einzelner Teile spielen konnte, um die Struk‐ turen ineinander verschwimmen zu lassen. Gut demonstriert ist dies bspw. in seinem Stück Dialogue de l`ombre double (1982‐85). Dort veränderte er die Instrumentalklänge und deren einzelne Strukturen in einem simultanen Vorgang. Sein Ziel dabei war stets, die Ebenen der Zeit durch unendliche Skalierbarkeit der rhythmischen Werte und durch die Einbettung mik‐ rotonaler Welten aufzusprengen und sich in ihr frei bewegen zu können. Dies war schon bei Polyphon X sichtbar, da nach dem Vorbild Strawinskys durch einzelne rhythmische Struktu‐ ren sowie deren innere minimale Veränderung ein gleichbleibendes, sich stets veränderndes Schema entsteht, welches durch melodische Zwischenwürfe akzentuiert werden kann.

Quellen G. W. Hopkins und , Art. Boulez, in: NG2 Band 4, London 2001 Bösche, Thomas, Art. Boulez, in: MGG2 Personenteil 3, Kassel et al. 2000 Hirsbrunner, Theo, Pierre Boulez und sein Werk, Laaber 1985 Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart, 2010 http://www.universaledition.com/Pierre‐Boulez/komponisten‐und‐werke/komponist/88 [22. Januar 2013]

Alexander Schenk

9

Cage, John Milton war ein amerikanischer Komponist, Philosoph und Schriftsteller (* 05. September 1912, Los Angeles; † 12. August 1992, New York). Er gilt als einer der prägendsten Köpfe der avangar‐ distischen Künste im 20. Jahrhundert, einschließlich der elektroakustischen und experimen‐ tellen Musik in den USA.

1. Zur Person Als Sohn des Erfinders John Milton Cage Sr. zeichnete sich schon früh eine Neigung zur Musik ab, die neben einer Begabung für Literatur und Fremdsprachen die zentrale Rolle in J. Cages Leben spielt. Nach dem Collegeabbruch im Jahr 1930 begab er sich auf eine zweijährige Rei‐ se nach Europa, auf der er Eindrücke über Kunst, Musik und Architektur sammelte. Vor die‐ ser Reise wurde er auf die Zeitschrift "Transition" aufmerksam, durch die er wichtige Eindrü‐ cke über die neuesten Entwicklungen der europäischen Avantgarde sammelte, dort aber hauptsächlich durch die Schriften von James Joyce beeinflusst wurde. Zurück in Amerika stu‐ dierte er Komposition, Musiktheorie, Analyse, Harmonielehre, Kontrapunkt sowie moderne und außereuropäische Musik. Zu seinen Lehrern zählten u.a. Arnold Schönberg, Adolph Weiss, Richard Buhlig und . Zusätzlich zur musikalischen Ausbildung erwarb sich Cage ab dem Ende der 1940er Jahre fundamentale Kenntnisse über fernöstliche Kulturen, wobei der Schwerpunkt bei indischer Philosophie und Zen‐Buddhismus lag. Seinen Lebens‐ unterhalt verdiente Cage zunächst mit Gelegenheitsarbeiten und Auftragsmusiken. Er beglei‐ tete die Merce Cunningham Group als musikalischer Leiter, gab Konzerte oder lehrte experimentelle Musik an der School of Design in Chicago. Auf einer weiteren Europareise begegnete er den Malern Robert Rauschenberg und Jasper Johns, die neben Marcel Duchamps mit ihren ästhetischen Konzepten einen großen Einfluss auf Cages kompositori‐ sche Entwicklung hatten. Zudem lernte er 1949 Pierre Boulez [→] kennen, mit dem er sich über elektroakustische Musik austauschte. Durch diese Einflüsse bereichert schrieb Cage ab den 1950er Jahren Musik, die sich nach dem chinesischen Orakelbuch I Ching durch Zufall‐ soperationen definierte und seiner Arbeit mit Tonbandaufnahmen sowie mit dem „prepared piano“ seine persönliche Note verliehen.

2. Kunstverständnis und Musikästhetik Die Musik von John Cage war beeinflusst durch die strukturelle und systematische Erarbei‐ tung musikalischen Materials und rhythmischer Strukturen, wobei seine innovative und ex‐ perimentelle Haltung immer eine große Rolle spielte. Aus seinem Blickwinkel bestand Musik aus kleinen Klangeinheiten, die in sich ein geschlossenes Ereignis darstellen. Entgegen übli‐ cher Konventionen ordnete er diese aber nicht nach Regeln der Melodie‐ und Stimmführung, Harmonik oder durch geplante Rhythmen, sondern reihte sie hintereinander auf. Seiner Auf‐ fassung nach bestand die Verbindung dieser in sich geschlossenen Einheiten zueinander durch ihre Koexistenz im Raum. Dieses Aufeinanderfolgen von Elementen unterschiedlichs‐ ter Rhythmen und Klangfarben wurde in seinen Werken für das „prepared piano“ deutlich. Hierbei handelt es sich um einen Konzertflügel, dessen Saiten mit einer Vielzahl von Objek‐ ten präpariert werden. So werden u.a. Holz, Metall, Gummi oder Glas dafür verwendet, um verschiedene Klangfarben zu erzeugen sowie die Tonqualität und den Anschlag zu variieren. 10

Ein weiterer Faktor für Cages innovative Haltung war die Arbeit mit dem I Ching, das chinesi‐ sche Buch der Wandlungen, das für Cage zur zentralen Entscheidungshilfe werden sollte. Es besteht aus einem System von 64 Zeichen (Hexagramme) mit sechs horizontal untereinander angeordneten Linien, die entweder ununterbrochen oder einmal unterbrochen waren. Jedes dieser Hexagramme stellte ein musikalisches Ereignis dar. Welches Hexagramm eine Antwort auf eine bestimmte kompositorische Frage liefern sollte, wurde durch Münzwurf ermittelt. Diese Methode gewährte Cage eine fortlaufende Wandlung bzw. Veränderung des musikali‐ schen Materials. Eine weitere Möglichkeit, die Cage ausschöpfte, waren die von ihm sog. „chance operations“, eine Zahlenreihe zur Ermittlung der Dimension einzelner Klänge oder auch der Satzdichte. Auch hier diente der Münzwurf wieder der Festlegung der unterschied‐ lichen Parameter. Mit Hilfe dieser Zufallsentscheidungen wollte er eine Aufhebung der Sub‐ jektivität der Komposition bewirken. Damit ein Hörer die Musik wertfrei und losgelöst von Geschmack und Vorurteilen genießen konnte, sollte diese möglichst nicht intentional ge‐ prägt sein, sodass jeder Hörer sein "eigenes Stück" hörte. Diese beiden Methoden stellen die Grundlage für Cages Arbeit mit elektronischer Musik dar und bilden das Konstrukt für sämtli‐ che seiner u.a. am Computer erstellten Werke sowie der früheren Tonbandmusik.

Neben diesen Zufallsmethoden war für Cage die Beziehung der Musik zu Umwelt und Gesell‐ schaft wichtig. Dieser Einbezug der Umwelt stellte für Cage eine große Motivation für seine Tonbandaufnahmen dar. Es sollte der Steigerung der Aufmerksamkeit und des Bewusstseins in Bezug auf die reale, materielle Welt dienen. Er konfrontierte die Hörer bewusst mit unan‐ genehmen Geräuschen und Lärm, um eine bessere Reaktionsfähigkeit und einen besseren Umgang mit Alltagsgeräuschen (z.B. U‐Bahn, Verkehr) zu entwickeln. Cage legte großen Wert darauf, dem Publikum einen neuen Zugang zur Umwelt zu eröffnen, um diese wieder schät‐ zen zu können.

3. Tape Music und elektroakustische Musik Das Stück von 1952 ist eine Klangcollage von Tonbandaufnahmen (→ Tape Mu‐ sic), die nach dem Prinzip des I Ching zusammengestellt wurden. Das Material wurde in sechs Kategorien eingeteilt: Stadt‐ und Landschaftsgeräusche, elektronische, manuell oder windproduzierte Klänge, sowie Sounds, die aufgrund ihrer geringen Lautstärke verstärkt wurden. Diese Aufnahmen wurden in kleine Einheiten geschnitten, um nutzbar gemacht zu werden. Diese Einheiten wurden wieder durch die bekannte Zufallsmethode mit den Para‐ metern Klangfarbe, Rhythmus und Dynamik modifiziert.

Der Rozart Mix (1965) ist ein weiteres Beispiel für den vielfältigen Einsatz von Cages Ton‐ bandaufnahmen. Es ist ein Konzertstück für 13 Tonbandgeräte und sechs Darsteller. Ver‐ wendet wurden 88 Aufnahmen, die aufgrund der Willkür des verwendeten Materials von be‐ liebigen Personen zusammengestellt wurden. Die Aufführung fand im Rose Art Museum, in dem die Abspielgeräte in den Ecken des Raumes aufgestellt wurden, um so ein möglichst verworrenes Klangbild zu erlangen. Ein ähnliches Projekt war schon sein Stück Imaginary Landscape No.4 (1951) gewesen, in dem Cage zwölf Radios als Musikinstrumente verwende‐ te und diese mit jeweils zwei Ausführenden besetzte. Diese regelten sowohl die Lautstärke als auch den Sender, wobei im Voraus nicht ersichtlich war, welcher Sender was zu welchem 11

Zeitpunkt spielen würde. So ergab sich in beiden Stücken ein verworrenes und undurchsich‐ tiges Klangfeld.

Quellen Erdmann, Martin, Art. Cage, in: MGG2 Personenteil 3, Kassel et al. 2000 Kostelanetz, Richard, John Cage. Documentary Monographs in , New York 1970 Pritchett, James und Laura Kuhn, Art. Cage, in: NG2 Band 3, London 2001 Ungeheuer, Elena (Hg.), Elektroakustische Musik, Laaber 2002

Sebastian Stewing

12

Eimert, Herbert Deutscher Komponist, Radioproduzent, Musiktheoretiker und Journalist (⃰ 8.4.1897 in Bad Kreuznach; † 15.12.1972 in Düsseldorf). Eimert ist Mitbegründer des Studios für Elektroni‐ sche Musik des WDR [→] und vor allem einer der wichgsten Förderer der zeitgenössischen elektronischen Musik in Deutschland.

Herbert Eimert wurde als Sohn eines Gymnasiallehrers und einer Geigenlehrerin geboren. Von 1919‐24 studierte er Geige, Klavier, Tonsatz und Dirigieren am Kölner Konservatorium bei Herrmann Abendroth, Johann Eduard Franz Bölsche und August von Osthegraven. 1923 schrieb er Fünf Stücke für Streichquartett und eine Atonale Musiklehre, die bei ihrer Veröf‐ fentlichung 1924 zum Bruch mit seinem Theorielehrer Bölsche führte. Daraufhin verließ er das Konservatorium ohne Abschluss und studierte Musikwissenschaft an der Kölner Univer‐ sität bei Ernst Bücken, und Georg Kinsky. Hier hörte er auch Philosophie bei und Paul Nicolai Hartmann. 1930 erfolgte die Promotion über Musikalische Form‐ strukturen im 17. und 18. Jahrhundert. Versuch einer Formbeschreibung, die 1932 mit von Hartmann verlangten Änderungen veröffentlicht wurde. Zeitgleich, von 1927‐33, war er Mit‐ arbeiter des Kölner Rundfunks und schrieb zeitweilig für die Musikzeitschriften Melos und Zeitschrift für Musik (heute: Neue Zeitschrift für Musik). Ab 1930 wurde er, parallel zu seinen Rundfunktätigkeiten, Musikreferent beim Kölner Stadt‐Anzeiger. 1935 nahm er die Stelle des Redakteurs bei der Kölnischen Zeitung an und wurde im August 1945 einer der ersten Ange‐ stellten des unter britischer Besatzung verwalteten Kölner Rundfunks, wo er dann 1947 das Ressort der Kulturberichterstattung übernahm. Im darauffolgenden Jahr wurde er Leiter des Musikalischen Nachtprogramms, das am 21. Oktober 1948 zum ersten Mal auf Sendung ging und für das er bis 1966 ca. 380 Sendungen produzierte. Die Sendereihe wurde zur bedeu‐ tendsten Musiksendung für zeitgenössische Musik, da sie europaweit einem großen Hörer‐ kreis zugänglich wurde, und galt als eine der Hauptinformationsquellen über die aktuellen Entwicklungen der neuen Musik. 1951 beschloss das Kölner Funkhaus, auf Initiative von Ei‐ mert und mit Unterstützung von dem Informationstechniker Werner Meyer‐Eppler und dem Tonmeister Robert Beyer, das Studio für elektronische Musik zu gründen, das Eimert bis 1962 leitete (1963 wurde Karlheinz Stockhausen sein Nachfolger, →). Auf Meyer‐Eppler und Beyer wurde er 1951 aufmerksam, als sie drei Vorträge unter dem Titel Die Klangwelt der elektronischen Musik bei den Darmstädter Ferienkursen seines Journalistenkollegen Wolf‐ gang Steinecke hielten. Das Elektronische Studio des WDR und das Musikalische Nachtpro‐ gramm standen in enger Zusammenarbeit. Dadurch, dass Eimert als Leiter des Studios eine Öffnung nach außen durchsetzte, förderte er zahlreiche, heute weltbekannte Komponisten, die im Studio ihre Werke realisieren konnten, wodurch es recht schnell zum Zentrum der Avantgarde wurde: K. Stockhausen, , Henri Pousseur [→], Goried Michael Koenig [→], György Lige und Nam June Paik gehörten u. a. zum Umfeld. 1951‐57 unterrich‐ tete Eimert vermehrt in , wo z. B. eine Vorlesung über punktuelle Musik hielt, um die Post‐Webernsche Betonung der „einzelnen Note“ zu charakterisieren. 1965 wurde er zum Professor an der Hochschule für Musik in Köln ernannt, wo er auch das von ihm gegrün‐ dete Studio für Elektronische Musik leitete. Mit Hans Ulrich Humpert, der 1971 sein Nachfol‐ ger des Studios der Musikhochschule wurde, arbeitete er am Lexikon der elektronischen Mu‐ sik, welches erst 1973, einem Jahr nach Eimerts Tod, publiziert wurde. 13

Seine eigene elektronische Musik brachte Eimert eine große öffentliche Aufmerksamkeit. 1952 entstanden beispielsweise Gemeinschaftskompositionen mit Beyer, die noch Versuchs‐ charakter hatten. Dazu gehörten Klangstudie I, II und III, Klang im unbegrenzten Raum und Ostinate Figuren und Rhythmus, die allesamt am 26. Mai 1953 innerhalb des Neuen Musik‐ festes vorgestellt wurden. Seine wohl bedeutendste Komposition ist Epitaph für Aikichi Ku‐ boyama (1958‐62). Das verwendete Klangmaterial besteht ausschließlich aus Sprachklängen, die aus einemText von Günther Anders abgeleitet wurden.

Doch Eimerts Hauptanliegen waren vor allem seine Schriften. Als Kritiker schrieb er mehr als 3000 Rezensionen, die vor allem vermitteln und produktiv sein sollten. Viele von Eimert ver‐ fassten Zeitschriftenartikel sind von den Nachkriegsdebatten über elektronische Musik und Weberns Musik beeinflusst. Er erwog die Musik Weberns als Vorreiter für serielle Methoden der Avantgarde‐Generationen. Seine Atonale Musiklehre von 1923 beansprucht, die erste systematische Beschreibung der atonalen Technik zu sein, in der er Arnold Schönbergs Neu‐ erungen der Zwölftonmusik zusammenfasste und Aspekte von Josef Matthias Hauers Theo‐ rie und kompositorische Techniken von Yefim Golišev erläuterte. Eben diesen verdankt er nach eigenen Angaben seine Kenntnisse der Zwölftontechnik, da er durch das Einbeziehen von Rhythmus‐Parametern bereits vor den 1920ern ein Vordenker serieller Technik war. 1950 verfasste Eimert das Lehrbuch zur Zwölftontechnik und zählte sich neben Schönberg, Hauer und Golišev als die vierte Figur einer Autorenschaft der Zwölftontechnik, da er melo‐ disch‐lineare Zwölftonbildungen zur Grundlage des Systems machte. Es wurde mit mehreren Auflagen und Übersetzungen zum erfolgreichsten Zwölftonlehrbuch.

Im Nachkriegsdeutschland war Eimert neben Josef Rufer und René Leibowitz einer der We‐ nigen, die Zwölftontechnik unterrichteten. In seiner Schrift Zur musikalischen Situation (1954) definierte er seinen Begriff der elektronischen Musik und konstruierte eine Musikge‐ schichte, die im seriellen Konzept der elektronischen Musik kulminiert. In diesem Text lehnte er u. a. die seit 1948 von begründete Musique concrète [→] ab und ließ sie daher nicht in seiner Geschichtsschreibung zu. Die Ablehnung beruhte darauf, dass diese Art der Musik Klänge und Geräusche mit einem Mikrophon aufnehme. Später widersprach er selbst diesem Kriterium und benutzte Mikrophone zur Aufnahme, so wie er zu Beginn der Arbeit im neugegründeten Kölner Studio für Elektronische Musik Klänge nicht seriell, son‐ dern sehr assoziativ komponieren ließ. Von 1955‐62 gab er mit K. Stockhausen in acht Heften das Periodikum die reihe – Informationen über serielle Musik heraus. 1963 ging er gedanklich mit Grundlagen der musikalischen Reihentechnik über die Zwölftontechnik hinaus und zog die Konsequenzen aus dem inzwischen überholten seriellen Denken, welches die Arbeit sei‐ nes Kölner Künstlerkreises bestimmt hatte.

Quellen Custodis, Michael: Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 2004 Eimert, Herbert, Atonale Musiklehre, Leipzig 1924 Ders., Lehrbuch der Zwölftontechnik, Wiesbaden 1950 14

Ders., Musikalische Formstrukturen im 17. und 18. Jahrhundert. Versuch einer Formbeschreibung, Augsburg 1932 [Dissertation Univ. Köln, 1930]. Ders., Grundlagen der musikalischen Reihentechnik, Wien 1964 Ders. mit Hans Ulrich Humpert, Lexikon der elektronischen Musik, Regensburg 1973 Ders. mit Karlheinz Stockhausen (Hg.), die reihe – Informationen über serielle Musik, 8 Hefte, 1955‐62 Kämper, Dietrich, Pionier der Neuen Musik. Herbert Eimert – Journalist, Komponist, Organisator und Förderer, in: MusikTexte 14 (1996), Heft 69/70 Kirchmeyer, Helmut, Kleine Monographie über Herbert Eimert, Stuttgart und Leipzig 1998 Supper, Martin, Art. Eimert, Herbert, in: MGG2 Personenteil 6, Kassel et al. 2006 Wilson, Charles, Eimert, Herbert, in: NG Band 6, London 1980 http://www.elektropolis.de/ssb_eimert.htm [3. Februar 2013]

Janine Eichholz

15

Home‐Made Electronics Als Home‐made electronics bezeichnet man elektronische Musik, die nicht mit Computern oder in speziellen Studios erzeugt wird, sondern aus zweckentfremdeten Alltagsgegenstän‐ den entsteht, die mit Mikrofonen und Lautsprechern versehen werden und über die Beein‐ flussung elektromagnetischer Felder klänge produzieren.

1. Anfänge Das erste kommerziell elektronische Instrument war das , das 1917 von Lew Ter‐ men erfunden und erfolgreich vermarktet wurde. Die Position der Hände beeinflusst über zwei Elektroden in Form von Antennen zwei elektrische Felder, die einen Ton erzeugen, der über einen Lautsprecher hörbar gemacht wird.

Abb. 1: Undatiertes Portrait von Lew Thermen

2. Piezo‐Musik Nach John Cages [→] Cartridge Music versuchten viele Klangkünstler, Techniken zum Ver‐ stärken der mechanischen Schwingungen und mikroskopische Geräusche zu entdecken. An‐ fang der 1970er Jahre hat man die in Piepern enthaltenen Piezoscheiben mit Lötkolben so verarbeitet, dass man sie z.B. als Tonabnehmer von Bluegrass‐Madolinen benutzen konnte. Durch die Vielfalt an Geräuschen entstand ein eigener Stil von Piezo‐Musik. Hugh Davis und Richard Lerman waren zwei der ersten Künstler auf diesem Gebiet. Davis erfand piezover‐ stärkte Instrumente, die durch Zupfen oder Einblasen Marimba‐Klänge erzeugen konnten. Lerman begann 1977, sich auf Piezo‐Musik zu konzentrieren und verwendete Computerfest‐ platten, die er mit gasbetriebenen kleinen Lötlampen stimulierte, die durch das Rauschen des Gases einen über Lautsprecher hörbar gemachten Klangeffekt erzeugen.

16

3. David Tudors Rainforest begann seine Karriere als einer der führenden Pianisten der Avantgarde. In den frühen 1950er Jahren war er als Pianist und Ausführender elektronischer Stücke bei der Merce Cunningham Dance Company engagiert worden. Vergleichbar seiner herausragenden pianistischen Fähigkeiten war er ein Virtuose der Elektronik. Aufbauend auf Cages Arbeit mit „gefunden“ Technologien von Radios und Plattenspielern erwarb er sich umfangreiche elekt‐ rotechnische Kenntnisse, um eigene Schaltungen und Instrumente herzustellen. Inspiriert wurde Tudor dabei auch von .Beginnend im Jahr 1968, entwarf Tudor eine Reihe von Stücken unter dem Titel Rainforest ihr Höhepunkt war Rainforest. Das Prinzip al‐ ler Stücke dieser Reihe ist ähnlich: Klänge werden von Sensoren erzeugt, die an festen Ge‐ genständen angebracht sind. Die verarbeiteten Sounds werden direkt von den Objekten zu‐ rückgeworfen, indem an den Objekten zusätzlich befestigte Mikrofone das Vibrieren der Oberflächen aufnehmen. Die am Mischpult zusammengeführten Klänge werden schließlich auf Lautsprecher ausgegeben, die um das Publikum herum aufgestellt wurden.

4. Spuren in der elektronischen Musik Die 1970er Jahren waren eine entscheidende Zeit in der Entwicklung der Technologie und Kultur der elektronischen Musik, da Synthesizer noch sehr teuer waren und junge Musiker selten Zugang zu profesionellen Studios hatten. Aus der mündlichen Tradierung von Wissen über elektronische Klänge entwickelte sich eine kreative Gemeinschaft von Gleichgesinnten, von denen einige auch mit Tudor arbeiteten. Zu ihnen gehörte auch David Behrman, der am im kalifornischen Oakland Schüler von Tudor war und bis heute als Produzent und Komponist arbeitet.

Ein anderes Beispiel ist die 1972 von den zwei Schweizer Andy Guhl und Norbert Möslang gegründete Formation Voice Crack, die zunächst zusammen experimentelle elektronische Musik machten. In den 1980er Jahren stieg ihre Bekanntheit, als sie aus alltäglichen elektro‐ nischen Geräten wie Diktafonen und Plattenspielern sowie aus blinkenden Lichtern, fernge‐ steuerten Autos oder Funkstörungen Geräusche generierten.

Die von Voice Crack repräsentierte Nähe zu Bildender Kunst und Klanginstallationen trifft auch auf Christian Terstegge zu, der bereits seit den früher 1980er Jahren dafür bekannt war, Klanginstallationen und Performances mit hausgemachten Schaltungen zu entwerfen. Seine im Jahr 1986 vorgestellte Arbeit Ohrenbrennen findet in einem abgedunkelten Raum statt, man blickt in die offenen Seiten von vier schwarzen, nebeneinander aufgestellten Käs‐ ten, die mit Lautsprechern verbunden sind. In jedem Kasten steht eine dünne Kerze, die nacheinander angezündet werden. Während sich das Streichholz der Kerze nähert, entsteht ein Ton. Wenn alle Kerzen angezündet sind, überlagern sich ihre Frequenzen, was sich mit steigender Tonhöhe verstärkt, je weiter die Kerzen abbrennen. 17

Abb. 2: Installation von Ohrenbrennen 1988 im Künstlerhaus Hamburg

Quellen Behrman, David, Chaotische Systeme. Tudor, in: MusikTexte 14 (1996) Heft 69/70 Collins, Nicolas, Handmade ‐The art of hardware hacking, New York 20092 Kuivila, Ron, Indise Electronics. Anmerkungen zu David Tudor, in: MusikTexte 14 (1996) Heft 69/70 Müller, Hermann‐Christoph, Einheit von Klang und Technik. Die Musik des US‐amerikanischen Kom‐ ponisten David Behrman, in: MusikTexte 18 (2000) Heft 85 http://www.soundbasis.eu/pdfs/Davies_Portrait.pdf http://www.christian‐terstegge.de/kunst/ohrenbrennen.html

Abb. 1 http://ludditesgroup.blogspot.de/2010/03/leon‐thermen.html [9. April 2013] Abb. 2 http://www.christian‐terstegge.de/kunst/ohrenbrennen.html [9. April 2013]

Nadine Dakkour

18

Institut de Recherche et Coordination Acoustique/Musique (IRCAM) Ein Forschungsinstitut für Musik in Paris, welches 1970 von Pierre Boulez mit Unterstützung des französischen Präsidenten Georges Pompidou gegründet wurde. Es entwickelte sich zu einem Zentrum der experimentellen elektronischen Musik. Aufgabe des Instituts ist es, For‐ schungen zur neuen Musik und ihrer Technologie zu betreiben. Boulez selbst beschrieb die Aufgabe des IRCAM so:

„Überhaupt wurden diese Forschungen immer in Institutionen betrieben, die dafür nicht ge‐ schaffen waren […] Es schien mir also notwendig, nicht mehr von Institutionen abhängig zu sein, die andere Gesichtspunkte […] haben. […] Man braucht eine Institution, die sich aus‐ schließlich mit diesen Forschungen befasst.“

1. Geschichte Die Idee eines Instituts für Musikforschung hatte Boulez aus Deutschland. Dort gab es ab 1965 Planungen für ein Max‐Planck‐Institut für Musik, welches in München entstehen und unabhängig von Musikschulen und anderen Institutionen sein sollte. Boulez kam zu diesen Planungen im Mai 1966 hinzu. Nachdem er es zunächst abgelehnt hatte, hauptamtlich dort zu arbeiten, legte er am 21.09.1971 doch einen Plan für ein solches Institut vor mit dem Titel „Centre de Recherches Acoustiques“. In diesem Papier findet man viele Ansätze, die im IR‐ CAM verwirklicht wurden. Als das Projekt in Deutschland wegen verschiedener Differenzen bereits stagnierte, bekam Boulez das Angebot, in Paris ein solches Institut nach seinen Wün‐ schen aufzubauen. Boulez hatte zunächst auf Grund des ambivalenten Verhältnisses zu Frankreich starke Vorbehalte, dorthin zurückzukehren. Vor allem seine Zusage war schließ‐ lich aber der Grund für das endgültige Ende des Münchener Projekts im Jahr 1972. Weitere wichtige Einflüsse für das IRCAM waren das Standford University’s Center for Computer Re‐ search in Music and Acoustics (CCRMA) und das Stanford Artificial Intelligence Laboratory (SAIL). Darüber hinaus war die anfängliche Abhängigkeit von amerikanischer Technik und Technikern durchaus prägend.

1977 nahm das IRCAM schließlich unter der Direktion Pierre Boulez seine Arbeit auf dem Ge‐ lände des Centre Pompidou auf. 1992 übernahm Laurent Bayle die Leitung, der 2002 von Bernard Stiegler abgelöst wurde. Seit 2006 leitet Frank Madlener das IRCAM. Die Arbeit des IRCAM wurde in die Bereiche Elektroakustik, Computer(technik), Pädagogik, Instrumente und Stimme aufgeteilt, die jeweils von einem Spezialisten geführt wurden. U.a. arbeiteten in der Anfangszeit , Vinko Globokar, Jean‐Claude Risset und Gerald Bennet am Institut. Nicholas Snowman war von 1972‐1986 künstlerischer Direktor. Die dezentrale Auf‐ teilung dieser fünf Bereiche erwies sich jedoch als problematisch, so dass 1980 und 1984 die Organisationsstrukturen des IRCAM jeweils neu geregelt wurden. Insgesamt konzentrierte sich die Forschung immer mehr auf den Bereich der computertechnischen Musikproduktion. Die Leitung des Instituts schaffte es, externe Einflüsse weitgehend zu vermeiden. So war es möglich, die technischen Forschungen hauptsächlich nach den künstlerischen Zielen und Vorstellungen zu gestalten.

19

1999 wurde die Forschungsgruppe der Performing Arts unter der Leitung von François Raf‐ finot gegründet. Darüber hinaus wurden 2004 die musikalischen Forschungsgruppen neu in Orchestration, Rhythmus und Stimme aufgeteilt. Inzwischen wird zwischen drei Hauptar‐ beitsbereichen unterschieden: Werk, Forschung und Vermittlung. Im IRCAM arbeiten unge‐ fähr 150 Vollzeitmitarbeiter, darunter 90 Forscher und Ingenieure. Jährlich werden ca. 20 Komponisten beauftragt, Werke zu schreiben und diese am Institut zu verwirklichen. Heute hat sich das IRCAM zur Aufgabe gemacht, auch ein breiteres Publikum zu erreichen und jun‐ ge Künstler zu fördern. Dies zeigt sich u.a. in der Expansion des seit 1998 jährlich vom IRCAM ausgerichteten Agora‐Festivals sowie der Zusammenarbeit mit Hochschulen.

2. Arbeiten und Projekte Zur Förderung junger Künstler wurde bereits 1990 ein Kursprogramm für Komposition und Computermusik eingerichtet, das vor kurzem in einem zweijährigen Kurs als Teil des ECMCT Leonardo Projekts (European Course for and Technologies) umgewan‐ delt wurde. Weiterhin besteht seit 1993 eine Partnerschaft mit der Université Paris VI. In diesem Jahr wurde auch das IRCAM Forum gegründet, eine Software Usergroup, in der 1500 professionelle Musiker vertreten sind. 1996 eröffnete das Institut die IRCAM multimedia library und seit 1995 bilden das Kultusministerium, das CNRS und IRCAM das „science and technologies for music and sound research lab“ (STMS). 2010 trat diesem auch die Universi‐ tät Pierre et Marie Curie (UPMC) bei. Seit 2001 arbeitet das IRCAM verstärkt an internationa‐ len Projekten mit, wie dem RadioThém, Carrouso, DoReMi, DVD á la carte, SemanticHIFI o‐ der i‐Maestro.

Im Zuge der Forschung entwickelte das IRCAM viele technische Neuerungen. Bei den Hard‐ waretools ist besonders der digitale Audioprozessor 4X zu nennen, den man seit 1976 vor al‐ lem produzierte, um Boulez‘ Répons verwirklichen zu können, und der 1981 fertig gestellt wurde. Dieses Stück illustriert insgesamt viele der Forschungen am IRCAM. So kommt hier auch die IRCAM Signal Processing Workstation zum Einsatz, eine Technik, welche die Live‐ Elektronik vereinfachte. Mit dieser Workstation muss sich das Orchester nicht mehr an die Geschwindigkeit des Tonbandes halten, sondern der Computer orientiert sich mit Hilfe der Partiturverfolgung (Pitch Tracker) an der Geschwindigkeit der Musiker.

Im Softwarebereich war das erste große Projekt 1988 das Max‐Programm, welches die In‐ teraktion zwischen Computer und Interpreten vereinfachte, und heute zu einer Stan‐ dardsprache bei den mit MIDI arbeitenden programmierbaren Systemen geworden ist. Im selben Jahr wurde auch das Syntheseprogramm Modalys fertiggestellt. Ein weiteres Synthe‐ seprogramm, welches sprachorientiert arbeitet, ist Chant. 1995 wurde eine Software speziell für Konzerthallenakustik vorgestellt. In Zusammenarbeit mit dem Ministerium für Kultur und Industrie wurde 1996 eine Software für das Komponieren am Computer entwickelt. Diese OpenMusic Software kommt besonders im Hochschulunterricht zum Einsatz. Ein weiteres Projekt für die Ausbildung in Kooperation mit der Regierung war 2002 das MusiqueLab Pro‐ gramm. 2008 stellte das IRCAM das System „Wave Field Synthesis“ (WFS) fertig. Dies ist ein Verfahren zur räumlichen Audiowidergabe. Das Ziel dieses Systems ist es, eine virtuelle akus‐ 20 tische Umgebung schaffen zu können. Darüber hinaus verantwortet das IRCAM mehrere Zeitschriften‐ und Publikationsreihen.

Quellen Born, Georgina, Rationalizing Culture; IRCAM, Boulez, and the Institutionalization of the Musical Avant‐Garde, Los Angeles 1995 Boulez, Pierre, Wille und Zufall; Gespräche mit Célestin Deliège, Stuttgart 1977 Custodis, Michael, Schwer von Begriff; Pläne zu einem nicht realisierten Max‐Planck‐Institut für Musik (1965‐1972), in: Die Tonkunst 6 (2012) Heft 2 Jungheinrich, Hans‐Klaus (Hrsg.), Das Gedächtnis der Struktur. Der Komponist Pierre Boulez, Frankfurt a.M. 2010 Manning, Peter, Art. Institut des Recherche et Coordination Acoustique/Musique, in: NG2 Band 12, London 2001 Supper, Martin, Elektroakustische Musik und Computermusik, Fulda 1997 Vinet, Hugus, Science and Technology of Music and Sound: The IRCAM Roadmap, in: Journal of New Music Research 36 (2007) Heft 3 http://brahms.ircam.fr/works/alphabetical‐order/a/ [1. März 2013] http://www.ircam.fr/62.html?&L=1 [1. März 2013]

Vera Muhmann

21

Koenig, Gottfried Michael Dt. Komponist, Theoretiker, Hochschullehrer und Computermusik‐Pionier (* 5. Okt. 1926 in Magdeburg). Obwohl G. M. Koenig eher zu einem der übersehenen Künstler der Kölner Richtung gehört, ist er, neben seiner umfangreichen Kompositions‐ und Lehrtätigkeit, vor al‐ lem durch seine theoretisch‐systematische Aufarbeitung der elektronischen Musik bekannt geworden, welche logisch aus seinem eigenen Kompositionsprozess folgt. In seinen theoreti‐ schen Schriften geht es u. a. um den Brückenschlag zwischen elektronischer und instrumen‐ taler Musik sowie dem zwischen zufälliger und serieller Kompositionsweise.

Koenig wurde als Sohn eines evangelischen Pfarrers geboren und erhielt von seinem zehnten Lebensjahr an Klavier‐ sowie später Violin‐ und Orgelunterricht. Von 1936 bis 1944 besuchte er das Wilhelm‐Gymnasium in , bis er zum Kriegsdienst eingezogen wurde. Im Mai 1945 kam er in amerikanische Kriegsgefangenschaft, aus der man ihn aber bereits 1946 wieder entließ. Noch im selben Jahr begann er ein Studium der Kirchenmusik in Braun‐ schweig und wechselte 1946 an die Nordwestdeutsche Musikakademie nach Detmold, wo er Komposition bei Günter Bialas, Musikgeschichte bei Lina Jung, Analyse bei Wilhelm Maler, Klavier bei Jan Natermann und Akustik bei Erich Thienhaus studierte.

Durch den Besuch der Darmstädter Ferienkurse 1951, bei denen er u. a. Vorträge von Werner Meyer‐Eppler [→ Elektronisches Studio des WDR] und Herbert Eimert [→] hörte, sowie die ersten Nachtprogramme des NWDR wurde sein Interesse für die elektronische Musik geweckt. Daraufhin schrieb sich Koenig 1953 für ein Studium der musisch‐ techni‐ schen Gestaltung an der Musikhochschule Köln ein und bewarb sich bei Eimert auf eine Stelle im elektronischen Studio des NWDR, welche er 1954 antrat. Bis 1964 war er dort fes‐ ter Mitarbeiter. Zum einen assistierte er Kollegen, etwa Karlheinz Stockhausen [→], , Franco Evangelisti, Györgi Ligeti, Henri Pousseur [→] oder Herbert Brün, zum ande‐ ren verwirklichte er dort seine eigenen elektronischen Kompositionen. In dieser Zeit ent‐ standen z. B. Klangfiguren I u. II (1955 bzw. 1955/56), Essay (1957/58) und Terminus 1 (1962). Des Weiteren schrieb er weiterhin Werke für Orchester und kammermusikalische Besetzungen, beispielsweise Diagonalen für 2 Orchester (1955), Quintett für Holzbläser 22

(1958/59) oder das Streichquartett 1959. Zusätzlich erhielt Koenig ab 1962 einen Lehrauftrag für elektronische Musik, Analyse und Komposition an der Musikhochschule Köln. Zwischen 1962 und 1964 studierte er außerdem Computertechnik in Bonn, wo er seine ersten Kompositionsversuche mit dem neuen Medium unternahm. Von 1964 bis 1986 war er an‐ schließend Mitarbeiter an der Universität Utrecht, davon die längste Zeit als Direktor des In‐ stituts für Sonologie, das unter seiner Leitung zu weltweitem Ruhm gelangte. Er entwickelte dort u. a. die Computerprogramme Projekt 1, Projekt 2 und SSP (Sound Synthesis Program). Als das Institut 1986 von Utrecht nach Den Haag verlegt wurde, widmete sich Koenig wieder zunehmend der Komposition, um an grafischen Computermethoden und der Entwicklung musikalischer Expertensysteme zu arbeiten. Darüber hinaus verlegte er seine gesammelten theoretischen Schriften, Essays, Vortragsnotizen und Tagebücher. Auch im hohen Alter hält Koenig weiterhin Vorträge im In‐ und Ausland.

Für seine Arbeit erhielt Koenig zahlreiche Auszeichnungen. Darunter waren 1961 die Förde‐ rungsprämie des Landes Nordrhein‐Westfalen, 1987 der Matthijs Vermeulen‐Preis der Stadt Amsterdam, 1999 der Christoph und Stephan Kaske‐Preis sowie im Jahr 2010 der Giga‐Hertz‐ Preis des Zentrums für Kunst und Medientechnologie in Karlsruhe. 2002 wurde ihm darüber hinaus die Ehrendoktorwürde der philosophischen Fakultät der Universität des Saarlandes verliehen und 2002/03 die Ehrenprofessur für Computermusik an der Universität der Künste Berlin.

Bereits in seiner Kölner Zeit zeichneten sich seine Kompositionen durch konsequent struktu‐ rierte Formen aus, etwa in seinem Stück Essay. Koenig interessierte sich mit naturwissen‐ schaftlicher Genauigkeit besonders für Kompositionsprozesse – so dem Wirken von „Musik und Zahl“, mit dem „versucht wird, die Komposition musikalischer Strukturvarianten zu for‐ malisieren“ – und Klangfarben. Obwohl er sich streng an die Trennung zwischen instru‐ mentaler und elektronischer Musik hielt, so sind diese beiden, für ihn augenscheinlichen Extreme doch durch bestimmte Systematiken bis zu einem gewissen Grad miteinander ver‐ knüpft. Sinnbild für die Überwindung dieser Lücke sind vorrangig seine Computerprogram‐ me, auch wenn sie für ihn immer bloß Mittel zum Zweck waren. Seine Funktionen‐Reihe (1967‐69) wurde beispielsweise nur aus einer einzigen, seriell strukturierten Spannungskurve heraus mithilfe eines im Utrechter Studio gebauten Funktionsgenerator abgeleitet; die Klän‐ ge wurden über einen Ringmodulator erzeugt. Seine Programme hatten zum Ziel, seine be‐ reits existierenden Kompositionstechniken weiter zu systematisieren und sie anderen Kom‐ ponisten zugänglich zu machen. Hatte Cage mit seinen stark vom Wert des Zufall geprägten Kompositionsidealen noch stark die Avantgardeszene erschüttert, so gelang es Koenig und anderen, die vermeintliche Kluft zwischen zufälligen und geplanten Elementen in der Mu‐ sik zu überbrücken. Das von ihm programmierte Projekt 1 (1964 – 1966) erzeugte, durch ei‐ nige wenige Angaben des Komponisten, zufällig generierte, serielle Tonreihen. Projekt 2 (ca. 1966 – 1968) erweitere die Möglichkeiten des Komponisten noch erheblich. Die Kompo‐ sitionsprozesse mussten nun von vorneherein und in diversen Schritten strukturiert werden. Der „TENDENZ“‐Algorithmus, den Koenig hierfür verwendete, bildete die Grundlage für fast alle modernen Kompositionsprogramme. Auch instrumentale Kompositionen profitierten 23 von der Computerentwicklung. Hier sei exemplarisch Übung für Klavier (1970/71) zu nennen. SSP (1972‐1977) wiederum erzeugte Klang bloß mit den Parametern Amplitude und Zeit.

Quellen Koenig, Gottfried Michael u. C. Roads, An Interview with Gottfried Michael Koenig, in: Computer Mu‐ sic Journal 2 (1978) Heft Dezember Metzger, Heinz‐Klaus (Hg.), Gottfried Michael Koenig, München, 1989 Tual, Françoise‐Gildas, Art. Koenig, in: MGG2 Personenteil 10, Kassel 2003 Wolf, Frobenius (Hg.), Koenig, Gottfried Michael: Ästhetische Praxis. Texte zur Musik (aus der Reihe Quellentexte zur Musik des 20. Jahrhunderts Bd. 1‐5), Saarbrücken 1991 bis 2002 http://www.koenigproject.nl [24. Januar 2013] http://www.youtube.com/watch?v=VtRXEc0YsMY. [3. Februar 2013]

Abb. http://www.nmz.de/artikel/koelner‐aussenminister‐und‐entwicklungshelfer [24. Januar 2013]

René Bialik

24

Luening, Otto US‐amerikanischer Komponist, Dirigent, Flötist, Dozent und Wegbereiter der Elektroakusschen Musik in den USA (* 15. Juni 1900 in Milwaukee; † 2. September 1996 in New York).

Als Sohn des deutschen Dirigenten, Pianisten und Sängers Eugene Luening und seiner Frau, der Sängerin Emma Luening entdeckte O. Luening bereits im Alter von sechs Jahren seine Affinität zur Musik. Zunächst bekam er Unterricht bei seinem Vater und komponierte bereits erste Stücke. 1912 zog Luening mit seiner Familie von Milwaukee nach München, wo er von 1915 bis 1917 an der Staatlichen Hochschule für Musik Flöte und Klavier bei Josif Brecht sowie Komposition bei Anton Beer‐Walbrunn studierte. Aufgrund des Kriegseintritts der USA floh die Familie 1917 aus München und ließ sich in Zürich nieder. Dort studierte Luening ab 1917 für drei Jahre am Zürcher Konservatorium Dirigieren bei Volkmar Andreae und Komposition bei Philipp Jarnach. Außerdem nahm er Unterricht bei . Zeitgleich spielte er seit 1917 Flöte und Percussion beim Tonhalle‐Orchester Zürich und debütierte im selben Jahr als Komponist und Dirigent.

1. Biografisches 1920 zog Luening nach Chicago und studierte bei Wilhelm Middelschulte Harmonielehre, Musiktheorie und Kontrapunkt. Außerdem wurde er zeitgleich Dirigent bei der neugegründeten American Grand Opera Company. Von 1925 bis 1928 leitete er als Executive Director die Opernabteilung der Eastman School of Music in Rochester/New York, wo er auch als Dirigent angestellt war. 1930 bis 1932 erhielt er zwei Jahre in Folge ein Guggenheim‐ Stipendium, um seine erste eigene Oper Evangeline zu komponieren, die auf einer poetischen Erzählung von Henry Wadsworth Longfellow beruht. 1932 bis 1934 bekam er eine Stelle an der University of Arizona als Associate Professor. 1934 leitete er für 10 Jahre die Musikabteilung des Bennington College in Vermont und war gleichzeitig von 1936 bis 1938 stellvertretender Dirigent des New York Philharmonic Symphony Chamber Orchestra. 1944 bis 1964 war Luening Dozent am Barnard College in New York und parallel dazu Professor für Komposition an der Columbia University New York (1949‐1960), wo er auch seit 1944 die Opernproduktionen leitete. 1959 wurde das Columbia‐Princeton Electronic Music Center gegründet [→ Tape Music], an dessen Einrichtung er maßgeblich beteiligt war. Hier wurde er neben und Vizedirektor. Nach seiner Emeritierung 1964 übernahm er bis 1970 die Leitung der Musikabteilung der Columbia School of Arts und wurde anschließend bis 1973 Professor für Komposition an der Julliard School of Music. Zudem hatte Luening viele weitere Positionen und Funktionen in unterschiedlichsten Künstlervereinigungen inne und bekam eine große Anzahl von Preisen für seine Kompositionen und sein Engagement im Bereich der Musik. Unter seinen zahlreichen Schülern waren unter anderem Marvin David Levy, , und John Corigliano. 1980 veröffentlichte Luening seine Autobiographie mit dem Namen The Odyssey of an American Composer. In dieser Autobiographie dokumentierte er alle wichtigen Ereignisse seiner Karriere. Zudem ist die Quellenlage zu seiner Person im Vergleich zu anderen Komponisten dieses Genres und dieser Zeit sehr dünn. Man findet in den großen Standardwerken viel zu seiner Biographie, jedoch wenig zur Musik Luenings. Er selbst 25 publizierte zahlreiche Aufsätze, bevorzugt über die Entwicklung der elektroakustischen Musik in Europa und den USA.

2. Die Enwicklung seiner Musik Die frühen Werke Luenings sind vom Kontrapunktstudium bei Jarnach und Busoni geprägt. Inspiriert von Schönberg, findet sich in dieser Phase jedoch auch die Kombination von Tonalität und Atonalität in seinen Kompositionen wieder. Außerdem lassen sich polytonale und serielle Techniken erkennen, die auf die Lehre von Bernhard Ziehn zurückzuführen sind. Ab 1920 entwickelte Luening das Konzept der „Akustischen Harmonik“. Hier gestaltete er außerhalb der Grund‐ und Septimenakkorde verschiedene segmentäre Obertonreihen, was ihn in den 1950er Jahren schließlich zur Elektronischen Musik brachte. Er setzte sich besonders intensiv mit dem neuen Medium des Tonbandes auseinander. In Luenings ersten elektronischen Kompositionen wurden Tonband‐Klänge als primäre Formkomponente verwendet. Im Oktober 1952 fand die erste Aufführung seiner elektronischen Musik zusammen mit Vladimir Ussachevsky statt, welcher kurz zuvor ebenfalls einen Lehrauftrag an der Columbia University erhalten hatte. Gemeinsam führten sie im Museum of Modern Art in New York Luenings Werk Fantasy in Space auf, bei dem dieser live Flöte zum Tonband spielte. Außerdem enthielt das Programm seine Low Speed Invention und Ussachevskys Sonic Contours. In der Low Speed Invention arbeitet Luening mit vielen Echos, die einen umher kreisenden Klang erzeugen, außerdem besteht eine weitere Besonderheit darin, dass die Flöte unterhalb der eigentlichen Stimmlange gespielt wird. Seine zwei aufgeführten Werke beschrieb Luening selbst als exotisch, impressionistisch und virtuos. Kurz nach der ersten Aufführung entstand das Werk Rhapsodic Variations (1953/54) für Orchester und Tonband, welches Luening zusammen mit Ussachevsky komponierte. Dieses Gemeinschaftswerk wurde erstmalig am 20. März 1954 mit dem Louisville Orchestra aufgeführt. In den 1960er Jahren entdeckte Luening erneut sein Interesse an Kammermusik, so dass er das Kombinieren verschiedener Stile zu seinem Formprinzip erhob.

Quellen Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004 Kagan, Wendy, Otto Luening Biography, online unter http://www.musicianguide.com/biographies/1608003277/Otto‐Luening.html [9. April 2013] Luening, Otto, Some Randon Remarks about Electronic Music, in: Journal of 8 (1964) Heft 1 Ders., An Unfinished History of Electronic Musik, in: Music Educators Journal, 55 (1968) Heft 3 Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001

Marlene Ryba

26

Musique concrète Musique concrète ist der von Pierre Schaeffer eingeführte Begriff für die von ihm in den 1940er und 1950er Jahren begründete Studiomusik, welche zur Entwicklung der Elektroakus‐ tischen Musik der 2. Hälfte des 20. Jahrhunderts maßgeblich beigetragen hat. Das Aus‐ gangsmaterial sind konkrete Klänge und Geräusche, die allen Bereichen des Hörbaren ent‐ nommen sind und nach Aufnahme und Weiterverarbeitung in neue musikalische Zusam‐ menhänge gebracht werden.

1. Personen‐ und Sachgeschichte Der französische Ingenieur, Musiktheoretiker und Komponist Pierre Schaeffer (* 14.8.1910 in Nancy,  19.8.1995 in Les Milles bei Aix‐en‐Provence) entschied sich trotz seines musikali‐ schen Elternhauses für ein technisch‐naturwissenschaftliches Studium an der École poly‐ technique und der École de télécommunication und arbeitete ab 1935 als Tontechniker beim Rundfunksender Radiodiffusion Française. Lediglich durch seinen Violoncellounterricht und einige Analysekurse musikalisch gebildet, begann er mit auf seinen technischen Kenntnissen beruhenden Geräuschexperimenten und dem Ziel, daraus eine neue Stilrichtung zu entwi‐ ckeln. Im Jahr 1942 gründete er hierfür das zunächst private Studio d’Essai, welches 1948 zum Club d’Essai als Teil von Radiodiffusion Télévision Française (RTF) wurde. Im gleichen Jahr wurde sein Concert de bruits, in dem sich Verbindungen zum Futurismus erkennen las‐ sen, im Pariser Hörfunk ausgestrahlt. Für die neue Musikrichtung schlug er im Jahr 1949 in der Zeitschrift Polyphonie die Bezeichnung Musique concrète vor, der Club d’Essai entwickel‐ te sich zum Zentrum der Diskussion. Dort begann P. Schaeffer die Zusammenarbeit mit dem Komponisten . Gemeinsam realisierten sie 1950 das erste Konzert Symphonie pour un homme seul und gründeten im Folgejahr die Groupe de Recherche de Musique Con‐ crète (GRMC). Bei den Donaueschinger Musiktagen 1953 stellten sie das Werk Orphée 53 vor, das bei den Rezipienten jedoch auf starke Ablehnung stieß. Dennoch fand die konkrete Musik fortan immer häufiger Verwendung in Rundfunk, Theater, Ballett, Film und Fernsehen. Es folgte ein reger internationaler Austausch von Informationen und Tonbandaufnahmen.

Die Anfänge der Musique concrète waren geprägt durch das Verfahren, vokale und instru‐ mentale Klänge zu transformieren und in neue musikalische Strukturen einzubetten. Durch den technischen Entwicklungsstand der Produktionstechniken bedingt, waren in den frühen Werken viele Wiederholungen kurzer Abschnitte zu finden. In den frühen 1950er Jahren konnte zwischen der konkreten und der elektronischen Musik, wie der des Kölner Studios [→], noch unterschieden werden, da sich beide anderer Ausgangsmaterialien bedienten und verschiedene Kompositionswege verfolgten. Hieraus resultierte eine erwähnenswerte Aus‐ einandersetzung zwischen den beiden Studios: Den Kölner Komponisten, die ausschließlich von im Studio produzierten synthetischen Klängen ausgingen, wurde primär vorgeworfen, dass sie die musikalischen Parameter Tonhöhe, Intensität und Dauer in den Vordergrund stellten und somit nur eine begrenzte Anzahl von Klängen charakterisieren könnten. Dage‐ gen hätte sich die Bandbreite der konkreten Musik auch auf Farbe, Dichte, Dynamik und an‐ dere Eigenschaften erstreckt. Die Vertreter aus Köln beanstandeten an dem Schaffen der Pa‐ riser Gruppe um P. Schaeffer im Gegenzug das Fehlen einer kompositorischen Struktur in ih‐ ren Werken. Pierre Boulez [→], der zunächst Werke im Stil der konkreten Musik komponier‐ 27 te, sich aber ab 1953 von ihr entfernte, kritisierte zudem die Oberflächlichkeit bei der Wahl der Ausgangsmaterialien und die technische Qualität der Klangergebnisse. Die Bearbei‐ tungsmöglichkeiten differenzierten sich in der Folgezeit so weit aus, dass die ursprünglichen Klang‐ und Geräuschquellen nicht mehr eindeutig bestimmt werden konnten. Daraus fol‐ gend schlug P. Henry für beide Stilrichtungen die zusammenfassende Bezeichnung Elektroa‐ kustische Musik vor. In erster Linie war die Diskussion ein Stil‐ und Qualitätsstreit zwischen den Anhängern der Musique concrète und denen der elektronischen Musik.

Im Laufe der 1950er Jahre zog der Club d’Essai das Interesse internationaler Musiker auf sich, so arbeiteten neben den Genannten u.a. auch Karlheinz Stockhausen [→], Olivier Mes‐ siaen, Edgar Varèse und Iannis Xenakis [→]im Pariser Studio. Hinsichtlich der Entwicklung der wichtigsten technischen und theoretischen Grundlagen sind neben P. Schaeffer und P. Henry auch François Bayle, und Michel Chion zu nennen. Versuche, kompositori‐ sche Ordnungsprinzipien in der Musique concrète zu etablieren, blieben weitgehend erfolg‐ los. Erst in den Jahren nach 1956 traten bei Michel Philippot, , Ivo Malec, Xenakis und Bayle eben solche Aspekte in den Vordergrund, die Werke standen jedoch nicht mehr in enger Beziehung zur konkreten, sondern sind eher der seriellen bzw. seriell‐elektronischen Strukturmusik zuzuordnen. Diesen Entwicklungen geschuldet gab P. Schaeffer im Folgenden den Begriff Musique concrète auf. Zusammen mit François‐Bernard Mâche undFerrari for‐ mierte er im Jahr 1958 die GRMC zur Groupe de Recherches Musicales um: Schwerpunkt der Forschung sollte die Entwicklung einer umfassenden Theorie der Klangwelt als Vorbedingung für die kommende Elektroakustische Musik sein. Sein theoretisches Schaffen stand von die‐ sem Zeitpunkt an im Vordergrund. Im Jahr 1966 veröffentlichte er die Monographie Traité des objets musicaux, in der er seinen zentralen Begriff des Klangobjekts beschrieb und den Entwurf einer neuen Klanglehre vorstellte. Die Umstrukturierung der Rundfunkanstalt Office de Radiodiffusion Télévision Française (ORTF) im Jahr 1974 führte zur Eingliederung der GRM in das von P. Schaeffer mitbegründete Institut national de l’audiovisuel (INA), er selbst wur‐ de in den Ruhestand versetzt. Bereits im Jahr 1966 gab er die Leitung der GRM an Bayle ab, seit 1997 ist Daniel Teruggi für sie verantwortlich. Für seine Verdienste wurde P. Schaeffer mit nationalen Preisen, u.a. dem Grand Officier de l’ordre national de mérite, ausgezeichnet.

P. Henry (* 9.12.1927 in Paris), der zwischen 1950 und 1958 intensiv mit P. Schaeffer zu‐ sammenarbeitete, ist gelernter Schlagzeuger, Komponist und einer der bedeutendsten Ver‐ treter der Musique concrète. Ausgebildet wurde er zwischen 1937 und 1947 am Pariser Con‐ servatoire als Schüler von Messiaen, und Félix Passeronne. Bereits zu Be‐ ginn seines musikalischen Schaffens war er an der Suche nach neuen Klängen interessiert. Das Ergebnis eines Kompositionsauftrags zum Dokumentarfilm Voir l’invisible legte er 1949 eben Schaeffer vor und trat im selben Jahr dem Club d’Essai bei. Nach dem Ende der Zu‐ sammenarbeit im Jahr 1958 gründete er sein eigenes privates Studio Applications de pro‐ cédés sonores de musique électroacoustique (APSOME). In den 1980er Jahren wurden die musikalische Verwendung von Elektronik und experimentelle Verfahrensweisen zum grund‐ legenden Bestandteil vieler Stile im Bereich der Popularmusik, so dass auch seine Arbeiten zunehmend ihren innovativen Charakter verloren. Seit Mitte der 1990er Jahre entdeckte die Technoszene ihn wieder, es folgten Remixe durch Musiker wie Fatboy Slim, William Orbit, 28

Kojak, Area 21 oder DJ Koze. Zudem veröffentlicht Henry eigene Techno‐Kompositionen. Darüber hinaus lassen sich auch bei Künstlern anderer kontemporärer Musikstile Elemente der Musique concrète wiederfinden, so z.B. bei Björk, Matmos oder Radio Boy.

2. Merkmale Die Musique concrète gilt als erste Musikrichtung, die nur über Schallplatten, Tonträger und Lautsprecher reproduziert wurde, also jederzeit gespielt und aufgeführt werden konnte. Sie begann im Gegensatz zum traditionellen Kompositionsverfahren beim konkreten Klangphä‐ nomen. Dieses wurde Teil eines abstrakten Klangergebnisses, für das es keine theoretischen Konstruktionen gab. Eine solche individuelle Klangmontage setzte keine Partitur voraus.

Zu den wichtigsten Merkmalen gehörte die Universalität des Klangmaterials, es gab keine di‐ chotomische Unterscheidung zwischen Tönen und Geräuschen. Ausgangsmaterialien konn‐ ten europäische und außereuropäische Musikinstrumente, Geräusche der technischen Um‐ welt wie z.B. Geräusche der Straße, Bahnhöfe oder Fabriken, Naturlaute wie Wind, Regen und Wasserrauschen, oder Tierlaute sein. Weiterhin wurden Ausschnitte von Gesang, Stimm‐ und Sprachlaute, die meist auf einzelne Worte und Vokale reduziert waren, Klänge und Klangstrukturen bestehender Schallplattenmusik sowie elektrisch erzeugte Geräusche und Klänge verwendet. Alle Ausgangsmaterialien wurden zunächst mit Mikrofonen aufge‐ zeichnet und auf Schallplatte gespeichert. Mit einer speziellen Klaviatur konnte Schaeffer mehrere Schallplatten parallel bedienen. In der Folgezeit fanden zunehmend Magnetbänder Verwendung. Aus diesen Aufnahmen wurden Klangfragmente ausgewählt, isoliert und mit Hilfe elektroakustischer Apparate, wie z.B. dem Phonogène von Jacques Poullin und Francis Coupigny, weiterbearbeitet, neu zusammengesetzt und gemischt. Durch die technische Be‐ arbeitung konnte das Klangobjekt seine ursprüngliche Identität verlieren. Der Höreindruck und die kompositorische Verwendung waren im Gegensatz zur Herkunft der Klänge von maßgeblicher Bedeutung. Eine Unterscheidung des Materials nach Quellen war nur dann ge‐ rechtfertigt, wenn der Ursprung im Ergebnis noch erkennbar war.

Grundbegriff der konkreten Musik war nach Schaeffer das Klangobjekt. Dieses definierte er als so komplex, dass es nicht durch eindeutig festgelegte Variablen wie Lautstärke, Tonhöhe oder Klangfarbe bestimmt werden konnte. Zu den technischen Bearbeitungsmöglichkeiten zählten u.a. die von Schaeffer bereits 1948 entwickelten Grundtechniken der Fragmentie‐ rung und mechanischen Wiederholung. Hierfür verwendete er Schallplatten mit Endlosrillen, wie sie bei Fehlproduktionen zu finden waren. Die Veränderung der Lautstärke und der Dy‐ namik durch Abdämpfen und Verstärken, Veränderung der Tonlage durch Transposition, Wegnahme von Tönen durch den Einsatz von Filtern oder auch Veränderung der Klangfarbe und Tonhöhen, z.B. durch additive Mischung, Synchronisation, oder multiplative Mischung, Ringmodulation, ermöglichten weitere technische Manipulationen der Klänge und Geräu‐ sche. Die Verkürzung des Materials durch Abschneiden des Einschwingvorganges, die Ver‐ längerung durch Schleifenbildung oder die Veränderung der Hüllkurve ließen den Komponis‐ ten Einfluss auf die Form des Klanges und den Klangverlauf nehmen. Zudem konnte mit ab‐ soluter Transposition, bei der sich gleichzeitig die Tonlage und die Ablaufgeschwindigkeit des Bandes bzw. die Dauer des Tons oder des Geräuschs änderten, die Materie des Klanges 29 grundlegend modifiziert werden. Der Zeitraffer führte zu einer schnelleren Ablaufgeschwin‐ digkeit und hat somit eine höhere Tonlage zur Folge, die Zeitlupe hingegen eine tiefere Ton‐ lage bei langsamerem Tempo. Der Komponist ging bei seiner Klangverarbeitung stets vom realen Höreindruck und nicht von physikalischen Messwerten aus. Das Paradigma der Mu‐ sique concrète bestand also darin, dass der musikalische Wert der veränderten und neu zu‐ sammengesetzten Klänge nur an individuelle Kriterien der auditiven Wahrnehmung gebun‐ den war.

Quellen Appen, Ralf von, Konkrete Pop‐Musik. Zum Einfluss Stockhausens und Schaeffers auf Björk, Matthew Herbert und Matmos, in: Dietrich Helms und Thomas Phleps (Hg.), Samples. Notizen, Projekte und Kurzbeiträge zur Popularmusikforschung, Bielefeld 2003 Blumröder, Christoph von, Musique concrète, in: Carl Dahlhaus und Hans Heinrich Eggebrecht (Hrsg.), Brockhaus Riemann Musiklexikon Bd. 3, Zürich 1998 Eimert, Herbert und Hans Ulrich Humpert, Art. Musique concrète, in: dies., Das Lexikon der elektroni‐ schen Musik, Regensburg 1973 Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001 Frisius, Rudolf, Konkrete Musik. Ein Lehrpfad durch die Welt der Klänge, in: Neue Zeitschrift für Musik 158 (1997) Heft 5 Frisius, Rudolf, Art. Musique concrète, in: MGG2 Sachteil 6, Kassel et al. 1997 Humpert, Hans Ulrich, Musique concrète, in: ders., Elektronische Musik. Geschichte, Technik, Kompo‐ sitionen, Mainz 1987 INA – GRM. La création et la recherche dans le domaine du son et des musiques électroacoustiques, online unter http://www.inagrm.com [18. Januar 2013] Kaegi, Werner, Musique concrète und Tape music, in: ders., Was ist elektronische Musik, Zürich 1967 Möller, Torsten, Pierre Schaeffer, in: MGG2 Personenteil 14, Kassel et al. 2005 Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010 Schaeffer, Pierre, Musique concrète, in: Wilibald Gurlitt und Hans Heinrich Eggebrecht (Hg.), Riemann Sachlexikon Musik, Mainz et al. 121996 Schweizer, Klaus, Pierre Schaeffer, in: Horst Weber (Hg.), Komponisten‐Lexikon. 350 werkgeschichtli‐ che Portraits, Stuttgart et al. 22003 Smalley, Denis, Groupe de Recherches Musicales, in: NG2 Band 10, London 2001 Supper, Martin und Elena Ungeheuer, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 1995 Tual, François‐Gildas, Art. Pierre Henry. in: MGG2 Personenteil 8, Kassel et al. 2002 Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 1995

Matthias Lund und Nils Wilmsmeier

30

Pousseur, Henri Léon Marie Thérèse Belgischer Komponist und Musiktheoreker (*23.06.1929 in Malmédy; †06.03.2009 in Brüs‐ sel).

1. Leben Über Pousseurs Kindheit undJugend sowie seine Wahrnehmung des für ihn prägenden deut‐ schen Angriffs auf seine Heimatregion in den Ardennen im Jahr 1940 ist wenig bekannt. 1990 sprach er von der „widersinnigen, gleichermaßen leidvollen, konflikthaften, zum Widerstand rufenden und dennoch kulturell bereichernden Erfahrung der Annexion“ (vgl. Pousseur 1990, S. 15). Er absolvierte an den Konservatorien in Lüttich (Liège) (1947 – 1952) und Brüs‐ sel (1952/53) ein Musikstudium, während dessen er der Komponistengruppe „Variations“ um Pierre Froidebise beitrat, in der er sich besonders für begeisterte. Froide‐ bise führte Pousseur an die avantgardistische Musik heran und arrangierte im Juni 1951 für ihn ein Treffen mit Pierre Boulez [→]. Dieser gab ihm eine „Unterrichtsstunde zu Fragen der Webernschen Harmonik“, was er später als ausschlaggebend für seine weitere kompositori‐ sche Entwicklung bezeichnete. Nach dem Treffen komponiert er die Trois chants sacrés, um das Gelernte umzusetzen. Durch Boulez‘ Klavierstücke Structures inspiriert, entstand 1952/53 (1954 revidiert) seine Prospection en deux phases für drei im Sechzehnteltonab‐ stand gestimmte Klaviere, seine erste vollständig serielle Komposition. Infolgedessen traf er auch Karlheinz Stockhausen [→], dessen Elektronische Studien I/II (1953/54) für ihn eine neue Ära markierten. 1954 nahm Pousseur an den Darmstädter Ferienkursen teil, wo er un‐ ter anderem auch und kennenlernte. Ebenfalls in dieses Jahr fiel seine erste Arbeit im Kölner Studio des NWDR [→]für das Stück Seismogrammes. In seinem Ensemblestück Répons (1960) versuchte er erstmals die Verwendung der Aleatorik, also das Zurückgreifen auf Variablen mit zufällig festgelegtem Wert, auf mehrere Instrumentalisten anzuwenden, was mehr als hundert Proben erforderte.

Von 1960 bis 1968 arbeitete Pousseur gemeinsam mit dem Schriftsteller Michel Butor an der Oper Votre Faust, welche auf dem gleichnamigen Sagenstoff basierte. Besonders ist hierbei, dass das Publikum den Handlungsverlauf mitbestimmen kann: Durch Abstimmungen wird das Stück maßgeblich beeinflusst und verändert. Insofern handelt es sich hierbei um eine konsequente Fortführung der Einbringung des Zufalls in die Musik. Musikalisch stützte sich Pousseur dabei maßgeblich auf textliche und musikalische Zitate, beispielsweise von Johann Wolfgang von Goethe und Charles Gounod. Diese Verbindung von serieller Musik mit histori‐ schem Material legte er 1968 in seiner theoretischen Schrift L'apothéose de Rameau und der darin erläuterten „Theorie der Netzwerke“ dar. 1970 gründete er in Lüttich das Centre de Recherches et de Formation Musicales de Wallonie (CRFMW), welches in Belgien ähnlichen Status wie das IRCAM [→] in Frankreich erreichen sollte, allerdings wurde hier besonderer Wert auf pädagogische Projekte gelegt. Zu dieser Zeit wurde er auch in Lüttich Dozent am Konservatorium.

31

Zu Ehren von Schönbergs hundertstem Geburtstag erhielt er einen Kompositionsauftrag der Berliner Festspiele, für die er sein zweites Musiktheaterwerk Petrus Hebraicus (1973/74) schrieb. Hier vermischen sich sowohl mehrere Handlungsstränge als auch mehrere musikali‐ sche Formen, von der barocken Kantate bis zur polytonalen Musik. Ebenfalls befasste sich Pousseur mit der Neuorganisation musikalischen Materials, wie z.B. den Goldberg‐ Variationen in Nuits des nuits (1985). Er beabsichtigte hier durch Bearbeitung präexistenden Materials Strukturen aufzuzeigen, die zwar im Original vorhanden, aber bisher nicht offen erkennbar waren. Im Sommer 1994 zog Pousseur ins englische Waterloo, um sich ganz der Komposition zu widmen, allerdings hielt er noch bis 1999 Gastvorträge an der Universität Leuven. Sein Sohn Denis Pousseur (* 8. August 1958), der auch mit seinem Vater zusammen arbeitete, ist heute Komponist im Bereich von und Filmmusiken.

2. Kompositionsweise Pousseurs Kompositionsweise zeichnete sich insbesondere durch eine starke Verwendung von mathematischen Prinzipien aus, welche er zunehmend komplizierter und vielschichtiger anwandte. Komponierte er zu Beginn noch allein in Zwölftonreihen, welche verschiedenen Mustern folgten (so zum Beispiel in Trois chants sacrés), wurden die Werke ab Prospection en deux phases seriell komponiert, inspiriert durch seine ersten Auseinandersetzungen mit elektronischer Musik in den frühen 1950er Jahren.

An Prospection lässt sich Pousseurs Technik beispielhaft erläutern: Zuerst wählte er einen Tonraum von sechs Oktaven (links in Abbildung 1, die oberste vierge‐ strichene Oktave fehlt hier). In jeder Oktave wählte er sechs Töne (mittig in der Abbildung) und jeden Ton trennte er nochmals in sechs Sechsteltöne (rechts in der Abbildung) auf, so‐ dass 63 = 216 Töne zur Verfügung standen.

Abb. 1

Die Ablauffolge dieser Töne regelte er durch sechs Quadrate mit 6x6‐Elementen (vgl. Abbil‐ dung 2), wobei in der Waagerechten jedes Element nochmals in Oktavlage, Ton und Sechsel‐ ton aufgetrennt ist. Die waagerechte Reihe entspricht in jedem Quadrat der senkrechten (Quadrat I: 5‐4‐6‐1‐3‐2) in Oktavlage und Sechseltönen, die Töne ändern sich jeweils. Ebenso bestimmt die Reihe die Transpositionsreihenfolge (zu erkennen am jeweils ersten Ton eines Quadrates).

32

Abbildung 2

33

Dynamisch werden sechs Intensitätswerte unterschieden: pp, p, mp, mf, f, ff. Alle Werte tauchten in der ersten Fassung (1953) des Stückes gleich oft auf, die zweite Fassung (1954) rückte davon ab. In der ersten Fassung wurde auch eine Regel angewendet, welche besagte, dass jede Dynamik nach ihrem sechsten oder nach ihrem zwölften Auftreten für mindestens sechs Töne aussetzen musste. Diese Regel wurde jedoch später für die redigierte Fassung außer Kraft gesetzt. Das Tempo des Stückes beträgt zu Beginn 60 bpm, die ersten drei Töne variieren jeweils um die Länge einer Sechzehntelnote (2,25 Schläge; 2,5 Schläge; 2 Schläge). Erkennbar wird die zentrale Stellung der Zahl sechs, aus welcher Pousseur ein Konzept ent‐ wickelte, welches steten Wandel verursachte und so seiner Prämisse der Unvorhersehbar‐ keit der Komposition folgte.

3. Bedeutung Pousseur ließ als einer der ersten die strengen Vorgaben des frühen Serialismus hinter sich (bspw. erkennbar an den Änderungen an Prospection in der zweiten Fassung) und legte dies deutlich in seinen theoretischen Schriften dar, wodurch seine Gedanken weitergetragen und von jüngeren Komponisten rezipiert werden konnten. Als bedeutsam wird ebenfalls die da‐ mals neuartige Verwendung von musikalischen Zitaten angesehen, denen er im seriellen Kontext eine neue Bedeutung zukommen ließ. Auch dies erläuterte er umfassend in L'apo‐ théose de Rameau. Zudem war Pousseur einer der ersten Komponisten, die die Beziehung von Determination und Indetermination in die Musik einbrachten. Die Verwendung von streng konzeptionierten Mustern und aleatorischen Elementen war für ihn kein Wider‐ spruch, sondern im Gegenteil eine notwendige Kombination.

Quellen Decoupret, Pascal, …wie die Redaktion zur Systemprämisse wurde, in: Musik‐Konzepte Heft 69 Henri Pousseur, München 1990 IRCAM (2011), Henri Pousseur, online unter http://brahms.ircam.fr/henri‐pousseur [02.02.2013] Pousseur, Henri, L’apothéose de Rameau. Essai sur la Question Harmonique, in: Musiques Nouvelles XXI, Paris 1968 Pousseur, Henri, Ein hartnäckig vorausschauendes Gedächtnis, in: Musik‐Konzepte Heft 69 Henri Pousseur, München 1990 Ruf, Wolfgang, Art. Pousseur, in: Riemann Musik Lexikon, Mainz 132012 Sabbe, Herman, Henri Pousseur: un défi, in: Revue Belge de Musicologie 43 (1989) Sabbe, Herman, Pousseur – Butor, Text – Musik – Text, in: Musik‐Konzepte Heft 69 Henri Pousseur, München 1990 Sadie, Stanley und John Tyrell, Art. Pousseur, in: NG2 Band 21, London 2001 Volborth‐Danys, Diana von, Interview d’Henri Pousseur, in: Revue Belge de Musicologie 43 (1989)

Abbildungen 1 und 2 aus Decoupret, S. 8 und 9

Henrik Oerding

34

Riley, Terry Mitchell US‐amerikanischer Komponist, Interpret, Dozent und Mitbegründer der minimal music (*24. Juni 1935 in Colfax, Kalifornien). Merkmale seines musikalischen Schaffens sind Repetition, Improvisation und die besondere Behandlung des Faktors Zeit unter Berücksichtigung der physischen sowie psychischen Wirkung der Musik auf die Rezipienten. Kennzeichnend für seine durch den Jazz und die indische Musik inspirierten elektronischen Kompositionen sind desweiteren die Verwendung von Bandschleifentechnik, Phasenverschiebung, Patterns und Echo‐ sowie Loopeffekte. Riley gilt als Innovator im Bereich der tape music mit großem Ein‐ fluss auf nachfolgende Komponistengenerationen, auch in der Popmusik.

Der Sohn eines irischstämmigen Eisenbahners und einer italienischstämmigen Mutter be‐ gann seinen musikalischen Werdegang mit Violinunterricht. Als begeisterter junger Radiohö‐ rer wechselte er im Alter von acht Jahren zum Klavier, an dem er lieber nach Gehör improvi‐ sierte, statt nach Noten zu spielen. Auf der High‐School beeinflussten ihn schon bald Kom‐ ponisten wie Debussy und Strawinsky. Ab 1955 finanzierte sich Riley dann als Ragtime‐ Pianist ein Studium der Fächer Komposition bei Robert Erickson und Klavier bei Duane Hampton am San Francisco State College, wo er mit Loren Rush und eine Improvisationsgruppe gründete. Seine ersten Werke sind zunächst an die Klaviermusik De‐ bussys und Ravels angelehnt, zeigen allerdings zunehmend Einflüsse aus der Dodekaphonie und der seriellen Musik (Stockhausen, →).

Nach seinem Abschluss 1957 (Bachelor of Arts) widmete sich Riley immer stärker dem Kom‐ ponieren und gewann 1959 mit seinem Stück Spectra den Nicola di Lorenzo Preis. Bis 1961 vervollständigte er seine Kompositionsstudien an der University of California in Berkeley bei William Denny und Seymour Shifrin. Dort lernte er kennen, der maßgebli‐ che Impulse für Rileys musikalische Entwicklung setzte. Im Studio des San Francisco Tape Music Centers [→ Tape Music], einer kulturellen und pädagogischen Einrichtung zur Förde‐ rung dieser Musik, entwickelte Riley im Kreis von Pauline Oliveros, , Ramon Sender und neue Tonbandtechniken, die die Grundlage seiner folgenden Kompositionen bildeten. Sein Werk Concert (1960) für zwei Klaviere und fünf Tonbandgeräte beinhaltete Musique concrète‐Elemente [→], die auch in Mescalin Mix (1961) mit dem Ein‐ satz der Looptechnik zu hören waren.

In den Folgejahren reiste Riley durch Europa, wo er in den Pariser Aufnahmestudios des Office de Radiodiffusion Télévision Française mit Bandschleifentechnik und Phasenverschie‐ bung arbeitete und unter erstmaliger Verwendung des Time Lag‐Accumulator die Musik zu Ken Deweys Bühnenwerk The Gift (1963) beisteuerte. Außerdem spielte er weiterhin in Bars, wirkte als Klavierbegleiter in Varietétheatern mit und gab Konzerte am Klavier und Saxophon mit dem Jazztrompeter Chet Baker. Ferner besuchte er 1936 die Darmstädter Ferienkurse, wo er Stockhausens Vorlesung zu hörte. 1964 kehrte Riley nach New York zurück, um mit dem Lautsprecherkonstrukteur Arlo Acton mit elektronischer Klangerzeugung zu ex‐ perimentieren und Lautsprecher für eine ideale Klangwiedergabe zu konstruieren. In San Francisco wurde schließlich im selben Jahr ein Meilenstein der minimal music und sein wohl berühmtestes Instrumentalstück In C uraufgeführt. Im Jahr 1967 folgte Riley Kompositions‐ 35 aufträgen der Königlichen Musikakademie Stockholms und des Schwedischen Rundfunks nach Schweden. Noch im gleichen Jahr beeindruckte er durch das „All Night Concert“ im Phi‐ ladelphia College of Art, bei dem er sein achteinhalbstündiges Saxophon‐ All Night Flight spielte.

Ab 1970 wurde er für 15 Jahre Schüler von Pandith Pran Nath, bei dem er klassische hindus‐ tanische Musik studierte, die sich fortan in sein musikalisches Konzept eingliederte und dies um neue Facetten erweiterte, die seine Musik bestimmen sollten und sich z. B. in Shri Camel (1976‐78) zeigen. Anfang der 70er wurde Riley Professor für klassischen indischen Gesang am Mills College, eine Position, die er bis heute innehat. Riley wandte sich ab diesem Zeit‐ punkt vornehmlich reiner Instrumentalmusik zu, jedoch ohne den improvisatorischen Anteil aufzugeben. So schrieb er 13 Streichquartette, darunter das zweieinhalbstündige Salome Dances for Peace (1985‐87). 1990 wurde Jade Palace für großes Orchester und Synthesizer aufgeführt. Darüber hinaus komponierte Riley auch Musik für das , so etwa The Sands (1991) für Streichquartett und Orchester. Er zeigte sich allerdings immer seltener in der Öffentlichkeit und lebt heute mit seiner Familie zurückgezogen auf einer Ranch in der Nähe von Berkeley.

Rileys Musikwerk ist im Bereich der minimal music durch bestimmte Eigenarten und Beson‐ derheiten streng von den Arbeiten seiner Kollegen abzugrenzen. Grundlegender Bestandteil seiner Kompositionen ist das Prinzip der Repetition von melodisch‐rhythmischen Patterns, kleinsten musikalischen Bausteinen, die sich durch Phasenverschiebung, Verzögerung sowie Dehnung überlagern und eine Verdichtung des Klangmaterials bewirken, was mitunter zu ungewöhnlichen akustischen Effekten führen kann. In seinen elektroakustischen Werken re‐ alisierte Riley dies in der analogen Anfangsphase mithilfe von modifizierten Tonbandgeräten, wie dem erwähnten Time Lag‐Accumulator. Ein besagtes Pattern wird hierbei einmalig ge‐ spielt und in kurzer Verzögerung über eine Bandmaschine aufgenommen und gleichzeitig wieder abgespielt. Anschließend läuft das bereits bespielte Tonband über ein weiteres in ei‐ niger Entfernung positioniertes Tonbandgerät, sodass das Motiv in regulierbaren Abständen mehrmals hintereinander ertönt, während ein Livemusiker bereits weitere Patterns hinzufü‐ gen kann, um so den gewünschten Effekt der Überlagerung zu erzeugen. Zudem lassen sich über die von Riley entwickelten Geräte Echo‐ und Delayeffekte erzielen, die Riley häufig sei‐ nen meditativen Klangteppichen hinzufügt.

Wichtig für die Musik Rileys ist fernerhin die Improvisation, die die Verbindung zum Jazz ver‐ deutlicht. Auch die Nähe zur indischen Musik ist form‐ und sinnstiftendes Element in seinen Kompositionen, die sich mitunter durch modale und mikrotonale Strukturen mit modifizier‐ ten Stimmungen auszeichnen. Riley übt bis heute einen nachhaltigen Einfluss aus, der zu‐ nächst bei Komponisten wie Steve Reich oder , bis in die Rockmusik bei The Who und der Synthesizermusik von zu finden war und die Entwicklung der Gen‐ res Ambient und Drone vorantrieb.

36

Quellen Branscombe, Peter, Art. Terry Riley, in: NG2 Band 21, London 2001 Lovisa, Fabian R., minimal‐music – Entwicklung, Komponisten, Werke, Darmstadt 1996 Pardey, Wolfgang, Art. Terry Riley, in: Amerikanische Musik seit , Laaber 1987 Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005 Dies., Art. Terry Riley, in: MGG2 Personenteil 14, Kassel et al. 2005 Schulz, Reinhard, Art. Terry Riley, in: Komponisten der Gegenwart, Müchen 1992.

Marco Dimitriou

37

Ruttmann, Walter (alternativ Walther Ruttmann) Deutscher Maler, Regisseur, Drehbuchautor und Filmproduzent (*28.12.1887 in Frankfurt am Main; †15.07.1941 in Berlin). Er gilt als Mitbegründer des sogenannten absoluten Films, beteiligte sich an radiokünstlerischen Experimenten und gründete 1919 eine eigene Filmfir‐ ma mit Sitz in München. Er drehte sowohl Kunst‐, Werbe‐, wie auch Propagandafilme in der Zeit von 1921 bis 1940. Kennzeichen seiner Filmarbeit war die Verwendung des „Kontra‐ punkts“, um mittels der musikalisch‐rhythmischen Struktur des vorhandenen Tonmaterials Formen und Gegenstände von ihrer eigentlichen Bedeutung loszulösen.

Walter Ruttmann wurde als Sohn einer Kaufmannsfamilie geboren, studierte 1907 Architek‐ tur in Zürich und widmete sich zwei Jahre später in München der impressionistischen Male‐ rei und Grafik. Für diese Arbeiten erhielt er Auszeichnungen und konnte sich selbst durch seine Kunst finanzieren. Von den grausamen Erfahrungen als Artillerie‐Leutnant und Gas‐ schutz‐Offizier an der Ostfront im ersten Weltkrieg geprägt, entwickelte er eine pazifistische Haltung, die ihn nicht daran hinderte, ab Mitte der 1930er Jahre einige dokumentarische NS‐ Propagandafilme zu drehen.

Nach dem Ersten Weltkrieg entwickelte er sich künstlerisch vom Impressionismus zur abs‐ trakten Kunst. Das Besondere seiner Arbeit und seiner Anfänge ist eine Montagetechnik der drei Klanguntergruppen Geräusch, Sprache und Musik. Gelingen sollte dies, indem er den mechanisch instrumentalisierten Klang von seiner Quelle unabhängig machte, um ihn dann durch seine Reproduzierbarkeit zu jeder Zeit an anderen Orten abspielen zu können. Der Ausgang vom „konkreten Klang“, der mit dessen Wiedererkennbarkeit arbeitet und die da‐ ran angeknüpfte Lichttontechnik, die in seinen abstrakten Formen und Formverläufen das Klangbild unterstützen sollten, waren darauf ausgerichtet, dem Film einen produktiven Cha‐ rakter zu verleihen und führten zur Entwickelung des Tonfilms (Opus II‐IV, 1921‐1925). Dabei gelang es laut Ruttmann nicht mehr, die Lebendigkeit, gekennzeichnet durch seinen „frucht‐ baren Moment“, als tatsächliches Leben zu empfinden: „Die Rettung [liegt in einer] ganz neuen Kunst, einer Malerei mit Zeit [...]. Es wird sich deshalb ein ganz neuer, bisher nur la‐ tent vorhandener Typus von Künstlern herausstellen, der etwa in der Mitte von Malerei und Musik steht.“

Mitstreiter waren Künstler wie Hans Richter und Viking Eggeling, die auch 1925 an der Mati‐ nee des UFA‐Theaters Berlin „Der Absolute Film“ teilnahmen. Sie unterschieden sich inso‐ fern von ihren Kollegen Fernand Léger und Dudley Murphy, die auch an dieser Veranstaltung als Künstler mitwirkten, dass sie nicht Abbilder des alltäglichen Lebens in der Montage zu‐ sammensetzten, sondern auf genau den Verzicht dieser Realitätswiedergabe bestanden und sich auf abstrakte Formen konzentrierten. Grundlage für weitere Werke waren u.a. Tonma‐ terial von zu Ruttmanns Opus III, (1925), der Scherenschnitt zur Vertonung Lotte Reinigers (Die Abenteuer des Prinzen Achmed, 1926), in der er eine Zauberwelt gestaltete, oder auch ein „Querschnittsfilm“ (Melodie der Welt, 1929), dessen Partitur von Wolfgang Zeller geschrieben wurde. Sein durch „poetischen Dokumentarismus der 20er“ begleiteter Stummfilm Berlin – Sinfonie einer Großstadt (1927) wurde durch eine Partitur Edmund Mei‐ sels zu einem Tonfilm vervollständigt. Dieses Werk sollte die Zeit durch optische Mittel 38 rhythmisch organisieren, sich abwenden von gefilmtem Theater, unter Ausschluss von Men‐ schen als Gefilmtem stattfinden und ohne Untertitel fertiggestellt werden, da das Gezeigte für sich sprechen sollte. Ruttmann grenzte sich hier zum absoluten Film seiner Kollegen ab, indem er rein dokumentarisches Material verwendete und sich an der Ästhetik der Neuen Sachlichkeit orientierte. Eines seiner meist genannten Werke Weekend (1930) entstand nach dem Prinzip, Alltagsklänge in einem Hörspiel zusammenzusetzen und dabei deren Wiederer‐ kennbarkeit zu wahren. Durch seine Arbeit als Regisseur beherrschte er die Arbeitsmetho‐ den von Schnitt und Montage, die er hier nun mit Tonmaterial umsetzte. Diese Methode war ihm durch die Verwendung von Tonfilmstreifen gegeben, wohingegen andere Künstler mit Blenden oder Schallplatten arbeiteten. Bei Ruttmann kann auch von einer Realisation von Hörspielideen gesprochen werden, da er hierzu vorher Partituren und auch Konzepte entwi‐ ckelte. Außerdem gelang es Ruttmann, Bilder durch die Montagetechnik aus ihrem konkre‐ ten Bedeutungszusammenhang zu lösen. Ein Beispiel dafür ist In der Nacht, 1931, mit dem er den musikalischen Verlauf des Fantasiestückes opus 12 von Robert Schumann filmisch il‐ lustrierte. Durch seine Zusammenarbeit mit Leni Riefenstahl zum Reichsparteitags‐Film Tri‐ umph des Willens (1935) geriet er in die Nähe der NS‐Filmpropaganda, wurde aber von der Zusammenarbeit unter fehlender Begründung noch vor der Vervollständigung des Films aus‐ geschlossen. Weitere Werke waren der 1932/33 in Italien entstandene Film Acciaio und der Kurz‐Dokumentarfilm Henkel. Ein deutsches Werk in seiner Arbeit (1938). Zwei seiner letzten Regiearbeiten waren die propagandistischen Kurzfilme Deutsche Waffenschmieden (1939/40) und Deutscher Panzer (1940).

Quellen Döhl, Reinhard, Das neue Hörspiel, Darmstadt 1988 Emons, Hans, Für Auge und Ohr: Musik als Film, Berlin 2005 Goergen, Jeanpaul. Musik des Lichts. Zum 100. Geburtstag Walter Ruttmanns. http://www.filmportal.de/sites/default/files/BDDB9CE5DD9048EFAB5D26B2056C52F1_Portrxxt_ Ruttmann.pdf [Abgerufen am 23.11.2012] Kloppenburg, Josef (Hg.). Handbuch der Musik im 20.Jahrhundert Bd.11, Musik Medial, Laaber 2000 Motte‐Haber, Helga de la (Hg.), Handbuch der Musik im 20 Jahrhundert Bd.12, Klangkunst, Laaber 1999 Schenk, Irmbert, Kino und Modernisierung, Marburg 2008 Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Band 5, Elektroakustische Musik, Laaber 2002 Walther Ruttmann, Biographie. http://www.filmportal.de/person/walther‐ ruttmann_073d7d0d1c4b4c538b0b3db7ec60e44e [Abgerufen am 23.11.2012]

Sophia Kisfeld

39

Stockhausen, Karlheinz (* 22. August 1928; † 5. Dezember 2007) war ein dt. Komponist, Autor, Komposionslehrer und der Pionier der elektroakustischen Musik. Er ist einer der bedeutendsten Komponisten seiner Generation und nimmt eine besondere Stellung im Zentrum der internationalen musi‐ kalischen Avantgarde nach 1950 ein.

1. Biographie und Instrumentalstücke Karlheinz Stockhausen kam am 22. August 1928 in Mödrath bei Köln als ältester Sohn des Volksschullehrers Simon Stockhausen und seiner Frau Gertrud Stockhausen zur Welt. Durch seinem theaterbegeisterten Vater und seine Mutter, die gerne Klavier spielte und sang, be‐ kam Stockhausen schon in seiner frühen Kindheit einen engen Bezug zur Musik. Gertrud Stockhausen fiel nach längerem Aufenthalt in einer Nervenheilanstalt 1941 dem Euthanasie‐ Mordprogramm der Nationalsozialisten zum Opfer. Sein Vater ließ sich bei der Machtüber‐ nahme der NSDAP für die Ideologie der Partei begeistern, wurde 1943 eingezogen und starb bei einem Gefecht in Ungarn. K. Stockhausen war vor Kriegsbeginn in einem HJ‐Heim unter‐ gebracht, in dem er durch den militärischen Drill eine tiefe Abneigung gegen Marschmusik entwickelte, und musste während des Krieges Lazarettdienst leisten.

Nach Kriegsende ging er 1947 nach Köln, um an der dortigen Musikhochschule Schulmusik, Klavier und Musikwissenschaft zu studieren. 1951 belegte er zusätzlich die Fächer Germanis‐ tik und Philosophie an der Kölner Universität und stand mit dem Nobelpreisträger von 1946, , in regem Briefkontakt. Nachdem Stockhausen in die Kompositionsklasse des Schweizer Komponisten Frank Martin an der Kölner Musikhochschule aufgenommen wurde, widmete er sich vollkommen der Musik. Bald darauf machte er die Bekanntschaft mit Her‐ bert Eimert [→], dem damaligen Redakteur des musikalischen Nachtprogramms am NWDR Köln. Dieser wurde in den folgenden Jahren zu seinem wichtigsten Förderer, indem er ihm erste Aufführungen ermöglichte und zu einer Anstellung beim Rundfunk verhalf. 1951 nahm Stockhausen erstmalig an den Internationalen Ferienkursen für Neue Musik in Darmstadt teil, wo er u.a. von Oliver Messiaen und seinem Schüler Karl Goeyvaerts zu ersten Komposi‐ tionsversuchen inspiriert wurde. Bald darauf entstand das radikale Werk für Kla‐ vier, in dem „alle traditionellen Elemente der Melodik, Rhythmik und Satztechnik eliminiert schienen“. Bei dieser Komposition wandern vereinzelte Töne mit stetig wechselnder Elemen‐ tareigenschaft durch die verschiedenen Oktavräume. Im Jahre 1952 bot sich Stockhausen die Möglichkeit, nach Paris zu gehen, wo er u.a. mit Pierre Boulez in Kontakt kam. Inspiriert durch diese Erfahrung entstand bald darauf das Klavierstück Kontra‐Punkte, in dem er die punktuelle Isolierung einzelner Töne überwinden wollte und diese zu unterschiedlich charak‐ terisierten Gruppierungen zusammenschloss.

2. Elektronische Musik Zurück in Köln bot Eimert Stockhausen eine feste Anstellung in seinem neu gegründeten Studio für elektroakustische Musik des Nordwestdeutschen‐Rundfunks [→] an, wo er mit unermüdlichem Eifer elektronische und instrumentale Stücke, theoretische Schriften und Analysen produzierte. Jährlich nahm er an den Darmstädter Ferienkursen teil, die als Kon‐ taktbörse und Informationszentrum eine wichtige Rolle spielte. Ab 1956 gab Stockhausen 40 dort regelmäßig eigene Kompositionskurse. 1953 widmete er sich im elektronischen Studio ganz seiner ersten elektronischen Komposition, der . Bei dieser Studie baute er Klän‐ ge aus Sinustönen zusammen. 1954 folgte dann die drei minütige Studie II, in der jeder Klang dem seriellen Einheitsdenken bis ins Kleinste verpflichtet ist und entsprechend individuell bearbeitet wurde. Im selben Jahr begann er mit dem geistlichen Werk Gesang der Jünglinge, das elektronische Klänge mit der menschlichen Stimme verband. Er kreierte ein Klangkonti‐ nuum zwischen Sinuston und „weißem Rauschen“, den akustischen Extremen von Einzelton und Frequenztutti.

Im Rahmen einer Vortragsreihe besuchte Stockhausen 1958 die USA, wo er mit internationa‐ len musikalischen Einflüssen wie Jazz und der Popularmusik in Berührung kam. Dadurch wuchs sein internationaler Bekanntheitsgrad auch außerhalb der Avantgarde‐Szene. Nach seiner Rückkehr hatte es sich Stockhausen 1959 zur Aufgabe gemacht, nach der Vollendung seines für einen Schlagzeuger eine neue Notationsweise für elektronische Musik zu finden. Er versuchte, die bisherige strenge Notation zu erweitern, um Spielräume für inter‐ pretatorische Gestaltung zu schaffen. Es kam zur Entstehung variabler Musik, bei der vor al‐ lem die interpretatorischen Möglichkeiten im Vordergrund standen, die z.B. zur Verände‐ rung der Gesamtdauer von Aufführung zu Aufführung führten. Beeinflusst wurde Stockhau‐ sen dabei durch die New Yorker Schule, insbesondere durch John Cage. Danach begann er mit der Realisation von , das er für Schlagzeug, Klavier und elektronische Zuspiel‐ klänge komponierte. Es ist ein Werk elektronischer Musik auf höchstem künstlerischem Ni‐ veau, das neben Gesang der Jünglinge heute zum meist beachteten Werk elektronischer Musik zählt. Stockhausen selbst nannte die Form des Stückes die „Dekomposition“ der Klän‐ ge.

Im November 1967 kam es zur Uraufführung von , einem Werk, das musikalisches Material von vierzig Nationalhymnen verschiedenster Staaten collagierte. Stockhausens In‐ tention war dabei, nicht mehr persönliche Musik zu schreiben, sondern Musik, die die Men‐ schen aller Rassen und Nationen einbezieht. Zugleich finden sich hier mit dem Hinweis auf die ideale Welt „Pluramon“ erste Spuren seiner Privatmystik. Im Jahre 1970 bot sich Stock‐ hausen die Möglichkeit, zur Weltausstellung in Osaka nach Japan zu reisen. Man hatte ihn gebeten, ein tägliches Fünf‐Stunden‐Programm mit seinen Werken für die Dauer der Ausstel‐ lung auszuarbeiten, das in dem metallisch blauen Kugelauditorium einen idealen Auffüh‐ rungsraum fand.

Für die Zweihundertjahr‐Feier der USA erhielt Stockhausen 1975 einen Kompositionsauftrag der deutschen Bundesregierung, woraufhin er für elektronische Musik, Trompete, Sop‐ ran, Bassklarinette und Bass schrieb. Das Werk war eine szenisch‐musikalische Darstellung der vier Jahreszeiten als Resultat des Besuchs der Erde durch außerirdische Intelligenz. Nach der Weltausstellung konzentrierte er sich auf das siebenteilige, zyklische Opernwerk , dessen erster Teil 1977 zur Aufführung kam. Dieses Stück sollte die Woche mit ihren sieben Tagen darstellen. Nach dessen Abschluss begann er 2004 mit der Verwirklichung von Klang, das den Tag mit seinen vierundzwanzig Stunden darstellen sollte, aber bis zu seinem Tod am 5. Dezember 2007 nicht vollendet werden konnte. Geplant war noch die Minute, bis er 41 schließlich in der Sekunde endete. Durch diese vorstrukturierte Lebensplanung mit zykli‐ schen Großprojekten wollte er die Begrenzung auf einzelne relativ kurze Werke überwinden, um sein eigenes Leben zu einem Gesamtkunstwerk zu machen. Zugleich stand die Verbin‐ dung elektronischer und instrumentaler Klänge bis zuletzt im Zentrum seiner Kompositions‐ ästhetik, wobei sich seine Gestaltung elektronischer Musik mit der Umstellung auf digitale Klangerzeugung grundlegend veränderte, da er die Ausarbeitung der elektronischer Sounds zunehmend den ausführenden Musikern anvertraute oder – wie mit seinem Sohn Simon Stockhausen [→] – für zwei Opern des Licht‐Zyklus von diesen vorbereiten ließ, um die ferti‐ gen Stimmen auf Zuspielbändern unveränderlich zu fixieren.

Quellen Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 2004 Eimert, Herbert und Hans Ulrich Humpert, Das Lexikon der elektronischen Musik, 1973 Regensburg Frisius, Rudolf, Art. Stockhausen, Karlheinz, in: in: MGG2 Personenteil 15, Kassel et al. 2006 Ders., Karlheinz Stockhausen I. Einführung in das Gesamtwerk, Mainz 1996 Ders., Gespräch mit Karlheinz Stockhausen „Es geht aufwärts“, in: Karlheinz Stockhausen II. Die Werke 1950‐1977, Mainz 2008 Kurtz, Michael, Stockhausen. Eine Biographie, Kassel 1988 Stockhausen, Karlheinz, Texte zur Musik Bd. 1‐10, Köln 1963, 1964, 1971, 1978, Kürten 1989, 1998 Ders., Kompositorische Grundlagen Neuer Musik. Sechs Seminare für die Darmstädter Ferienkurse, Kürten 2009 Toop, Richard, Art. Stockhausen, Karlheinz, in: NG2 Band 24, London 2001

Paula Sophia Prüßner

42

Stockhausen, Simon Dt. Komponist, Produzent und Interpret (* 5. Juni 1967 in Bensberg bei Köln). Seine Mu‐ sikanschauung folgt der These, dass Geräusche durch kontextuelle Veränderung und elekt‐ ronisch‐prozessuale Klangmanipulation musikalisiert werden können. Diese Auffassung ver‐ eint Techniken der Musique concrète [→], des Dadaismus sowie der elektronischen Musik, ohne das seine Musik einer dieser Kategorien zugeordnet werden könnte. Seine komposito‐ rische Arbeit orientiert er sich am jeweiligen Stand der Computertechnik, an der er zur Ent‐ wicklung von Soft‐ und Hardware selbst beteiligt ist.

Als Sohn der Künstlerin Mary Bauermeister und des Komponisten Karlheinz Stockhausen er‐ hielt er bereits während seiner frühen Kindheit Unterricht in den Fächern Klavier, Saxophon, Schlagzeug, Synthesizer und Komposition. Dabei wurde er einerseits vom streng seriellen Denken seines Vaters, andererseits von der Laisser‐faire‐Erziehung in der Hauskommune seiner Mutter geprägt. Neben der artifiziellen Musik lernte er Popmusik kennen, die sein Va‐ ter strikt ablehnte, und entwickelte eine Vorliebe für Jazz und Progressive Rock. Nach dem Abitur im Jahr 1986 wirkte er im seines Vaters auf internationalen Konzertreisen mit (; ) und produzierte zusammen mit seinem Vater u. a. die elektronische Musik für die Opern Dienstag (1992) und Freitag (1994) aus dessen LICHT‐ Zyklus. In Dienstag trat S. Stockhausen zudem im Klavierstück XV in der Rolle des Synthi‐Fou auf. In der Einführung zur Partitur widmete Karlheinz Stockhausen die Komposition seinem Sohn, den er als „Klavier‐Elektroniker“ im „Übergang […] von mechanischer Klaviermusik zu einer Elektronischen Klaviermusik“ (Stockhausen 1995) betitelte. Die letzte Zusammenarbeit der beiden Komponisten war 1996. Anschließend begann S. Stockhausen selbstständig in di‐ versen Bereichen zu arbeiten. Als Keyboarder/Live‐Elektroniker und Sopransaxophonist spielte er mit der WDR‐Bigband, Lalo Shifrin und James Morrison (On the edge). Er leitete zudem Workshops für elektronische Klangerzeugung (Education‐Projekt bei den Berliner Philharmonikern). In Klanginstallationen und Performances suchte S. Stockhausen immer auch die Begegnung zu den bildenden Künsten. Neben Musik für Dokumentarfilme bei WDR, Arte und ZDF, Filmmusiken wie Trip to Asia (2007) und Theater‐ und Kammermusik finden sich vereinzelt auch politisch konnotierte Werke (Brandnächte, Da SPEECH). Seit 2008 pro‐ duziert er kommerzielle Klangeffekte für diverse Online‐Klangbibliotheken und Softwarefir‐ men. Darüber hinaus gestaltete er 2011 den musikalischen Rahmen zur 47. Verleihung der Grimme‐Preise. Im Jahr 2012 folgte eine Zusammenarbeit mit den Hamburger Symphoni‐ kern, die seinen Halbbruder und ihn als Artists in Residence verpflichte‐ ten. Wie bereits in Berliner Geschichten (1999) sucht S. Stockhausen hier in Minimal Night‐ mare und Doktrin der Ruhe die interaktive Verknüpfung von Elektroakustik und Orchester. Selbst bezeichnet er seine Tätigkeitsbereiche heutzutage als „Komposition – Produktion – Sound Design“, da er kein konventionelles Komponistenbild erfüllt.

Sein einziges Paradigma betrifft die potenzielle Musikalität aller Geräusche und die Erfor‐ schung von Klang in all seinen Dimensionen. Dazu gehören Alltagsgeräusche ebenso wie Sprache. Texturen, Rhythmen und Harmonien werden in seinen Prinzipien der Klangsynthese aus Geräuschen abgeleitet, um anschließend in Kompositionen Verwendung finden. Diese prozessuale Kompositionsweise bezieht sich auf Zeitparameter (z. B. Dehnung und Stau‐ 43 chung von Klängen durch time‐stretching), die dynamische Veränderung durch Kompression und die Möglichkeit, Aufnahmen rückwärts (reversed) abspielen zu lassen. In diesem grund‐ legenden Vorgang steht „prozessiert“ nicht allein für ein kompositorisches Stilmittel, son‐ dern meint hier die Veränderung von aufgenommenen Klängen. Durch digitale Klangsynthe‐ se [→ addive Synthese], die Genese künstlicher oder Abwandlung natürlicher Klänge, ist es möglich, die Mikrotonalität der Klänge zu verändern. Bei S. Stockhausen bleibt nach dieser Verfremdung der Ursprung der Klänge weiterhin erkennbar. Die Anwendung dieser Prinzi‐ pien ist für ihn aber keineswegs bindend. Während einerseits bestimmte seiner Werke einen rein künstlerischen Anspruch haben, folgt andererseits z. B. seine Theater‐ und Filmmusik ei‐ nem jeweils funktionalen Zweck. Unabhängig von dieser Unterscheidung stehen die Prinzi‐ pien der kompositorischen Arbeit mit den Möglichkeiten der Klangsynthese in Einklang.

Die zahlreichen Arbeitsbereiche Klassik, Elektronik, Jazz sowie Weltmusik, Kunstperfor‐ mances, Filmmusik und Sound Design verhindern eine eindeutige stilistische Klassifizierung. Da bisher keine wissenschaftliche Publikation über S. Stockhausen existiert, findet sich in der musikwissenschaftlichen Literatur lediglich die provisorische Beschreibung im Bereich „inter‐ stylistic composition“ (Custodis 2011), um die Nähe zu Musikern wie Heiner Goebbels, Steve Vai, Matthew Herbert und Thomas Adès aufzuzeigen.

Quellen Bauermeister, Mary, Ich hänge im Triolengitter. Mein Leben mit Karlheinz Stockhausen, München 2011 Custodis, Michael, Living History. The Guitar Virtuoso and Composer Steve Vai, Online‐Publikation Münster 2011, unter http://www.uni‐muenster.de/imperia/md/content/ musikwissen‐ schaft/pdf/custodis‐vai.pdf [10. April 2013] Ders., Progressing Music. Auf der Suche nach dem Neuen im 20. Jahrhundert, in: Archiv für Musik‐ wissenschaft 69 (2012), Heft 1 Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010 Schmidt, Klaus, Die Brandnacht, Dokumente von der Zerstörung Darmstadts am 11. September 1944, Darmstadt 61964 Seeber, Martina, Zukunft@BPhil, Berliner Polyfonie. Das Education‐Projekt REMIX‐San Francisco Po‐ lyphony, online unter http://www.berliner‐ philharmoniker.de/fileadmin/education/0910/H5_ 0910_edu‐berliner_polyfonie.pdf. [10. April 2013] Stockhausen, Karlheinz, SYNTHI‐FOU (Klavierstück XV) für einen Spieler elektronischer Tasteninstru‐ mente und Elektronische Musik vom DIENSTAG aus LICHT (1991), Kürten 1995 Ders., Texte zur Musik Band 7 und 8, Kürten 1998 Stockhausen, Simon, Simonstockhausen.com, online unter http://www.simonstockhausen.com

Attila Kornel

44

Tape Music Der Begriff Tape Music bzw. Music for Tape wurde, obwohl schon früher als musikalische Form bekannt, 1952 durch Oliver Daniel eingeführt. Tape Music ist demnach Musik, die di‐ rekt mit einem Tonbandgerät erzeugt und aufgenommen wird, ohne dabei die Zwischenstu‐ fe einer schriftlichen Aufzeichnung zu durchlaufen. Kompositionen von Tape Music fanden überwiegend in den 1950er‐ und 1960er‐Jahren statt, als Magnettonbandgeräte die best‐ mögliche Aufnahmetechnologie darstellten.

Das Genre wurde vorwiegend durch amerikanische Komponisten geprägt und verstand sich als ideeller Gegenpol zur europäischen Musique concrète [→]. Technisch sind beide Termini vergleichbar, jedoch nicht musikalisch. Vertreter der Tape Music kritisierten die Musique concrète wegen ihrer Nachahmung von Orchesterinstrumenten, während sie selbst sämtli‐ che Klangspektren der elektronischen Instrumente nutzten. Die Tape Music folgte u.a. dem Prinzip der Unvorhersehbarkeit, wie es v.a. von John Cage [→] vertreten wurde. Im Fokus der Komponisten stand ebenso, Schwachstellen oder klangliche Besonderheiten des Ton‐ bandgerätes für die Komposition zu nutzen.

Der Komponist trat in der Tape Music als Schöpfer in zweiter Instanz auf, da er beim Kompo‐ nieren nur auf bereits vorhandene Sounds zurückgriff. Vertreter der Tape Music verfolgten in ihren Kompositionen experimentelle Ansätze, wenn z.B. die Regeln der mathematischen Wahrscheinlichkeit zur Anordnung von Klangquellen herangezogen wurden ( – Octet No. 1, 1953). Bildende Künste, Tanz und lyrische Texte waren ebenso Einflüsse zur Ge‐ staltung der Werke. Durch die nahezu unbegrenzten Möglichkeiten der Komposition war es nötig, potentiell zu verwertendes Material im Voraus auf seine ästhetische Beschaffenheit zu überprüfen sowie Methoden und Zielvorstellungen genau zu bestimmen. Tape Music wurde zum reinen Abspielen und nicht für konzertierende Aufführungen produziert und unterglie‐ derte sich ab 1951 in drei wegbereitende Gruppierungen:

1. Der New Yorker Kreis um John Cage Cage arbeitete mit Brown, , David Tudor und Christian Wolff ab 1951 im Studio des Ehepaares Louis und Bebe Barron in New York am Projekt Music for Magnetic Ta‐ pe. 1952 entstand Cages Williams Mix, ein aus mehr als 600 Aufnahmen aus Bandabfällen bestehendes Werk, das für ein achtspuriges Tonbandgerät konzipiert war. Solch ein Gerät gab es zu dieser Zeit jedoch nicht, weshalb zur Aufführung des Stückes acht Tonbänder in acht Geräten gleichzeitig abgespielt werden mussten. Als Grundlage des Schnittmusters diente Cage das chinesische Buch der Wandlungen I Ging. Cage strebte die radikale Umset‐ zung des Montageprinzips sowie das Konzept der Unbestimmtheit an. Die Komposition des 4 Min. 15 Sek. Langen Stücks dauerte mehrere Monate. 1953 endete die Zusammenarbeit der Gruppe. Feldman ging im Anschluss mit Brown nach Newark an die Rangertone Studios.

2. Columbia‐Princeton Electronic Music Center Das Center (CMC) ist das älteste Zentrum für elektronische und computer‐ basierte Musik in den USA. Erste Kompositionen gab es 1951 im Studio – später Tape Music Studio – der Columbia University in New York. Das CMC machte sich die 45

Techniken der gesteuerten Rückkopplung (Feedback) und der Transposition eines aufge‐ nommenen Klangs zunutze und arbeitete verstärkt mit Geschwindigkeitsvariationen. Die kompositorischen Anfänge verliefen parallel zur Cage‐Gruppe. Am 9. Mai 1952 fand auf Initi‐ ative Henry Cowells ein universitätsinternes Tonbandkonzert statt, welches am 18. Oktober 1952 im New Yorker Museum of Modern Art öffentlich wiederholt und weitgehend positiv rezipiert wurde. Aufgeführt wurden Vladimir Ussachevskys Sonic Contour sowie Otto Lue‐ nings Invention in 12 Notes, Low Speed und Fantasy in Space. 1953 folgte eine Einladung der Radiodiffusion Française zu einem Festival in Paris, bei dem ein eigener Programmschwer‐ punkt für Tape Music vorgesehen war. 1959 kam es zur Fusion des Studios zum Columbia‐ Princeton Electronic Music Center, in deren Folge das Studio gemeinsam von der Columbia University und der in New Jersey betrieben wurde und unter der Lei‐ tung von Luening [→] und Ussachevsky stand. Weitere wichtige Mitarbeiter und Komponis‐ ten waren u.a. Milton Babbitt, , Bülent Arel, Mario Davidowsky und Alice Shields. Schon 1958 verfügte das CMC über vier komplette Aufnahmestudios für elektroni‐ sche Kompositionen sowie den RCA Mark II Sound Synthesizer.

3. San Francisco Tape Music Center (SFTMC) Das SFTMC ging 1960 aus der von Ramon Sender und Pauline Oliveros veranstalteten Kon‐ zertreihe Sonics hervor, bei der die Tape Music ein Forum fand. 1962 entstand offiziell das von Sender und Morton Subotnick gegründete SFTMC am San Francisco Conservatory of Music. Die Zielsetzung der Einrichtung war es, eine Black Box – einen neuentwickelten Syn‐ thesizer – für Komponisten zur Verfügung zu stellen, die alle erdenklichen Klänge verfügbar machen sollte. Das Gerät sollte die elektronische Musikproduktion so vereinfachen, dass Ar‐ beitsschritte gleichzeitig und nicht mehr nacheinander ausgeführt werden konnten. Das Vorhaben mündete 1962 und 1963 in den Bau eines modular aufgebauten Systems durch Donald Buchla. Der Buchla‐Synthesizer beinhaltete zwei Keyboards ohne herkömmliche Tas‐ ten. Stattdessen wurde eins mit berührungsempfindlichen Kontakten ausgestattet, die pro‐ grammierte Ereignisse auslösten, während das andere als Wiedergabesteuerung für zehn angeschlossene Tonbandgeräte diente und somit ähnlich wie ein Mellotron arbeitete. Die Keyboards dienten als eine Art Sampler. Dieses Gerät wurde später zum 100 Series Mudolar Electronic Music System weiterentwickelt, dessen Lizenz schließlich von der CBS erworben wurde. Durch das Gerät war es nun möglich, in Echtzeit zu arbeiten, wobei die Arbeitsschrit‐ te manuell vorgenommen werden mussten. Der Buchla‐Synthesizer wurde vor allem von Subotnick genutzt, der damit 1967 sein erstes größeres Werk Silver Apples of the Moon komponierte. Subotnick verfolgte dabei die Idee einer bildhauerischen Auseinandersetzung mit Klängen, also der Klangerweiterung durch elektronische Hilfsmittel, nicht der Schaffung neuer musikalischer Strukturen.

Die Zusammenarbeit Buchlas und Subotnicks, vor allem auch mit dem Bildkünstler Anthony Martin, hatte großen Einfluss auf die Hippie‐Bewegung und Bands wie Grateful Dead, Jeffer‐ son Airplane oder Quicksilver Messenger Service. , die ihrerseits 1968 mit dem Al‐ bum „A Saucerful of Secrets“ Wegbereiter des Electronic Rock‐Genres wurden, waren eben‐ falls durch das SFTMC beeinflusst. 46

Steve Reich erlernte zwischen 1963 und 1965 im SFTMC die von Terry Riley entwickelte Technik der Phasenverschiebung, bei der zwei oder mehr Tonbänder mit identischen Band‐ schleifen allmählich gegeneinander verschoben werden. 1966 wurde das SFTMC von San Fransisco an das Mills College in Oakland verlegt und später in Center for Contemporary Mu‐ sic umbenannt. Die Leitung ging an Martin und Oliveros über, womit sich der Kreis zur Sonics‐Konzertreihe schloss.

Quellen Burns, Kristine H., Art. Morton Subotnick, in: NG2 Band 24, London 2001 Castine, Peter, Art. Ussachevsky, Vladimir (Alexis) in: MGG2 Personenteil 16, Kassel 2006 Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001 Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004 Manning, Peter, Electronic and Computer Music, Oxford 1987 Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010 Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005 Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001 Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Bd.5, Elektroakustische Musik, Laaber 2002 Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 1995

Oliver Falkenberg

47

Elektroakustische Musik beim Westdeutschen Rundfunk Köln I. Die elektroakustische Musik beim Rundfunk

Aufgrund technischer Erfordernisse dort entstanden, wurde die Beschäftigung mit elektroa‐ kustischer Musik auch nach der Dezentralisierung von Studiokompositionen infolge von sin‐ kenden Gerätepreisen durch den Rundfunk gefördert. Die öffentlich‐rechtlichen Rundfunk‐ anstalten entsprechen damit ihrem Kulturauftrag zur Förderung von Musikern und zur Ent‐ stehung neuer Werke.

Kulturauftrag In den Programmgrundsätzen der Rundfunkgesetzgebung ist der Kulturauftrag nicht im De‐ tail definiert, wofür die Unterstützung kultureller Ideale seit der ständigen Programmauf‐ nahme in Deutschland am 29.10.1923 zur Sendungslegitimation herangezogen wird. Ur‐ sprünglich eine Folge musikindustrieller Förderung und politischer Zensurverfahren, wurde das breite Musikprogramm ab 1925 von der Reichsrundfunkgesellschaft als kultureller Wert auch staatlich subventioniert. Die „drei Säulen“ des Kulturauftrags sind noch heute Unterhal‐ tung, Bildung und Information. Die Produktion sog. „Minderheitenprogramme“ (Hörspiele, künstlerische Features, E‐Musik) zählt zu den wesentlichen Merkmalen öffentlich‐rechtlicher Rundfunkanstalten. Geringe Einschaltquoten werden durch Bildungscharakter und hohe ab‐ solute Zuhörerschaft (ca. ½ Mio. Menschen in Deutschland) gerechtfertigt. In diesem Zu‐ sammenhang fungieren Rundfunkanstalten als Mäzene neuer Musik: die Finanzierung eige‐ ner Klangkörper und Konzertreihen, die Organisation von Festivals (z.B. Donaueschinger Mu‐ siktage, Südwestrundfunk) sowie die Vergabe von Kompositionsaufträgen sind direkte Folge des Kulturauftrags, ebenso die Einrichtung elektronischer Studios in der zweiten Hälfte des 20. Jahrhunderts.Nachfolgende Beispiele zeigen internationale Herangehensweise zur Ein‐ richtung elektronischer Studios durch den Rundfunk.

Das Elektronische Studio des NWDR (Nordwestdeutscher Rundfunk) Auf der ersten Tonmeistertagung im September 1949 in Detmold präsentierte der Bonner Kommunikationswissenschaftler Werner Meyer‐Eppler (M.‐E.) Vocoder‐Experimente und machte dort die Bekanntschaft von Robert Beyer, Tonmeister des NWDR Köln. Durch elekt‐ ronische Klangforschung erhoffte sich dieser eine Realisierung von Klangfarbenmusik, so dass er den Verantwortlichen des NWDR in Köln vorgestellt wurde. Erste Ergebnisse kamen zum Einsatz im Rundfunkhörspiel Der alte Roboter (gesendet am 22. September 1951), die mit Vocoder erzeugten Roboterstimmen der breiten Öffentlichkeit als „Meisterstück der Elektroakustik“ präsentiert wurden. Es folgte eine Sendung über elektronische Musik im Nachtprogramm des NWDR am 18. Oktober 1951 mit Klangbeispielen von M.‐E. zu einem ei‐ nem Gespräch mit Robert Beyer, Herbert Eimert (dem leitenden Redakteur des Nachtpro‐ gramms, →) und Friedrich Trautwein. Am Morgen desselben Tages hatte eine kurze Bespre‐ chung mit den Programmverantwortlichen die Begründung eines elektronischen Studios am Kölner Funkhaus initiiert: „So wird es beispielsweise möglich, das Problem der ‚rundfunkei‐ genen Musik‘ in Angriff zu nehmen und auch für das Hörspiel akustische Effekte von bisher noch nicht gehörter Gestalt bereitzustellen.“

48

Erfolgreich setzte Eimert diese Empfehlung beim Intendanten des NWDR durch, erste Klang‐ experimente folgten 1952. Unter der Leitung Karlheinz Stockhausens [→] entfernte sich das Studio ab Mitte der 1950er Jahre zunehmend von Eimerts ursprünglichen Vorstellungen und konzentrierte sich auf Konzepte der seriellen Musik. Im Musikalischen Nachtprogramm als neue Musik etabliert, konnte diese bzgl. des auskomponierten Raumklangaspektes aber nur bedingt ihre Wirkung entfalten, da der sendefähige Ton zunächst nur monofone, später ste‐ reofone Produktionen berücksichtigen konnte bzw. mehrkanalige Werke nach diesen techni‐ schen Erfordernissen heruntergemischt werden mussten. Die Aufführung mit klar positio‐ nierten Lautsprechern im Konzertsaal und auf Tagungen („Saalfunk“) sollte dieses Problem lösen.

Das Mailänder Studio di fonologia di Milano della RAI 1955 wurde das Studio im Auftrag des Radiotelevisione Italiana (öff.‐rechtl. Rundf.) zur Her‐ stellung akustischer Kulissen von Hörspielen gegründet. Musikalische Leiter waren Luciano Berio und Bruno Maderna. Dieser hatte 1952 in Kooperation mit M.‐E. Musica su due dimen‐ sioni komponiert. Im Sinne der eigentlichen Zielsetzung des Studios öffnete man sich dem Gebrauch außerelektronischer Mittel, was von Stockhausen scharf kritisiert. John Cage kom‐ ponierte hier 1958 Fontana Mix, Luigi Nono bearbeitete jedes seiner elektronischen Werke auch in Mailand.

Elektronmusikstudion (EMS) Der schwed. Komponist Karl Birger Blomdahl war 1964 unter der Voraussetzung, ein Studio zur Produktion elektronischer Musik gründen zu können, zum Musikdirektor von Sveriges Radio (dem schwedischen öffentlich‐rechtlichen Rundfunk) ernannt worden. Nach dessen Tod vier Jahre später stellte der Sender die Finanzierung ein und das Studio wurde im Folge‐ jahr 1969 unabhängig mit Unterstützung des Kulturministeriums. Erster Direktor des neuen, bis heute bestehenden EMS war der norw. Komponist Knut Wiggen, den besonders die psy‐ chologische Wirkung von Klängen interessierte.

NHK (Nippon Hōsō Kyōkai) Studio 1954 durch NHK (den japanischen öffentlich‐rechtlichen Rundfunk) gegründet. Aus Interesse am musikalischen und radio‐klanglichen Einsatz elektroakustischer Musik bemühte man sich, zunächst ein Handbuchs des Kölner NWDR‐Studios ins Japanische zu übersetzen, um ein ei‐ genes elektronisches Studio aufzubauen. Dessen Gründungsdirektor wurde Wataru Uenami. Zur Gewinnung authentischer Eindrücke reiste der Komponist Toshiro Mayuzumi 1955 nach Köln, so dass erste Kompositionen sich an der Kölner Schule (Studie I: Music for Sine Wave by Proportion of Prime Number, 1955) orientierten. 1966 komponierte K. Stockhausen hier sei‐ ne .

Quellen Handke, Silvia, Präsenz und Dynamik regionaler Musikkulturen in den Sendekonzepten des WDR‐ Hör‐ funks, Kassel 1997 Holmes, Thom, Electronic and Experimental Music: Technology, Music and Culture, London 2008 49

Krogh Groth, Sanne, The Stockholm Studio EMS during its Early Years, online unter http://www.ems‐ network.org/ems08/papers/sanne_groth.pdf [10. April 2013] Kurtz, Michael, Stockhausen – Eine Biographie, Kassel 1998 Spangemacher, Friedrich, Luigi Nono: Die elektronische Musik, Regensburg 1983 Ungeheuer, Elena, Wie die elektronische Musik »erfunden« wurde..., Mainz 1992 Dies. (Hg.), Handbuch der Musik im 20.Jahrhundert Bd.5, Elektroakustische Musik, Laaber 2002 Weißbach, Rüdiger, Rundfunk und neue Musik, Dortmund 1986

Gordon Pfaff

50

II. Das elektronische Studio des WDR

1. Allgemeines Das Studio ist historisch die erste Produktionsstätte rein elektronisch synthetisierter Musik und wurde am 8. Oktober 1951 im Kölner Funkhaus des Nordwestdeutschen Rundfunks (NWDR) gegründet. Die im Studio von Komponisten unterschiedlichster Nationalitäten und Generationen produzierten Werke gaben bis Ende der 1990er Jahre entscheidende Impulse für die Entwicklung und Verbreitung von elektronischer Musik. Ebenso diente das Studio als Vorbild für später eingerichtete Studios inner‐ und außerhalb Europas.

2. Vorgeschichte und Gründung unter Herbert Eimert (1950‐1962) Am 22. und 23. August 1950 hielten Werner Meyer‐Eppler (*1913; †1955; Prof. für Physik, Phonek und Kommunikaonsforschung in Bonn) und Robert Beyer (*1901; †1989; Ton‐ meister und Komponist) bei Wolfgang Steineckes Darmstädter Ferienkursen Vorträge über „Die Klangwelt der elektronischen Musik“ mit entsprechenden eigenen Musikbeispielen. Der Leiter des Musikalischen Nachtprogramms Herbert Eimert [→] propagierte darauf die im‐ mense Bedeutung der elektronischen Musik für den Kölner Standort des Nordwestdeut‐ schen Rundfunks bei seinem Intendanten Hans Hartmann. Beyer und Meyer‐Eppler unter‐ stützen Eimert während dieser Besprechung mit Klangbeispielen. Zur Profilierung des Kölner Funkhauses gegen die Hamburger Sendeleitung bewilligte Hartmann die Einrichtung eines elektronischen Studios in Köln. Bis zur Fertigstellung des eigentlichen Studios erfolgen erste Klangexperimente mit obertonreichen Klängen und Sinustönen in einem der Tonträgerräu‐ me des Funkhauses. Der Fokus lag zunächst auf der Verarbeitung des Klangmaterials mit Hil‐ fe von Tonbandaufnahmen und Montagetechniken. Darüber hinaus kamen die elektroni‐ schen Spielinstrumente Monochord und Melochord zum Einsatz.

Ab Mai 1953 unternahm Karlheinz Stockhausen [→] erste Versuche auf Basis der seriellen Sinustonkomposition mit einer Vorbestimmung sämtlicher Klangparameter. Während dieser Phase entstanden 1953/54 Stockhausens Studie I und Karel Goeyvaerts Komposition Nr. 5. Ab 1955 wurden die Kompositionen um die Parameter Rauschen, Impulse und gesungene Sprache erweitert, etwa in Ernst Kreneks Pfingstoratorium und Stockhausens Gesang der Jünglinge. Letzteres Werk wies darüber hinaus das Novum mehrkanaliger Realisation auf. In den frühen sechziger Jahren wurden u.a. auch erstmalig instrumentale Klänge in den Kom‐ positionsprozess einbezogen, prototypisch in Stockhausens Kontakte.

Die Ausstattung beschränkte sich in den fünfziger Jahren auf Geräte der Abteilung Mess‐ technik des WDR. Neben Stockhausen gehörte auch Gottfried Michael Koenig [→] von 1954 bis 1964 zum festen Stab der Mitarbeiter im Studio, der sowohl bei zahlreichen Kompositio‐ nen assistierte, als auch eigene Werke realisierte. Im Musikalischen Nachtprogramm wurden viele Beiträge zur elektronischen Musik gesendet und in der neu gegründeten Konzertreihe Musik der Zeit vor Publikum aufgeführt.

51

3. Umorientierung unter Karlheinz Stockhausen (1963‐1986) Stockhausen übernahm ab April 1963 die künstlerische Leitung des Studios und trieb zu‐ nächst eine Neukonzeption der Räumlichkeiten und Ausstattung des Studios, die drei Jahre später abgeschlossen war. Bedingt durch die Umstrukturierungsmaßnahmen lag der Kompo‐ sitionsbetrieb brach, so dass man sich der wissenschaftlichen Aufarbeitung der bisherigen Produktionen widmete (Erstellung eines Bandarchivs zu Studienzwecken und Besuch ande‐ rer Studios). Der reguläre Studiobetrieb in der vierten Etage des Funkhauses wurde 1967 wieder aufgenommen.

Mitte der 1960er Jahre fanden bei Stockhausens neuen Stücken neue Tendenzen Eingang: instrumentaler (; Mikrofonie I) und vokaler Klang (Mikrofonie II) wurden nun während der Aufführung in Echtzeit transformiert und die aufwändige Schnitttechnik damit überflüs‐ sig. Ab 1967 erfolgen bei Stockhausen erste Synthesen von konkreten Klängen, elektroni‐ scher Musik und Live‐Elektronik im Werk Hymnen. Darüber hinaus lud er junge Komponisten für eigene Arbeiten ein (u.a. Messias Maiguashca, , Peter Eötvös und David Johnson), die auch neue, teilweise selbstgebaute Instrumente mitbrachten und bei Stock‐ hausens eigenen Aufführungen mitwirkten. Eine Auseinandersetzung der elektronischen Musik mit Wirklichkeit und Kunst manifestierte sich gegen Ende der 1960er Jahre dann in den Werken Modulation IV (Fritsch), Telefun (Johnson), (Walter Zimmermann), Hör Zu (Maiguashca) sowie System der Parabeln (Pousseur →). Zunehmend wurde eine Domi‐ nanz zur Verbindung von elektronischen, instrumentalen und vokalen Klangmitteln deutlich. Auch die live‐elektronischen Kompositionen wurden zu einem festen Bestandteil der Auffüh‐ rungspraxis. Der Einsatz des EMS Synthi 100 ab 1973 ist innerhalb dieser Periode des Studios besonders hervorzuheben, da es sich bei diesem Gerät um das erste Instrument handelte, welches primär für elektronische Musik bestimmt war.

4. Neukonzeption und Ende (nach 1987) Dem Anspruch der Komponisten nach klanglicher Erneuerung konnte aufgrund fehlender Neuanschaffungen sowie hoher Instandhaltungskosten nicht entsprochen werden, zumal das Studio seine ästhetische Vorrangstellung seit der Einrichtung des IRCAM [→] längst ver‐ loren hatte. Veraltete und teilweise funktionsunfähige Geräte veranlassten den Toningeni‐ eur Volker Müller gemeinsam mit Stockhausen bereits Anfang der 1980er Jahre, Erneue‐ rungskonzepte für einen erneuten Um‐ und Ausbau des Studios zu entwerfen. Zwischen 1982 und 1987 konnte im Studio durch die bewilligten Umstrukturierungen nicht produziert werden, so dass die künstlerischen Aktivitäten in der Übergangszeit mittels angemieteter Fremdtechnik erledigt wurden. Es entstanden dabei Großproduktionen wie Teile des Opern‐ zyklus Licht von Stockhausen, dessen Fertigstellung sich bis in die Mitte der 1990er Jahre er‐ streckte, und Luigi Nonos Prometeo. Mit dem Umzug in die Kölner Annostraße begann 1986/87 die letzte aktive Phase des Studios . Mit dem Komponisten York Höller (*1944), ei‐ nem Schüler von , fand man 1990 auch einen Nachfolger Stockhau‐ sens als Leiter des Studios, der dank seiner Erfahrungen im IRCAM die Digitalisierung des Studios endgültig vollziehen konnte.

52

Im 50. Jahr seines Bestehens wurde das Studio 2001 stillgelegt und die Gerätschaften in das Industriegebiet Köln‐Ossendorf ausgelagert. Dort betreut seitdem der inzwischen pensio‐ nierte Toningenieur Volker Müller die weitere Digitalisierung alter Tonbandbestände. Die weitere Existenz des Studios ist noch immer ungeklärt. Fortbestand im Programm des WDR findet die elektronische Musik unter der Rubrik „WDR‐open“, in welcher regelmäßig Beiträge zum Thema gesendet werden.

Quellen Chagas, Paulo, Digital Composition: Von der Klangregie Elektronischer Musik zur intermedialen Äthe‐ tik bei Paulo Chagas. Eine Mediologie der Studios als Klangkörper, KlangOrt und Kulturraum, in: Massenmedien und Kommunikation 190/191, Siegen 2012 Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 2004 Hilberg, Frank und Harry Vogt (Hg.), Musik der Zeit. 1951‐2001. 50 Jahre Neue Musik im WDR, Köln 2002. Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988 Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in: Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668 [13.November 2012] WDR‐Online Angebot, http://www.wdr3.de/programm/sendungen/wdr3openstudioelektronische musik/index.html [13. November 2012]

Andreas Bußmann

53

III. Technische Entwicklung Das Studio experimentierte im Laufe seiner Existenz mit diversen technischen Hilfsmitteln zur Klangerzeugung, wobei die Apparaturen fortwährend verändert und erneuert wurden. Zu Beginn arbeitete man mit Geräten aus der Mess‐ und Prüftechnik, die zur Klangerzeugung beziehungsweise ‐transformation zweckentfremdet wurden. Robert Beyer und Herbert Ei‐ mert [→] ging es zunächst um die differenzierte Gestaltung von Klangfarben. Dazu verarbei‐ teten sie mit Hilfe diverser Schnitt‐ und Kopiertechniken Melochordklänge, die Werner Mey‐ er‐Eppler in Bonn aufgenommen hatte. Auch andere obertonreiche Klänge wurden durch solche Montagetechniken verändert. Für das fertig eingerichtete Studio wurden 1953 eigens ein Bode‐Melochord sowie ein Trautwein‐Monochord angefertigt, die zu dieser Zeit die ein‐ zigen elektronischen Instrumente waren und als Frühform des gelten. Von be‐ sonderer Relevanz war zudem ein nach Fritz Enkels Plänen gebautes Mischpult, das die ein‐ zelnen Geräte miteinander koppelte.

Enkel und Heinz Schütz dokumentierten 1954 in einem Artikel für die Technischen Hausmit‐ teilungen des NWDR den damaligen technischen Stand des Studios. Zur Apparatur gehörten neben den bereits erwähnten Geräten ein Vierspurtonbandgerät, Eintonbandmaschinen, ein Rauschgenerator und ein Schwebungssummer. Zudem dienten zur Weiterverarbeitung des Klangmaterials u.a. ein Ringmodulator sowie mehrere Filter. In Abgrenzung zur Hörspielab‐ teilung und den dort benötigten Klangeffekten strebte Eimert nach einer komponierten elektronischen Musik, weshalb er mehrere Komponisten ins Studio einlud. Darunter war Karlheinz Stockhausen [→], unter dessen Einfluss die serielle Musik zunehmend realisiert werden konnte. Um nach eigenen kompositorischen Vorstellungen Sinustöne zusammenset‐ zen zu können, lieh er sich Sinustongeneratoren, die bald Mono‐ und Melochord klangästhe‐ tisch verdrängten.

Sukzessiv wurde das Studio in den nächsten Jahren erweitert. Der WDR erstellte Pläne für Schaltgestelle, Mischpulte, Bedienungsfelder und Tonbandgeräte, die speziell auf die Be‐ dürfnisse im Studio zugeschnitten waren. Nachträglich kamen noch Transistorgeräte hinzu. Der Entwurf eines Rotationstisches, der von Lautsprechern umgeben war, ermöglichte es zudem, Klangbewegungen zu komponieren. Das Studio hatte sich zu diesem Zeitpunk im Be‐ reich der Elektrotechnik zwar enorm entwickelt, jedoch erkannte Stockhausen nach Besu‐ chen amerikanischer Studios die Notwendigkeit einer Modernisierung. Im Zuge eines erneu‐ ten Umbaus in den 1970er wurde die Automatisierung des Studios realisiert. Zwei Philipps‐ generatoren und der kleine Analogsynthesizer Synthi A ergänzten den Gerätepark, wodurch nun das Prinzip der Spannungssteuerung verfolgt wurde. Demnach konnten die Module des Synthesizers mittels variabler Gleichspannungen gesteuert werden, wodurch die zuvor ma‐ nuellen Arbeitsprozesse erleichtert wurden. Mit der Anschaffung des großen Synthesizer Synthi 100 im Jahr 1973 besaß man schließlich das erste Gerät, das speziell für elektronische Musik eingesetzt wurde. Dieser vereinte alle zuvor separat genutzten Geräte zur Klanger‐ zeugung, Klangverarbeitung und Spannungserzeugung.

54

Anfang der 1980er wurde der Gerätepark des Studios wieder erneuert: Veraltete und funkti‐ onsunfähige Geräte wurden u.a. durch einen Chroma‐Synthesizer, einen EMS‐Vocoder und zwei Mehrspulanlagen ersetzt. Ferner wurde der Fokus auf Live‐Elektronik gesetzt, was die Anschaffung eines speziell für Konzertreisen ausgelegten Achtspurlaufwerks beinhaltete so‐ wie den Austauschder manuellen Tonregieanlage aus den 1960er Jahren durch eine compu‐ tergesteuerte Anlage. Das Studioequipment wurde zudem durch spezielle Systeme zur Klan‐ gerzeugung und ‐beeinflussung erweitert, zu denen beispielsweise das FM‐System von Ya‐ maha zählte. Alle Neuanschaffungen waren über MIDI miteinander koppelbar und somit frei für die Informationskoordination. Signifikant für die Digitalisierung war York Höller, der ab 1990 Beauftragter des Studios wurde und zuvor bereits am IRCAM [→] Erfahrungen im Um‐ gang mit digitalen Systemen gesammelt hatte. Der WDR ordnete in den 1990er Jahren die Aussonderung vieler Geräte an, was vom langjährigen Tontechniker Volker Müller verhindert wurde. Seit der Schließung des Studios im Mai 2001 befinden sich sämtliche Geräte unter der Obhut Müllers in einer Lagerhalle in Köln‐Ossendorf.

Quellen Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 2004 Enkel, Fritz und Heinz Schütz, Die Herstellung von Hörspielgeräuschen, in: Technische Hausmitteilun‐ gen des NWDR, Hamburg 1954. Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988 Nauck, Giesela: Musik im Raum – Raum in der Musik. Ein Beitrag zur Geschichte der Seriellen Musik. In: Beihefte zum Archiv für Musikwissenschaft. Band XXXVIII, Stuttgart 1997. S. 189‐192. Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in: Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668 [12. Januar 2013] Stockhausen, Karlheinz, Texte zur Musik Band 8, Kürten 1998 Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Band 5, Elektroakustische Musik, Laaber 2002

Nadine Gehrmann

55

Iannis Xenakis (alternativ Jannis Xenakis, Yannis Xenakis) I. Biografie Komponist und Architekt (*29. Mai 1922 in Brăila, Rumänien; † 4. Februar 2001 in Paris). In den Wirren des Krieges ging seine Geburtsurkunde verloren, weshalb das genaue Geburtsda‐ tum nicht abgesichert ist. Iannis Xenakis überschritt die Grenzen der traditionellen Musik und gab mit seinen auf mathematischen Verfahren basierenden Kompositionen der Avant‐ garde nach dem 2. Weltkrieg neue Impulse. In seiner Musik ist die Verknüpfung von Tönen, Physik, Architektur und vor allem der Mathematik ausschlaggebend. Ein oft beschriebener Effekt seiner Musik ist die Fähigkeit, eine archaisch rituelle zu erzeugen (etwa in den Stücken Orestie, Medea und Persepolis).

Abb. 1: Iannis Xenakis in seinem Atelier in Paris (circa 1970)

Iannis Xenakis wurde als Sohn des Firmendirektors Clearchos Xenakis und der Pianistin Pho‐ tini Pavlou in Rumänien geboren. Er war das Älteste von drei Geschwistern und verlor seine Mutter in seinem fünften Lebensjahr. Die Kinder wurden daraufhin von französischen, deut‐ schen und englischen Kindermädchen aufgezogen. In seiner Kindheit hörte Xenakis sehr häu‐ fig Folklore und Zigeunermusik in den Straßen Brăilas. Im Jahr 1932 zog er nach Griechen‐ land, um ein Internat zu besuchen und begann, sich für Mathematik und Musik zu interessie‐ ren. Im Alter von 16 Jahren begab er sich 1938 nach Athen, um sich am dortigen polytechni‐ schen Institut einzuschreiben. Gleichzeitig nahm er Musik‐, Harmonielehre‐ und Kompositi‐ onsunterricht bei Aristote Koundourov. Im zweiten Weltkrieg war Xenakis in der griechi‐ schen Widerstandsbewegung aktiv und verlor bei Kämpfen ein Auge. Im Jahr 1947 beendete er ein zum Bauingenieur und floh im Zuge des nach dem Ende des Zweiten Weltkriegs in Griechenland ausgebrochenen Bürgerkriegs nach Frankreich, wo er sich niederließ und 1965 die französische Staatsbürgerschaft annahm. Von 1948 bis 1960 wurde Xenakis Assistent des Architekten und entwarf für die Brüsseler Weltausstellung 1958 den Philips Pa‐ villon, für dessen Gestaltung er sich auch auf sein Orchesterwerk von 1954 be‐ zog. Darüber hinaus gestaltete er u.a. die innere Struktur des Klosters La Tourette.

56

Seine musikalische Ausbildung vervollständigte er ab 1949 mit Kompositionsstudien bei , und Olivier Messiaen. Daneben wurde Hermann Scherchen ein wichtiger Förderer von Xenakis Arbeit, der bevorzugt für Orchester komponierte (mehr als drei Dutzend Werke), aber auch zehn rein elektronische Stücke sowie weitere annähernd einhundert Kompositionen für Chor, Kammerbesetzungen und solistische Instrumente reali‐ sierte. Im Jahr 1960 gründete er zunächst eine freie Forschungsgruppe für Mathematik und Musik (MYAM), die er vier Jahre später zu einer eigenen Institution ausbaute [→ CEMAMu]. Von 1967 bis 1972 unterrichtete er an der University of Indiana in Bloomington, anschlie‐ ßend bis 1989 an der Pariser Sorbinne, und hielt viele weltweit Vorträge, u.a. auf Einladung von Friedrich Hommel 1990 bei den Internationalen Ferienkursen für Neue Musik in Darm‐ stadt. Iannis Xenakis erhielt zahlreiche Auszeichnungen und Preise. So wurde er zum Mit‐ glied der British Computer Arts Society 1972 nominiert und erhielt 1979 den Beethovenpreis der Stadt Bonn. In seinen letzten Lebensjahren war er von einer schweren Alzheimer‐ Erkrankung gezeichnet und konnte immer weniger komponieren. Vier Jahre vor seinem Tod wurde sein letztes Werk O‐Mega 1997 uraufgeführt. Um seiner Musik etwas näher zu kom‐ men, muss man seine teils radikalen Ansichten besser verstehen. So sah er die „Musik [als] keine Sprache. Jedes Musikstück ist eine Art Felsblock in einer komplexen Form mit Schrammen und Mustern, die darauf oder darein geritzt sind und die Menschen auf tausend verschiedene Weisen entziffern können.“

Abb. 2: Iannis Xenakis in seinem Atelier in Paris (circa 1987) 57

Quellen Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von Architektur und Mathematik, Bern 1996 Di Scipio, Augustino, Compositional Models in Xenakis’s , in: Perspectives of New Music 36 (1998) Nr. 2 Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001 http://www.iannis‐xenakis.org Richard, Albert: Iannis Xenakis et la musique stochastique, 1963, Paris Saxer, Marion: Die Mathematisierbarkeit der (Klang‐)Welt. Überlegungen zur Verwendung der Ma‐ thematik im Schaffen von Iannis Xenakis, in: Musikwissenschaft zwischen Kunst, Ästhetik und Ex‐ periment (= Festschrift für Helga de la Motte), Würzburg 1998 Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007 Varga, Bálint András, Gespräche mit Iannis Xenakis, Zürich 1995

Abb. 1: Foto von Michèle Daniel, veröffentlicht auf www.iannis‐xenakis.org Abb. 2: Foto veröffentlicht auf www.iannis‐xenakis.org

Christiane Licht

58

II. Stochastische Synthese Iannis Xenakis führte 1956 den Begriff der Stochastischen Musik in Bezug auf seine Komposi‐ tionen ein, um eine neue Art der seriellen Klangsynthese zu beschreiben. Grundlage dieser Kompositionstechnik ist die Verknüpfung eines mathematisch‐naturwissenschaftlichen An‐ satzes mit der bestehenden elektroakustischen Musik. Ziel war die Kontrolle über Massener‐ eignisse, wie z.B. Tonwolken, mithilfe von mathematisch‐physikalischen Formeln und Funk‐ tionen, um diese Klänge einer bestimmten Grundgedanken unterordnen zu können. Xenakis bezeichnete die Stochastik in diesem Zusammenhang als „Instrument“, mit welchem man die Klangwelt auszudrücken vermag. Weiterhin beschrieb er seine neue Methode der Klang‐ synthese als Lösung für die „Sackgasse der seriellen Musik“, in der sich seine Kollegen (Stockhausen →, Boulez → und andere) verfahren hätten.

Theoretische Grundlage der Stochastischen Musik sind die drei Grundparameter Dauer, Wol‐ ke und Geschwindigkeit. Die Dauer bezeichnet die bestimmte Länge eines Segments, das wie folgt zustande kommt: Zeit wird als Gerade aufgefasst bzw. als ein Zeitstrahl vom Nullpunkt ausgehend, auf wel‐ chem in zufälligen Abständen Punkte gesetzt werden, die bestimmte Zwischenstrecken mar‐ kieren und die zuvor genannten Segmente bilden. Hieraus ergibt sich die Frage, wie viele Segmente mit der Länge x entstehen. Mit dieser Fragestellung lässt sich nun die Wahrschein‐ lichkeit festlegen, mit der ein Segment der Dauer x auftritt, wenn die Dichte der Punkte δ (in Töne/sec) linear ist: P(x)=δ*e‐δx*de

Wolken sind zufällig verteilte Tonpunkte, die durch die zwei Faktoren bestimmt werden, zum einen anhand der Dichte der Punkte μ (in Töne/sec), sowie zum anderen durch dieIntervalle zwischen den Punkten (in Halbtönen). Um dies in einer zusammen zu fassen, benutz‐ te Xenakis die POISSON‐Verteilung, mit der zufällig bestimmten Dichte μ, der Wahrschein‐ t ‐μ0 lichkeit P(k), k als Anzahl der Ereignisse und μ0 als durchschnittlicher Dichte: P(k)=μ0 /k!*e . Legt man nun μ als 0,5 Ereignisse (Töne)/sec fest, wird es sehr unwahrscheinlich sein, dass in einer Sekunde 20 oder mehr Ereignisse geschehen. Aufgrund dieser Voraussetzungen wer‐ den dann bestimmte Stellen auffallen, da diese sich aufgrund ihrer höheren Tondichte vom Rest abheben. Die Tonhöhen der einzelnen Tonpunkte in der Wolke werden durch die Ver‐ kettung ihrer Intervalle bestimmt, wobei die Zufallsvariablen eine Präferenz für Werte ha‐ ben, die gegen 0 laufen.

Als Glissando‐Geschwindigkeit definiert Xenakis die Steigungs‐ bzw. Fallgeschwindigkeit der Tonhöhe, bezogen auf einen Ausgangspunkt P {f/t} zur Zeit t mit der Frequenz f. Hierfür werden dann Ober‐ und Untergrenzen festgelegt, innerhalb derer die Geschwindigkeit um einen Durchschnittswert zufällig bestimmt wird.

Um den Ablauf einer solchen Synthese zu systematisieren, erstellte Xenakis ein formalisier‐ tes Modell des Kompositionsprozesses und unterteilte den Vorgang in acht Phasen, die je‐ doch auch teilweise abweichen können:

59

1. Conceptions initiales – dies ist der grundlegende Gedanke der Komposition 2. Définition d’êtres sonores – beschreibt die klangliche Grundlage und das Ausgangsma‐ terial 3. Défintion des transformations – legt den großen Rahmen fest, in wie fern die klangli‐ chen Elemente transformiert und modifiziert werden sollen (Makrokomposition) 4. Microcomposition – hier werden die genauen mathematischen Vorgänge definiert und verfeinert (Mikrokomposition) 5. Programmation séquentielle – sequentielle Programmierung des Konstrukts 6. Effectuation des calculs – die Formeln und Funktionen werden berechnet 7. Résultat final symbolique – die kalkulierten Ergebnisse werden in Musiknotation über‐ tragen 8. Incanation sonore – die Musiknotation wird nun klanglich realisiert

Xenakis experimentierte anfangs viel mit dieser Methode und benutzte die Ergebnisse zum ersten Mal in seinem Multimediawerk Polytope de Cluny (1972), welches er in den römi‐ schen Bädern von Cluny in Paris aufführte. Dort kombinierte er die Musik, die siebenkanalig über 12 Lautsprecher wiedergegeben wurde, mit 600 Blitzlichtern und drei Lasern. Diese La‐ ser konnten wiederum mit 400 programmierbaren Spiegeln, die er im gesamten antiken Bad installiert hatte, umgelenkt werden. Von der 2. Bis 6. Minute der Komposition, nach einer kurzen Einführung, hebt sich die angewendete stochastische Synthese hervor.

Ein anderes wichtiges Werk im Schaffen von Xenakis ist das multimediale Stück La Légende d’Eer (1977), in dem ebenfalls ein Zusammenspiel von Licht und Musik maßgeblich ist. Er be‐ nutzte hierbei weniger schon vorhandenes Soundmaterial, sondern konzentrierte sich stär‐ ker auf die synthetische Klanggenese. Das Besondere ist, dass der Komponist eine neue Me‐ thode anwendet: die dynamische stochastische Synthese. Bei dieser Art der Synthese variiert die Wellenform bei jeder einzelnen Wiederholung. Es werden Punkte festgelegt die eine Phrase in bestimmte Zeitsegmente unterteilt, in denen diese Wellenform wiederholt wird. Die Richtung und Stärke der Wellenveränderung wird mithilfe einer Wahrscheinlichkeitsver‐ teilung bestimmt, wobei so viele zufällige Formen entstehen, wie Punkte gesetzt wurden.

Quellen Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von Architektur und Musik, Bern et al. 1996 Di Scipio, Augustino, Compositional Models in Xenakis’s Electroacoustic Music, in: Perspectives of New Music 36 (1998) Nr. 2 Luque, Sergio: The Synthesis of Iannis Xenakis, in: Leonardo Music Journal (2009) Nr. 19

Phillip Ahlert

60

III. Centre de Mathématique et Automatique Musicales (CEMAMu) Das CEMAMu war ein Institut für angewandte musikalische Informatik und Mathematik mit Sitz in Paris. Es wurde 1966 als EMAMu (Equipe de Mathématique et Automatique Musica‐ les) von Marc Barbut, François Genuys und Georges Guilbaud unter Direktion von Iannis Xe‐ nakis gegründet und verfolgte seit seiner Gründung das Ziel, Geistes‐und Naturwissenschaf‐ ten in interdisziplinärer Forschung zusammenzuführen und seine Ergebnisse einer breiteren Öffentlichkeit zugänglich zu machen.

1. Gründungsgeschichte Für das 1954 komponierte Stück Metastaseis verwendete Xenakis eine graphische Notation, musste diese jedoch auf gewöhnliches, liniertes Notenpapier übertragen, um das Werk von einem Orchester spielbar zu machen. Seitdem suchte Xenakis nach neuen Möglichkeiten, die graphische Notation seiner Kompositionen ohne Transkription in Klang umzusetzen und ei‐ nen universelleren Weg zum Ausdruck und zur Interpretation musikalischer Gedanken zu finden. 1960 gründete Xenakis zusammen mit Michel Philippot, Abraham Moles and Alain de Chambure das MYAM, eine freie Forschungsgruppe für Musik und Mathematik. Zwei Jahre später entstanden neue Kompositionen von Xenakis bei der Firma IBM mithilfe von 7090‐ Computern, für die eine neue Musikproduktionssoftware programmiert wurde. Für Xenakis war es unabdingbar, die Natur des Klanges mit neuesten Technologien zu erforschen. Daher gründete er 1966 seine eigene, offiziele Forschungsgruppe, das EMAMu, welches in das Centre de Mathématiques sociales der EPHE (École pratique des hautes études) eingeglie‐ dert wurde. Dessen Arbeit beinhaltete neben Vermittlung neuester wissenschaftlicher Er‐ kenntnisse und ihrer musikalischen Umsetzungen in Form von theoretischen Seminaren be‐ sonders die Grundlagenforschung im Bereich der musikalischen Komposition unter Berück‐ sichtigung der Akustik, Mathematik und Informatik. Hierbei wurde besonders die Entwick‐ lung eines Gerätes bzw. Musikinstruments für eine natürliche und direkte Übertragung zwi‐ schen Klang und Gedanke in den Vordergrund gestellt. Die Arbeit der Forschungsgruppe er‐ regte in den folgenden Jahren immer mehr Aufmerksamkeit, so wurde das EMAMu z. B. 1969 in das Institut für Kernphysik des Collège de aufgenommen.

Die Organisation wurde 1972 zu einer eigenständigen Institution und erhielt die Bezeichnung CEMAMu, als ein Institut für angewandte musikalische Informatik und Mathematik. Gleich‐ zeitig war das Zentrum mit neuen Computern und Zusatzgeräten ausgestattet. Durch diese neuen Möglichkeiten erweiterte sich der Aufgabenbereich des Instituts: Alte Erkenntnisse der Forschungen mussten nun mit neuen Methoden und besseren technischen Vorausset‐ zungen gesichert und verifiziert werden. Einzelne Ergebnisse der frühen Forschung des EMAMu bzw. CEMAMu und die Rezeptionsgeschichte der Einrichtung sind in der aktuellen Forschung nur äußerst grob und unvollständig erfasst.

2. UPIC (Unité Polyagogique Informatique du CEMAMu) Neben seinen Lehr‐und Forschungszielen entwickelte das CEMAMu unter Anleitung von Xe‐ nakis jene Geräte und Programme zur Transformation musikalischer Ideen in Klang, die UPIC getauft wurden, stets weiter. Dabei war Primärziel, ihre Handhabung möglichst einfach und universell zu gestalten, um den kompositorischen Schaffensprozess nicht zu behindern, son‐ 61 dern kreativ auszuweiten. Die musikalische Kreativität eines Menschen wäre somit von tradi‐ tioneller Ausbildung entkoppelt. Diese Zielsetzungen führten zur Produktion des ersten Pro‐ totyps des UPIC bis Mitte der 1970er Jahre. Das System aus vielen Computern und anderen Geräten sollte schließlich dem Nutzer die Möglichkeit bieten, ohne technisches Fachwissen musikalische Gedanken direkt umzusetzen. 1977 wurde das UPIC schließlich fertiggestellt: eine Computermusik‐Workstation, in deren Zentrum ein Zeichentisch als eine Art Touch‐ Tablet steht, auf welchem musikalische Parameter und ganze Partituren innerhalb einer Zeit‐ Tonhöhe‐Achse gezeichnet werden konnten, die durch Computerprogramme und verschie‐ dene Klangwandler unverzüglich hörbar gemacht wurden. Der Zeichentisch maß 60*75cm und war von Millimeterlinien zur Orientierung durchzogen. Geschrieben wurde mithilfe ei‐ nes Stifts mit elektromagnetischen Kontakten, dazu kamen einige Befehlsfunktionen und ei‐ ne Auswahl an Wellenformen. Die Architektur einer Komposition konnte somit als Ganzes entworfen werden. Eine weitere Besonderheit des UPIC lag in der Möglichkeit, den kleinsten Teil eines Klanges, ein elementares Klangquant, direkt zu kontrollieren und somit nicht nur die Großform einer Komposition, sondern auch den Mikrobereich eines Klanges zu gestalten. Durch dieses Syntheseverfahren wurde nicht die Wellenform des errechneten Klanges, son‐ dern das Endergebnis besimmt. Alle Informationen der erstellten Graphik konnten per Inter‐ face an 16‐bit Minicomputer und mehrere Klangumwandler gesendet werden. Das UPIC war nicht nur eines der bahnbrechensten Ergebnisse des CEMAMu, sondern wurde auch für die Erstellung und Interpretation einiger Kompositionen praktisch verwendet. Erstmals utilisier‐ te Xenakis das UPIC im Jahr 1978 für seine Komposition Mycenes‐Alpha und auch andere Komponisten, z. B. Jean‐Claude Eloy und Wilfried Jentzsch, arbeiteten mit dem System. Bis Mitte der 1980er Jahre wurde die damals dritte Generation des UPIC bereits serienmäßig hergestellt und kommerziell vermarktet.

Abb: Partiturskizze von Mycenes‐Alpha

62

3. Entwicklung der Institution bis zur Gegenwart Aus dem CEMAMu entsprangen 1985 mit Unterstützung des französischen Ministeriums für Kultur und Kommunikation UPIC‐Workshops, die sogenannten Les Ateliers UPIC. Der Um‐ gang mit dem namensgebenden System wurde dabei in Sommerferienkursen gelehrt und dadurch einer interessierten Öffentlichkeit zugänglich, was einer der urprünglichen Intentio‐ nen des EMAMu entsprach. Seit 2000 heißt die Einrichtung CCMIX (Centre de Création Musi‐ cale Iannis Xenakis) und wird seit 2003 von der DRAC, eine Regionaldirektion für Kultur, sub‐ ventioniert. Die Aufgaben und Ziele der Forschungsgruppe blieben seit 1966 weitgehend un‐ verändert, es wird seither jedoch zusätzlich auf internationale Zusammenarbeit innerhalb der Forschung und Vermittlung gesetzt.

Quellen Harley, James, The Electroacoustic Music of Iannis Xenakis, in: Computer Music Journal 26 [In Memo‐ riam Iannis Xenakis] 2002 Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001 http://www.iannis‐xenakis.org/fxe/actus/ccmix.html http://www.iannis‐xenakis.org/fxe/bio/chrono.html Lohner, Henning: Das UPIC: eine Erfindung von Iannis Xenakis, in: Musikkonzepte 54/55, Iannis Xena‐ kis, München 1987, S. 71–82. Supper, Martin, Art. Computermusik, in: MGG2 Sachteil 2, Kassel et al. 1995 Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007

Abb. http://www.iannis‐xenakis.org/partitions/mycenes_alphaesquisse(sketch)p.3.jpg [10. April 2013]

Günter Hagen