Dokument: Inhalt\ Musique Concrète\ CONCIMB.DOC
[Zurück]   [Vor]   [Hoch]   [Startseite]        Index

 

3.9 CONCIMB.DOC


Die radiophonische Musikregie der zwanziger und frühen dreißiger Jahren blieb weitgehend traditionellen dramaturgischen und musikalischen Vorstellungen verhaftet - selbst in den musikalischen Nummern, die Paul Hindemith und Kurt Weill für Bertolt Brechts Lindberghflug komponierten. Mehr noch: Die Benutzung moderner Massenmedien für regressive Ideologien hat spätestens in den frühen dreißiger Jahren auch die Musik in ihren Bann gezogen: Im 1932 entstandenen Hörspiel Eine preußische Komödie von Paul Rehberg gibt es eine Szene, in der die Musikregie gleichsam die sogenannte Musikergreifung am 30. Januar 1933 vorwegnimmt: Die Beschwörung des Geistes von Langemarck mündet im Deutschlandlied - ganz ähnlich, wie später die Radioreportage über Hitlers Einzug in die Reichskanzlei (und, daran anknüpfend, von Goebbels inszenierte Wochenschauen dieses Jahres, deren krönender Abschluß das Deutschlandlied bildete - wie das ideologisch pervertierte Gegenstück zum Schlußchoral einer Bach-Kantate).

14 Eine preußische Komödie

15 30.1.1933

Musik übernimmt im Zeitalter der Massenmedien nicht selten die Funktion der rückwärts gewandten live-Illusion. Tendenzen der Öffnung zum Geräusch, wie sie seit den ersten Jahrzehnten des Jahrhunderts in der Avantgardemusik eine wichtige Rolle spielten, wurden in der medienspezifischen Massenmusik allenfalls ansatzweise aufgegriffen - beispielsweise in einigen Musiksequenzen Kurt Meisels zu Eisensteins Potemkin-Film. Im Medienalltag aber rechnete man Geräusche nicht zur Musik, sondern zum pseudo-realistischen Dekor einer pseudo-realistischen Handlung. So findet man Sirenen, mit denen Edgar Varèse in Kompositionen der zwanziger und frühen dreißiger Jahren experimentierte, damals als akustische Requisiten eines erzählenden Hörspiels - SOS Rao rao foyn - von Friedrich Wolf. Wie ungewohnt und schwierig Verfahren einer modernen Geräuschregie auch in der Folgezeit noch bleiben, zeigt sich einerseits in dem sensationellen Überraschungserfolg von Orson Wells Krieg der Welten, andererseits, nur wenige Jahre später, im Scheitern des ersten Hörspielexperiments von John Cage. Am 13. August 1979, nach dem Abschluß einer nunmehr gelungenen Hörspielproduktion, des Roaratorio, hat Cage Klaus Schöning, seinen Auftraggeber im Hörspielstudio des WDR, über die negativen Erfahrungen des Jahres 1942 berichtet.(John Cage, Roaratorio:Ja, das Stück hieß "The City Wears a Slouch Hat" von Kenneth Patchen, und ich hatte vor, die Geräusche, die in dem Stück vorkamen, herauszusuchen und eine Musik, die aus diesen Geräuschen bestehen sollte, zu komponieren. Aber ich hatte keinen Erfolg in diesem Fall.S. 192; Roaratorio: Es war wohl noch zu kompliziert für die damalige Zeit. Die Technologie, die wir damals hatten, ließ es noch nicht zu, wir hatten keine 16-Spur-Maschinen, wir hatten überhaupt noch keine Tonbandgeräte zu dieser Zeit. Das kam später, Ende der vierziger Jahre.,S. 92) So blieb es dabei, daß, abgesehen von einigen anderen medienspezifischen Arbeiten von John Cage, die Musik der Mediengeschichte der frühen vierziger Jahre eine eher konventionelle Rolle spielte - sei es als funkisch verzerrtes Weihnachtslied Stille Nacht , das der reichsdeutsche Rundfunk 1942 an allen Fronten, auch in Stalingrad, anstimmen ließ, sei es, fast zwei Jahre später, im Gesang der Marseillaise bei der Befreiung von Paris im August 1944. In einer Dokumentaraufnahme aus dieser Zeit ist ein Gespräch zwischen Radiopionier Pierre Schaeffer und dem Schriftsteller Paul Eluard zu hören,; von außen ergänzt durch den Jubel der Massen und dem Gesang der Marseillaise - Sprache, Geräusche und Musik in einer Hörspielszene, die nicht inszeniert, sondern das Resultat live mitgeschnittener Zeitgeschichte ist.

16 Paris 1944: Schaeffer, Eluard Jubel Marseillaise

Soirée Schaeffer, CD D16

Aus den Kriegsjahren ist uns eine singuläre Hörspielszene erhalten, die Zeitgeschichte im experimentellem Klang einfängt: La coquille à Planètes (Die Planetenmuschel) von Pierre Schaeffer mit akustischen Remineszenzen an den Luft- und Bodenkrieg jener Jahre. Hier findet sich eine künstlerische Gestaltung aktueller geschichtlicher Erfahrung - kurze Zeit, bevor die Lösung der hier dargestellten Konflikte sich in realen Tondokumenten artikulieren.

17 La Coquille à Planètes

Während des zweiten Weltkrieges, zur Zeit des Vichy-Regimes und der deutschen Besetzung Frankreichs, hat Pierre Schaeffer in Beaune ein radiophones Versuchsstudio aufgebaut, und er hat in dieser Zeit vorgearbeitet für die Radioarbeit des für die Zukunft erhofften befreiten Frankreich. !944, bei der Befreiung von Paris, hat sich Pierre Schaeffer mit praktischer Radioarbeit an entscheidender Stelle engagiert. Dies sicherte ihm auch für die Zukunft maßgeblichen Einfluß - einen Einfluß, der ihm später auch Freiräume sicherte, von dort die musique concrète zu etablieren; einen Einfluß, den in den dreißiger Jahren Edgard Varèse in den USA nicht hatte erringen können, so daß er, anders als Schaeffer, zunächst kein Studio bekam, um seine experimentelle Musik und Medienkunst zu realisieren. Varèse mußte bis 1954 warten, als Schaeffer ihn in sein Pariser Studio einlud und ihn dort, zusammen mit Pierre Henry, die Tonband-Interpolationen seiner Déserts realisieren ließ.

18 Déserts Interpolation I

Das Hörspiel ebenso wie die musique concrète (in wichtigen Bereichen auch die Elektronische Musik) entstanden und entwickelten sich als Produkte moderner medienspezifischer Radioarbeit. Zusammenhänge der neuen Medienkunst mit traumatischen Erfahrungen aus der Zeit des zweiten Weltkrieges sind besonders deutlich bei Schaeffer zu erkennen - nicht nur in Produktionen aus den Kriegsjahren, sondern auch aus der Rückschau späterer Jahre, etwa am Anfang der (gemeinsam mit Pierre Henry realisierten) Sinfonie pour un homme seul (Sinfonie für einen einsamen Menschen), wenn pochende Geräusche und Rufe zu hören sind, die den einen an Anfangssignale einer alten Theatervorstellung erinnern würden, andere, wie nicht zuletzt Schaeffer selbst, an den nächtlichen Terror der Gestapo.

19 SHS Anfang

Medienmusik und Medienkunst sind Dokumente nicht nur der Zeitgeschichte, sondern auch der Mediengeschichte. Darauf hat auch Pierre Schaeffer hingewiesen. Nach seinen Worten entstand die musique concréte aus der Erweiterung jener dramatischen Kunst für Blinde, des Hörspiels nämlich, das ebenfalls im Rundfunk entstanden war. (Pierre Schaeffer: Musique Concrète S. 242).

Karlheinz Stockhausen, der 1952 einige Zeit in Schaeffers Studio gearbeitet hatte und anschließend zum wichtigsten konzeptionalen Pionier der Elektronischen Musik wurde, hat für die Entwicklung einer medienspezifischen neuen Radiomusik andere Vorstellungen entwickelt - in klarerer Distanzierung zur musikübergreifenden Gattung des Hörspiels, in umso stärkerer Akzentuierung funkspezifischer Produktionsbedingungen. 1958 schrieb er in seinem Werk Elektronische und instrumentale Musik :

Wo wird elektronische Musik produziert?

Das erste Studio wurde im Kölner Rundfunk gegründet: Das ist bezeichnend;

denn die heutigen akustischen Kommunikationsmittel,

über die wir verfügen -

und die vielleicht auch über uns verfügen -

sind in der Hauptsache Rundfunk, Tonband und Schallplatte.

Tonband, Schallplatte und Rundfunk

haben das Verhältnis von Musik und Hörer tiefgreifend geändert.

Die meiste Musik wird am Lautsprecher gehört.

Und was haben Schallplatten- und Rundfunkproduzenten bisher getan?

Sie reproduzierten; reproduzierten eine Musik,

die in vergangener Zeit für Konzertsaal und Opernhaus geschrieben wurde, gerade als ob der Film sich nur damit begnügt hätte, die alten Theaterstücke zu photographieren.

Obgleich nun der Rundfunk eine solche Konservenfabrik geworden war, geschah etwas Unerwartetes:

Elektronische Musik kam ins Spiel;

eine Musik,

die ganz funktionelle aus den spezifischen Gegebenheiten des Rundfunks hervorging;

Die Hörer am Lautsprecher

werden früher oder später verstehen,

daß es sinnvoll ist,

wenn aus dem Lautsprecher Musik kommt,

die man nur am Lautsprecher und nirgendwo sonst empfangen kann.

(Texte 1, 140 ff.)

20 Gesang Anfang

Heute, fast vier Jahrzehnte nach Stockhausens Prophezeiung, gibt es immer noch gewichtige Gründe zum Zweifel daran, ob sie sich tatsächlich erfüllt hat. Als radiophone Musik par excellence hat sich die Elektronische Musik immer noch nicht durchgesetzt: Womöglich hat Stockhausen die Möglichkeiten der raschen Realisierung avancierter Medienkunst damals überschätzt - im Radio ebenso wie im Fernsehen, für dessen künftige Praxis er damals prophezeite, "daß man die Kamera, dem Mikrophon des Rundfunks entsprechend, nur noch für aktuelle live-Reportagen oder überhaupt nicht verwendet und statt dessen fernseheigene, elektronisch-optische Kompositionen sendet."

Stockhausen dachte damals an Medienkünste der synthetischen Klänge und der synthetischen Bilder. Aus der Erfahrung bekannte Bilder und Klänge hielt er damals für nicht weniger veraltet als traditionelle Praktiken der live-Aufführung im Konzertsaal. - Inzwischen ist allerdings deutlich geworden, daß Stockhausen selbst diese rigorose Position in seiner eigenen kompositorischen Praxis modifiziert hat. Niemals hat er aufgehört, live aufzuführende Instrumentalmusik für den Konzertsaal zu schreiben. Überdies hat er - spätestens seit dem 1956 aufgeführten Gesang der Jünglinge auch mit dem Mikrophon aufgenommene Klänge in seiner Tonbandmusik akzeptiert. Mehr noch: Seit der 1960 uraufgeführten Komposition Kontakte ist es in Stockhausens Tonbandmusik fast zur Regel geworden, daß sie im Konzertsaal unter der (meist fakultativen) Mitwirkung von live-Interpreten aufgeführt wird. Stockhausen hat aber schon frühzeitig versucht, traditionelle, vom Notentext für live-Interpreten ausgehende Kompositionsweisen und Aufführungspraktiken in seine Arbeit zu intergrieren. Wenigstens in dieser Hinsicht ließ er auch in den sechziger Jahren noch Affinitäten zu seinem Antipoden John Cage erkennen: Stockhausen ebenso wie Cage versuchten, die elektroakustischen Techniken aus der Exklusivität des Studios herauszulösen und einzubinden in das Erfahrungsfeld der live-Aufführung, sogar der Aufführung im traditionellen Konzertsaal. So wurde der Schock der bis dahin "unsichtbaren" Lautsprechermusik wenigstens teilweise gemildert, und diese wurde wiederum der traditionellen Instrumentalmusik angenähert, wobei auch aus der Vergangenheit bekannte Rollen-Aufteilungen zwischen Komponist und Interpret wieder ganz oder teilweise in Kraft gesetzt werden konnten

Unter den Werken, die Cage und Stockhausen in den sechziger Jahren realisierten, verstärken sich Tendenzen der interpretatorischen Freiheit bis in Extremsituationen hinein: Nur vereinzelt zeigten sich damals auch entgegengesetzte Tendenzen - z.B. bei der Einbeziehung fixierter Konserven traditioneller Musik in Aufführungen der Variations IV von John Cage und in Stockhausens Hymnen USA.

21 Variations IV

22 Hymnen USA

Mit der Rückkehr zur vorgegeben Musik kündigte sich eine Trendwende an: Sowohl Cage als auch Stockhausen kehrten Ende der sechziger/Anfang der siebziger Jahre weitgehend zur traditionellen Notenschrift zurück, während sich das Verhältnis zwischen Komponist und Interpret weiterhin veränderte, traditionellen Rollenverteilungen noch stärker annäherte. Beide Komponisten interessierten sich in den siebziger Jahren auch verstärkt für Musik mit herkömmlichen vokal-instrumentalen Klangmitteln. Selbst in Stockhausens elektronischen Hauptwerk der siebziger Jahre, Sirius, ist die Tonbandpartie so gestaltet, daß die Tonhöhenverläufe von Sängern und Instrumentalisten weitgehend mitgespielt und mitgesungen werden können.

23 Sirius

Die Annäherung der Medienmusik nicht nur an traditionelle Aufführungspraktiken, sondern auch an die traditionelle Notation, wie sie Stockhausen seit den siebziger Jahren als Konsequenz seiner Konzeption der Formelkomposition betrieb, mag in der Entwicklung der Medienmusik eine Extremsituation darstellen - zumal Stockhausen selbst in seinen Medienkompositionen immer wieder in Bereiche vorstößt, die sich der traditionellen Notation entziehen. Trotzdem läßt sich feststellen, daß seit den siebziger Jahren, als neue Techniken sich in der Elektroakustischen Musik durchzusetzen begannen, gleichwohl kompositorische und ästhetische Rückwege gesucht wurden - vor allem Wege der Instrumentalisierung technisch produzierter Musik, auch der Annäherung technisch produzierter Klänge an populäre Assoziationsfeldern der Natur, der technischen Welt oder galaktischer Phantasiewelten. Tendenzen der Semantisierung der elektroakustischen Musik zeigten sich in den siebziger Jahren nicht nur in Stockhausens Sirius, sondern auch mit anderen Inhalten, bei Iannis Xenakis. In La Légende d'Eer als galaktische Musik, in Pour la Paix als sprachlich-musikalisches Manifest gegen den Krieg. Damit änderte Xenakis strikte Positionen der formalisierten Tonbandmusik, wie er sie zuvor besonders in elektroakustischen Produktionen der späten fünziger Jahren bezogen hatte. - Auch bei Jean-Claude Risset finden sich - besonders in den politisch unruhigen späten sechziger Jahren, Tendenzen einer Semantisierung experimenteller Klangstrukturen. In der Computersuite Little Boy verwendet Risset Endlosglissandi als Klangsymbol des Atombombenabwurfs, des physischen und psychischen Sturzes ins Bodenlose.

24 Little Boy

Das Verhältnis zwischen Musik und Technik bleibt vielschichtig und schwierig - sei es in vollständig fixierten Studioproduktionen, sei es in Kompositionen mit live-Elementen, auch in Verbindungsformen fixierter und live aufzuführender Strukturen, sei es in analogen, sei es in digitalen Techniken, sei es in abstrakten, sei es in die tägliche Erfahrung dokumentierenden oder verwandelnden Klangwelten.

Neue Fragestellungen für das musikalische Hören ergeben sich aus Anregungen einer Musik, die ihren definierten Platz im Musikleben bis heute noch nicht gefunden hat. Die technisch bedingte Isolierung von Gesichts- und Gehörsinn sind die vordergründigen Versuche, beide Sinne auf unterschiedlichen Stufen der Differenzierung und Entwicklung gleichwohl vordergründig zusammenzubringen, haben beträchtliche Schwierigkeiten provoziert. All dies hat dazu beigetragen, daß die technisch produzierte Musik einen angemessenen Platz in dem von Technik beherrschten Musikleben bis heute noch nicht gefunden hat - weder in den Medien, noch in einzelnen Aufführungen, noch auf größeren Festivals.

Die Schwierigkeiten, neue technische Möglichkeiten zur Weiterentwicklung der musikalischen Wahrnehmungsfähigkeit zu nutzen, sind offenkundig. neue technische Möglichkeiten sind nicht selten schon vorhanden, bevor der Musiker nach ihnen gesucht hat. Zu hoffen bleibt, daß neue Prinzipien der musikalischen Gestaltung, neue Erfahrungsbereiche der musikalischen Wahrnehmung und neue Strukturen des Musiklebens sich künftig in ihren Entwicklungstendenzen nicht voneinander entfernen, sondern aufeinander zubewegen.

In den letzten Jahren des 20. Jahrhunderts beginnt deutlich zu werden, daß viele exponierte Komponisten dieses Saeculums dazu beigetragen haben, die anstehenden Probleme zu erkennen und voranzutreiben:

- Edgar Varèse hat differenzierte Mischformen hochartifizieller und spontaneistischer Klangestaltung und Klangverbindung entwickelt, die auch Komponisten späterer Generationen nachhaltig beeindruckten. z.B. Iannis Xenakis und - in ganz anderer Weise - Wolfgang Rihm.

- John Cage hat Ansätze der Geräusche- und Medienkunst entwickelt, die bis zur (durch Zufallsverfahren vorstrukturierten) kompositorischen Unbestimmtheit und zur völligen Neubestimmung des Verhältnisses zwischen Komponist, Interpret und Hörer führen.

- Pierre Boulez und - in ganz anderer Weise - der späte Luigi Nono, haben, nach ersten Erfahrungen mit vorproduzierter Tonbandmusik - sich später umorientiert zu instrumental-elektroakustischen Mischformen und zu live-elektronischen Erweiterungsformen der traditionellen Musikpraxis.

- Pierre Schaeffer, Pierre Henry, Francois Bayle und andere Exponenten der musique concrète sind Schöpfer von Verfahren der experimentellen Klangforschung, von vielfältigen Montage- und Mischtechniken einer universellen Klangkunst, die nicht von festen traditionellen Parametern ausgeht, sondern von inneren Differenzierungen und Bewegungsformen komplexer Klänge.

- Karlheinz Stockhausen und Gottfried Michael Koenig haben versucht, in serieller elektronischer Musik die traditionelle Instrumentalmusik zunächst im Hegelschen Sinne aufzuheben - was Stockhausen in der Folgezeit auf die Suche nach Verbindungsmöglichkeiten zwischen tradierten und neuen Kompositions- und Aufführungsfomen brachte, während Koenig den umgekehrten Weg einer verstärkten Formulierung wählte und auf diesem zur Computermusik gelangte.(zunächst vorwiegend in mit dem Computer nach Kompositionsprogrammen berechneten Partituren instrumentaler Musik; von hier aus Schritt für Schritt sich annähernd an die Formalisierung der Transformation und Generation synthetischer Klänge.- Die Möglichkeiten einer aus dem seriellen Musikdenken hervorgehenden Computermusik haben auch jüngere Komponisten beeinflußt, z.B. Clarence Barlow in der live-Version und in der synthetischen Version seines Klavierstückes Cogluotobüs- ismetessi.

- Iannis Xenakis hat mit verschiedenen Ansätzen seiner formalisierten Musik, vor allem in seiner elektroakustischen Musik, radikale Antithesen zum traditionellen Musikdenken entwickelt.

. Vertreter der musikübergreifenden Medienkunst von Walter Ruttmann bis Ferdinand Kriwet haben sich entschlossen, die Klangmaterialien und Vermittlungsformen der Musik auch in musikübergreifenden Zusammenhängen zu entdecken, zu organisieren und zu entwickeln. Ihr Denken gibt in dieser Hinsicht grenzüberschreitende, polyästhetische und polymediale Impulse, so wie sie in anderer Weise auch Musiker wie John Cage, Pierre Henry. Josef Anton Riedl und andere vermitteln.

Die technisch produzierte Medienkunst beleuchtet zentrale Probleme des Hörens, insbesondere:

- Das Problem des Verhältnisses zwischen Form und Struktur - zwischen dem sinnlich wahrzunehmenden Hörergebnis einer Musik und der Gesamtheit der technischen bzw. kompositionstechnischen Prozesse, die dieses Resultat hervorgebracht haben.

- Das Problem des Verhältnisses zwischen abstrakten und konkreten Höreindrücken - vereinfacht gesagt:

Zwischen Musik-Hören im engeren Sinne und Hörspiel-Hören.

- Das Problem des Verhältnisses zwischen (pseudo-)realistisch, konventionell abbildenden, die vorgegeben Realität verändernden (verfremdenden) und neue Realitäten setzende Klänge.

Jean Claude findet in vielseitigen Verwendungsmöglichkeiten des Computers Verbindungs- und Vermittlungsformen zwischen instrumentalen und studiotechnisch geprägten Kompositionsverfahren, zwischen live gespielten und technisch vorgeprägten Klängen, zwischen instrumentaler Aktion und verschiedenen Möglichkeiten ihrer interaktiven Weiterentwicklung, zwischen konkreten und elektronischen Klängen.

Neue Strukturen des Musiklebens, in denen auch die angesprochenen und andere Probleme des Hörens einen neuen Stellenwert gewinnen könnten, haben sich bis heute noch nicht entgültig durchgesetzt. Ihre Notwendigkeit wird deutlich, umso mehr, je stärker die Musik sich von den tradierten Modellen der live-Interpretation löst. Noch immer ist nicht klar entschieden, ob die technisch vermittelte Kunst weiterhin ein Schattendasein im traditionellen Musikleben fristet oder sich eigene Orte suchen kann und soll, so wie der Film sie in Kino und Fernsehen, abseits der Theater, längst gefunden hat.

Die Frage nach der Zukunft der technisch produzierten Musik ist auch eine Frage nach neuen Formen des Umgangs mit Musik - des Hörens und Machens, des Reflektierens und Vermittelns, der Wahrnehmung der Weiterentwicklung und der Entdeckung neuer Möglichkeiten.
[Zurück]   [Vor]   [Hoch]   [Startseite]        [Index]   [Frisius-Homepage]