Dokument: Inhalt\ Musique Concrète\ Elektronische Musik 1999 b.doc\ ElektronischeMusik1999.doc
[Zurück]   [Vor]   [Hoch]   [Startseite]        Index

 

3.32.1 ElektronischeMusik1999.doc


Rudolf Frisius

ELEKTRONISCHE MUSIK - ELEKTRONIK PUR?

Elektronische Musik: Ein Begriff im Wandel der Musikentwicklung

Der Begriff "Elektronische Musik" hat seine Eigenarten und Besonderheiten. Wenn man vom Wortsinn ausgeht, könnte man vermuten, daß er sich auf alle Musik bezieht, die mit elektronisch erzeugten Klängen arbeitet. In diesem Falle bezöge sich der Begriff auf die Technik der Klangproduktion, und Elektronische Musik wäre hierdurch als in ihren Klangmitteln erneuerte "Musik des technischen Zeitalters" abgegrenzt von Musik für Stimmen und mechanische Musikinstrumente (einschließlich traditioneller Musikautomaten). Diese Abgrenzung kann sich allerdings als problematisch erweisen, wenn man man "elektronisch" in diesem weiten Sinne versteht. Dies zeigt sich schon in der Frühzeit der Entwicklungsgeschichte elektrogener musikalischer Klänge, in Musik für elektronische Spielinstrumente: Kann man von Elektronischer Musik nur dann sprechen, wenn in ihr ausschließlich elektronische Spielinstrumente verwendet werden? Dann könnten wir sagen, daß Olivier Messiaen sich an der Entwicklungsgeschichte Elektronischer Musik mit genau zwei Werken beteiligt hat: "Fetes des belles eaux" für 6 Ondes Martenot (1937) und "2 Monodies" für Ondes Martenot (1938). Das ist im umfangreichen Gesamtwerk dieses Komponisten nicht eben viel - zumal dann, wenn man bedenkt, daß das zweite Werk, ein für Messiaen singulärer Ausflug in die Vierteltonmusik, bis heute nicht publiziert ist, und wenn man weiß, daß auch das erstgenannte Werk, obwohl auf Schallplatte veröffentlicht, als festliche Auftragsmusik nicht gerade zu den Hauptwerken des Komponisten gerechnet werden kann. Außerdem läßt sich zeigen, daß selbst dieses Werk sich nicht wesentlich von herkömmlicher Instrumentalmusik unterscheidet, daß sogar einer seiner Sätze später ohne Schwierigkeit für traditionelle Instrumente umgeschrieben werden konnte (für das 1940 entstandene Kammermusikwerk "Quatuor pour la fin du temps"). Offensichtlich ist es nicht selbstverständlich, daß für elektronische Spielinstrumente instrumentenspezifisch geschrieben wird - so also, daß die Musik sich nicht ohne weiteres auch für konventionelles Instrumentarium arrangieren läßt. Bei Messiaen zeigt sich dies noch deutlicher als bei Edgard Varèse, der 1934 in der ersten Fassung seiner Komposition "Ecuatorial" 2 Theremin-Instrumente verwendete, diese dann aber in einer späteren Fassung durch 2 Ondes Martenot ersetzte - also nur von einem elektronischen Spielinstrument, das ihm technisch unzulänglich erschien, auf ein anderes überwechselte. Immerhin macht auch dieses Beispiel deutlich, daß Elektronische Musik, die unlöslich mit bestimmten unverwechselbaren elektronischen Klang- und Produktionstechniken verbunden ist, zumindest im Bereich der Musik mit elektronischen Spielinstrumenten durchaus keine Selbstverständlichkeit ist: Elektronische Spielinstrumente werden häufig nicht grundsätzlich anders verwendet als andere traditionelle Instrumente, und in solchen Fällen erscheint es zweifelhaft, ob man solche Musik eigens mit dem Begriff "Elektronische Musik" von Musik für nicht-elektronische Klangerzeuger abgrenzen sollte. Die Zweifel sind vor allem dann begründet, wenn - wie in der genannten Komposition von Edgard Varèse und später auch in vielen Kompositionen von Olivier Messiaen, beginnend mit "Trois petites liturgies de la Présence Divine" (1945) und "Turangalila-Symphonie" (1946-48) - elektronische Spielinstrumente nicht isoliert verwendet werden, sondern in Verbindung mit Stimmen und/oder Instrumenten: Soll man solche Werke als "Elektronische Musik" bezeichnen, weil in ihnen auch elektronisch erzeugte Klänge vorkommen, oder als Verbindung (vokal-)instrumentaler und elektronischer Musik? Oder ist es überflüssig, auf die Verwendung elektronischer Klänge hier eigens hinzuweisen?

Seit den 1950er Jahren sind uns Versuche bekannt geworten, den Begriff "Elektronische Musik" schärfer einzugrenzen. In Köln wurde, unter der Ägide des damaligen Nordwestdeutschen Rundfunks, ein Studio für Elektronische Musik gegründet, in dem seit 1953 Elektronische Musik produziert wurde, die auf die Verwendung elektronischer Spielinstrumente vollständig verzichtet (obwohl solche Instrumente im Studio zur Verfügung standen). Den entscheidenden Anstoß für diese Neuorientierung gab Karlheinz Stockhausen mit seiner 1953 produzierten Tonbandkomposition "Studie I", die von den einfachstmöglichen elektronischen Elementarmaterialien ausgeht: Von mit Generatoren erzeugten Sinustönen, die sich von Gesangs- und Instrumentaltönen dadurch unterscheiden, daß ihre Tonhöhe sich auf eine einzige Grundfrequenz reduziert, daß sie also, anders als jene, nicht aus Grundton und Obertönen sich zusammensetzen, die, je nach Konstellationen und Lautstärkeverhältnissen der Teiltöne, unterschiedliche Klangfarben ergeben könnten. Die Reduktion der Klangmaterials auf Sinustöne (aus denen dann durch Überlagerung Tongemische, durch Montage und Mischung komplexere Klangstrukturen gebildet werden konnten), auf die einfachsten musikalischen Bausteine, auf die musikalischen "Atome", erschien als ein radikaler Neubeginn, der die Einführung eines neuen Begriffes rechtfertigen könnte: "Elektronische Musik" als Musik aus Sinustönen.

Dieser Musik lag die Überlegung zu Grunde, daß in einer von den einfachsten Elementarklängen ausgehenden Musik auf synthetischem Wege neue Klangfarben konstruiert werden könnten: Durch Überlagerung von Sinustönen zu Spektren oder Tongemischen, die je nach Instervallstruktur oder dynamischer Differenzierung unterschiedlich "gefärbt" sein konnten (und dabei auch unterschiedliche Positionen in einem vorgestellten Kontinuum zwischen harmonischen/tonhöhenbestimmten Klängen einerseits und unharmonischen/tonhöhenunbestimmten/geräuschhaften Klängen andererseits einzunehmen vermochten). So sollte die Komposition bis in das Innere der Klänge eindringen: Musik präsentierte sich nicht mehr als Komposition mit vorgegebenen Klängen (von Stimmen oder bekannten Instrumenten), sondern als Komposition der Klänge selbst.

Elektronische Musik als synthetische Klangkomposition unterschied sich grundsätzlich von aller zuvor komponierten Musik: Sie ließ sich nicht mehr in Form einer Partitur fixieren, nach deren Vorschriften ausübende Musiker die Musik "live" hätten realisieren können. Eine sorgfältige und reichhaltige Auswahl der Sinustöne (in neuartigen Intervallstrukturen und ihre Zusammenstellung in genau dosierten Zeit- und Lautstärkewerten) einerseits und die damals noch äußerst begrenzten technischen Möglichkeiten andererseits ließen es unmöglich erscheinen, Elektronische Musik live aufzuführen. Statt dessen wurde es erforderlich, die einzelnen Tonhöhen (Frequenzen), Lautstärken und Zeitwerte in der vorbereitenden Studioarbeit sorgfältig auszumessen und die einzelnen Klänge in mühevoller Arbeit zu größeren Klangkomplexen zusammenzumontieren. So entstandene Elektronische Musik unterschied sich von herkömmlicher Vokal- und Instrumentalmusik also nicht nur durch ihr Klangmaterial, sondern auch durch den Prozeß der Klangproduktion: Die Klänge mußten auf Tonband vorproduziert werden. Wenn die Komposition fertig auf Tonband fixiert war, konnte sie aufgeführt werden, ohne daß hierfür "live" agierende Musiker benötigt wurden: Als "unsichtbare Musik" oder (wie Stockhausen es in einer Radio-Sendereihe einmal genannt hat) als "Musik, die man nur aus dem Lautsprecher hören kann".

Elektronische Musik ist Musik aus dem Lautsprecher. Wenn ihre Klangstrukturen auf Tonband vorproduziert sind, läßt sie sich als "unsichtbare" Lautsprechermusik aufführen: Bei ihrer Aufführung müssen die Klänge nicht mehr eigens von Interpreten erzeugt werden, sondern es werden vorgegebene Klänge vom Tonband abgespielt (und dabei, zumal bei öffentlicher Wiedergabe, z. B. in "Lautsprecherkonzerten", meistens von einem "Klangregisseur" ausgesteuert). Das 1953 offiziell gegründete Kölner "Studio für Elektronische Musik" (dessen Gründung seit 1951 vor allem von Werner Meyer-Eppler und Herbert Eimert betrieben worden war und an dessen ersten vorbereitenden Klangproduktionen seit 1952 außer Herbert Eimert auch Robert Beyer und Heinz Schütz beteiligt waren) ist zum Geburtsort dieser Elektronischen Musik im engeren Sinne, der elektronischen Lautsprechermusik geworden. Als 1954 erstmals Produktionen dieses Studios im Rahmen eines Konzertes vorgeführt wurden (Werke von Karlheinz Stockhausen, Herbert Eimert, Karel Goeyvaerts, Henri Pousseur und Paul Gredinger) und, daran anschließend, im folgenden Jahr Eimert und Stockhausen eine neue Schriftenreihe mit einem Heft über "elektronische Musik" eröffneten, wurde deutlich, daß hier Signale für den Beginn einer neuen musikalischen Entwicklung gesetzt werden sollten: Der Musikkritiker H. H. Stuckenschmidt sprach von einer "dritten Epoche" der Musikgeschichte, von der Ablösung der vokalen und der instrumentalen durch die technisch produzierten Klänge.

Was damals begann, war zweifellos bedeutsam für die gesamte Musikentwicklung in der zweiten Hälfte des 20. Jahrhunderts. Nach dem Modell des Kölner Studios entstanden bald auch Studios in anderen Ländern und Kontinenten, und das Repertoire der in diesen Studios entstandenen Produktionen erweiterte sich im Laufe der Jahre und Jahrzehnte beträchtlich. Andererseits ist in der Folgezeit deutlich geworden, daß manche Erwartungen, die man in der Gründerzeit der Elektronischen Musik hegen konnte, sich zunächst nicht erfüllen konnten. Wer etwa glaubte, mit der Erfindung der Elektronischen Musik sei das Zeitalter der Vokal- und Instrumentalmusik im bisher üblichen Sinne abgeschlossen, der wurde rasch eines Besseren belehrt. Dies zeigt schon ein Blick auf die weiteren musikalischen Aktivitäten der oben erwähnten Pioniere elektronischer Tonbandmusik: Karlheinz Stockhausen, der bekannteste unter ihnen, hat nur kurze Zeit daran geglaubt, daß mit der Erfindung der Elektronischen Musik das Zeitalter der herkömmlichen Instrumentalmusik endgültig zu Ende sei. Schon 1954, im zweiten Jahr seines Aufenthaltes im Elektronischen Studio, kehrte er zu Instrumentalmusik zurück und begann damit, parallel zu seinen Studiokompositionen instrumentale Partituren auszuarbeiten: Einen Zyklus von Klavierstücken (seit 1954), ein Ensemblestück ("Zeitmaße", 1955-1956) und ein Orchesterwerk ("Gruppen" für drei Orchester, 1955-1957). Der Versuch, die Erfahrung im elektroakustischen Studio auch für die instrumentale Komposition direkt zu nutzen, gelang zunächst nicht: Die ursprüngliche Idee, in den "Gruppen" die live-Orchestermusik mit einer Tonbandwiedergabe zu kombinieren, wurde aufgegeben, und es entstand eine rein instrumentale Komposition. Erst in den sechziger Jahren hielt Stockhausen für gekommen, elektronische und instrumentale Musik direkt miteinander zu verbinden (was vor ihm, in der Verbindung elektronischer Klänge mit Orchestermusik, schon Pierre Boulez und Henri Pousseur versucht hatten) und Techniken der elektronischen Klangverarbeitung, die zuvor nur im Studio praktikabel gewesen waren, auf die live-Interpretation im Konzertsaal zu übertragen (was vor ihm, in anderer Weise, auch schon John Cage versucht hatte). Seit den 1960er und 1970er Jahren läßt sich in Stockhausens kompositorischer Entwicklung feststellen, daß neben der Arbeit im Elektronischen Studio mehr und mehr sich die Akzente verschieben: zunächst in Richtung der Live-Elektronik (mit live im Konzertsaal transformierten Instrumental- oder Vokalklängen), später auch in Richtung der Live-Musikpraxis (mit verstärkten, teilweise auch räumlich verteilten oder bewegten Instrumental- oder Vokalklängen). Seit der live-elektronischen Komposition "Mantra" für zwei ringmodulierte Klaviere (1970), seit "Sirius" für Tonband und vier Solisten (1975-1977) sowie seit den elektronischen Produktionen, die für den 1977 begonnenen Opernzyklus "Licht" entstanden sind, hat sich die "Instrumentalisierung" der Elektronischen Musik, ihre Annäherung an vokale und instrumentale Musikpraxis, bei Stockhausen auch dadurch verstärkt, daß einerseits die musikalische Konstruktion von Melodieformeln ausgeht (die sowohl gesungen und gespielt als auch elektronisch auskomponiert werden können) und andererseits innerhalb und außerhalb des elektronischen Studios moderne Synthesizer, als moderne elektronische Spielinstrumente, erheblich an Bedeutung gewonnen haben. Die Elektronische Musik (im engeren, seit den 1950er Jahren etablierten Sinne), die einer ihrer wichtigsten Pioniere, zunächst (in den frühen 1950er Jahren) als letzte Konsequenz und damit zugleich als Abschaffung der traditionellen Instrumentalmusik eingeführt hatte (die zuvor im radikalen seriellen Konstruktivismus an ihre Grenzen gestoßen war) - diese Musik ist also schon wenige Jahre nach ihrer Etablierung in eine Entwicklung geraten, die die klanglichen Innovationen mit den Erfahrungen der tradierten (von Tonordnungen ausgehenden) Musiksprache und (Live-)Musikpraxis zu versöhnen trachtete.

Die genannten und andere Beispiele belegen, daß die Elektronische Musik allenfalls in ihren Anfangsjahren den Anspruch des völligen Neubeginns und der radikalen Ablösung alles Bisherigen glaubwürdig artikuliert hat. Wenn selbst die führenden Exponenten dieser Musik davor zurückschreckten, sich radikal von der überkommenen Vokal- und Instrumentalmusik zu lösen, dann war es nur konsequent, daß auch im Musikleben die Durchsetzung elektronischer Lautsprechermusik seit den späten 1950er Jahren zunehmend schwieriger wurde: Die traditionellen Festival- und Konzert-Strukturen behaupteten sich weitgehend. Die Vorstellung, daß technisch produzierte Musik sich eigentlich von tradierten Vermittlungsformen etwa des Konzertsaales oder Opernhauses radikal lösen müsse (ähnlich wie zuvor der Film von den Ritualen der konventionellen Theatervorstellung) - diese Vorstellung war im ersten Jahrzehnt der elektronischen Lautsprechermusik noch recht lebendig, sie geriet aber in der Folgezeit weitgehend in Vergessenheit. Inwieweit das ursprünglich Intendierte und das in der Folgezeit tatsächlich Erreichte miteinander tatsächlich in Deckung zu bringen sind, läßt sich am Ende des 20. Jahrhunderts erst ansatzweise erkennen. In dieser Situation empfiehlt es sich, bei der genaueren Analyse von divergierenden Fragestellungen auszugehen, die sich schon in frühen Entwicklungsstadien herauskristallisiert haben und, im Spannungsfeld verschiedener Problemstellungen, ihre Relevanz auch für das Verständnis neuerer Entwicklungen erwiesen haben.

Erste theoretische und praktische Ansätze elektroakustischer Musik:

Im Spannungsfeld zwischen Utopie und klanglicher Realität

Die Utopie der vollständigen kompositorischen Gestaltungsfreiheit und ihre Grenzen

Elektronische Musik ist ein Schlüsselphänomen in der Musikentwicklung des 20. Jahrhunderts, das in besonderer Weise geprägt ist vom Spannungsverhältnis zwischen Utopie und klanglicher Realität. Die Hoffnungen, die Feruccio Busoni schon im ersten Jahrzehnt dieses Jahrhunderts auf neue Musik mit elektrisch erzeugten Klängen setzte, eilten den damaligen technischen und kompositorischen Möglichkeiten weit voraus - und man kann noch heute bezweifeln, ob sie selbst seit den fünfziger Jahren in Erfüllung gegangen sind, als tatsächlich eine zusammenhängende, über einzelne isolierte Ansätze hinausführende Entwicklung Elektronischer Musik begann. Das utopische Potential des damals Begonnenen ist, wie es scheint, bis heute noch nicht von der klingenden Wirklichkeit des musikalisch tatsächlich Realisierten eingeholt worden. Andererseits wäre es zu dieser avancierten Musikentwicklung möglicherweise gar nicht gekommen, wenn ihr nicht von wagemutigen Künstlern und Theoretikern vorausgedacht worden wäre.

Die Hoffnungen, die Feruccio Busoni auf eine neue, mit technischen Mitteln realisierte Klangwelt setzte, haben vor allem einen jüngeren Musiker inspiriert, der, anders als Busoni, sogleich an der kompositorischen Realisierung des theoretisch Postulierten interessiert war: Edgard Varèse. Varèse hat allerdings rasch erkennen müssen, wie weit der Weg vom theoretischen Postulat zur klanglichen Konkretisierung technisch produzierter Musik tatsächlich war: Erst 1954 gelang ihm erstmals die Realisation und Aufführung technisch produzierter Musik. Obwohl Varèse sich schon zuvor, vor allem in den dreißiger Jahren, intensiv um die Gründung eines elektroakustischen Experimentalstudios bemüht hatte, war es ihm nicht gelungen, die hierfür notwendigen finanziellen und technischen Ressourcen zu erschließen. Später hat er dann davon profitiert, daß andere bei ihren Bemühungen erfolgreicher gewesen sind als er - vor allem Pierre Schaeffer, der 1948 mit den ersten Produktionen konkreter Musik die Basis für ein erstes Experimentalstudio elektroakustischer Musik gelegt hatte, als dessen Leiter er dann sechs Jahre später die Möglichkeit hatte, Varèse zu einer Gastproduktion einzuladen. Während Varèse mit den Versuchen eines von der Industrie finanzierten Experimentalstudios gescheitert war, hatte Schaeffer erfolgreich auf die Möglichkeiten einer staatlichen Rundfunkanstalt gesetzt. Der kompositorische Einzelgänger Varèse hatte es schwerer als der (mit den technischen und institutionellen Gegebenheiten des Rundfunks bestens vertraute) Radiopionier Schaeffer - schwerer auch als die Exponenten einer anderen avancierten Musikentwicklung, die seit den frühen fünfziger Jahren mit Schaeffers konkreter Musik zu konkurrieren begannen: Auch die "Elektronische Musik" begann unter dem institutionellen Dach einer Rundfunkanstalt, des Nordwestdeutschen Rundfunks und seines in Köln tätigen Musikredakteurs Herbert Eimert. (Auch später gegründete Studios, z. B. in Mailand, Warschau und Tokio, entstanden unter der Ägide des Rundfunks; als weniger dauerhaft erwiesen sich von der Industrie, z. B. von den Firmen Philips und Siemens in Eindhoven bzw. München initiierte Studiogründungen in verschiedenen Ländern Europas, während institutionelle Anbindungen eines Studios an eine Universität, wie sie vor allem in den Vereinigten Staaten seit den späten fünfziger Jahren bedeutsam wurden, hier und auch in anderen Ländern und Kontinenten sich als längerfristig tragfähig erwiesen haben).

Utopie und Wirklichkeit klaffen in der Entwicklungsgeschichte der Elektronischen Musik oft schon deswegen auseinander, weil theoretische Wunschvorstellungen vorerst unvereinbar erscheinen mit vorgegebenen technischen und gesellschaftlichen Rahmenbedingungen. Wenn beispielsweise Feruccio Busoni von neuen Möglichkeiten elektrogener Musik träumte, so dachte er zunächst ausschließlich aus der Perspektive des Komponisten, der aus den Grenzen tradierter Material- und Formvorstellungen ausbrechen wollte. Die Frage, ob und inwieweit dem Komponisten dieser Ausbruch in den traditionellen Strukturen des Musiklebens gelingen könnte, interessierte Busoni zunächst weniger. Er wollte der Phantasie des Komponisten neue Bereiche erschließen und deswegen über die Möglichkeiten der traditionellen Instrumente hinausgehen. Elektronische Musik stellte er sich insofern als erneuerte Instrumentalmusik vor. (Die Frage, ob mit technischen Mitteln auch die Vokalmusik sich erneuern ließe, konnte sich in dieser einfachen Sichtweise zunächst noch nicht stellen.) Dabei blieb die Frage offen, ob die neuen technischen Möglichkeiten tatsächlich ohne weiteres den überlieferten Praktiken der Musikpraxis und der Musikvermittlung sich anpassen ließen: Hätte nicht schon damals, im Zeitalter der Schallkonserve und der drahtlosen Übermittlung von Hörereignissen, die Frage sich stellen können, ob technische Neuerungen über das musikalische Material hinaus auch Grundstrukturen der gesamten Musik- und Hörerfahrung verändern könnten - in ähnlicher Weise, wie dies im sichtbaren Bereich nach der Erfindung von Fotografie und Stummfilm bereits evident geworden war?

Edgard Varèse, der von den kühnen theoretischen Vorstellungen Busonis stark beeindruckt war, wußte sehr wohl, warum er trotzdem weitgehend jahre- und jahrzehntelang in seinen Kompositionen traditionelle Klangmittel bevorzugte und nur ausnahmsweise (und mit zweifelhaftem Erfolg) elektronische Spielinstrumente verwendete: In den zwanziger und selbst in den frühen dreißiger Jahren erschienen ihm die spieltechnischen Möglichkeiten der damals verfügbaren neuen Instrumente noch als unzureichend, so daß er seine neuen kompositorischen Vorstellungen lieber mit bekannten, wenngleich als eigentlich unzureichend angesehenen Instrumenten realisierte. Einerseits erweiterte er die Klangmöglichkeiten der großen Orchesterbesetzung, ohne dabei Entwicklungstendenzen grundsätzlich in Frage zu stellen, die sich schon in der Spätromantik und im Stadium der freien Atonalität abgezeichnet hatten (Verstärkung der Besetzung, insbesondere Verstärkung des Schlagzeugs; Einbeziehung neuer spieltechnischer Effekte und musikalisch unkonventioneller Klangerzeuger, nämlich von Sirenen; seine Behandlung der Singstimme blieb demgegenüber weitgehend konventionell). Andererseits stellte er die Weichen für grundlegende Veränderungen der musikalischen Schreibweise, die auch in kleineren Besetzungen wirksam werden konnten. Besonders deutlich wird dies in seinen Schlagzeugpartien, die im Extremfall als reine Geräuchmusik die tonhöhenbestimmten Instrumentalpartien vollständig verdrängen können: Selbst in der traditionellen Notation der rhythmischen und dynamischen Werte für mehr oder weniger konventionelle Schlaginstrumente wird deutlich, daß die Musik sich hier grundlegend zu verändern beginnt. Die Emanzipation des Geräusches verbindet sich hier mit der Emanzipation von den Grundlagen traditionellen Musikdenkens; es werden in vielen Fällen keine festen Werte z. B. für Tonhöhe, Lautstärke und Tondauer mehr vorgeschrieben, sondern gleitende Veränderungen, die das klangliche Geschehen im ständigen Fluß halten sollen. Deutlich wird dies in reich differenzierten Crescendo- und Decrescendo-Vorschriften, vor allem in den Sirenenklängen, bei denen gleichzeitig mit dem An- oder Abschwellen der Lautstärke auch auf- oder absteigende Glissandi zu hören sind. Die Sirenen-Glissandi werden zur deutlichsten Manifestation einer Musik, die nicht mehr in festen Tönen, Skalen, Akkorden, Melodien oder polyphon geschichteten Stimmen angelegt ist, sondern als komplexes Klangkontinuum. Deutlich wird allerdings andererseits auch, daß die meisten konventionellen Instrumente, die Varèse notgedrungen noch verwendet, sich zur konsequenten Verwirklichung einer solchen kontinuierlichen Musik nicht eignen: Varèse komponiert hier eigentlich eine Musik jenseits dessen, was eigentlich in den Noten steht. Er selbst hat betont, daß solche Musik eigentlich mit moderneren, elektronischen Mitteln hätte realisiert werden müssen, wie sie zu ihrer Entstehungszeit allerdings noch nicht verfügbar waren.

Die Frage liegt nahe, ob und gegebenenfalls in welchem Ausmaße Varèses Vorstellung einer kontinuierlichen Musik seit den 1950er Jahren, seit der Etablierung Elektronischer Musik ihrer Konkretisierung näher gekommen ist. Diese Vorstellung geht wesentlich weiter als Vorstellungen, die traditionelle Tonordnungen zu erweitern versuchen, ohne sie im Grundansatz radikal in Frage zu stellen - beispielsweise in der Weise, daß weiterhin Musik auf der Grundlage von festgelegten Tönen und Tonleitern vorgestellt wird, daß aber an die Stelle des traditionellen Basisintervalls, des Halbtones, andere Intervalle treten (z. B. in mikrointervallischer Musik mit Dritteltönen oder Vierteltönen oder ihren Bruchteilen). Mikrointervallische Musik kann durchaus noch an traditionellen Ordnungsprinzipien der Melodie, der Harmonie, des Rhythmus und der dynamischen Gestaltung festhalten und sich elektronischer, aber auch mechanischer Spielinstrumente bedienen. Schon Varèse hat allerdings frühzeitig erkannt, daß die spezifischen Möglichkeiten Elektronischer Musik viel weiter reichen können, und in den späteren Realisationen Elektronischer Musik spielen mikrointervallische Strukturen auch tatsächlich nur eine allenfalls untergeordnete Rolle (die überdies in der Musik selbst und in ihren unmittelbar hörbaren Zusammenhängen viel weniger deutlich hervortritt als in den sie begleitenden Theorien).

Varèses Ideen zielten nicht auf eine Musik mit neuen Tonleitern, sondern auf eine Musik jenseits der Tonleitern. Die Schwierigkeiten, eine solche Musik zu komponieren, waren offensichtlich beträchtlich - so beträchtlich, daß selbst viele Komponisten Elektronischer Musik ihnen später auszuweichen versuchten. Schwierig erschien es vor allem, diese Musik im herkömmlichen Sinne zu komponieren - d. h. sie entsprechend der Imagination des Komponisten im vorhinein so aufzuschreiben, dass sie, den Anweisungen der Partitur entsprechend, später von Interpreten realisiert werden konnte. Da die traditionelle Notation an festgelegte Tonleiterstufen gebunden war, stellte sich damit die Frage nach Notwendigkeit und Möglichkeit neuer Notationen. Diese Frage wurde allenfalls dann sekundär, wenn der Komponist die Rolle des Interpreten selbst übernahm, also seine kompositorischen Ideen selbst klanglich realisierte. In diesem Falle wurde die Partitur grundsätzlich entbehrlich, da die Komposition jetzt als authentisches Klangbild auch ohne Partitur entstehen und existieren konnte. Beispiele hierfür kennen wir schon aus den Anfangsjahren der konkreten Musik (seit 1948). Auch die ersten Realisationen Elektronischer Musik (von Schütz, Beyer und Eimert) sind bis heute nur als Aufnahmen zugänglich, nicht als ausgearbeitete Partituren. Varèse, der seine instrumentalen Partituren in minutiöser Genauigkeit ausnotierte, hat keine Partituren zu seinen elektroakustischen Realisationen publiziert, was nicht erstaunlich ist, da diese sich den Begrenzungen kodifizierter Notationen weitgehend oder gänzlich zu entziehen scheinen. - In den frühen 1950er Jahren versuchten einige jüngere Komponisten, diese Situation zu ändern und bei der Realisation elektroakustischer Stücke von exakt ausgearbeiteten Partituren auszugehen. Das erste Beispiel einer vollständig ausgearbeiteten und publizierten Partitur ist die 1954 entstandene "Studie II" von Karlheinz Stockhausen. Sie ist allerdings ein Ausnahmefall geblieben, da die hier verwendete Notation nur unter relativ einfachen technischen und kompositorischen Voraussetzungen sich anwenden ließ. Die Analyse dieser Partitur ermöglicht charakteristische Einsichten in eine musikalische Denkweise, die den ästhetischen Ansätzen von Busoni und Varèse in wesentlichen Aspekten diametral entgegengesetzt ist.

Die Utopie der vollständigen kompositorischen Konstruktivität und ihre Grenzen

Exakt notierbare Elektronische Musik im Geiste von Stockhausens "Studie II" ließe sich beschreiben als Kontrastmodell zur Idee einer elektrogenen Musik der Freiheit, wie sie Varèse als Konsequenz aus den Ideen Busonis entwickelt hatte. Die Gegensätzlichkeit beider Ansätze zeigt sich besonders deutlich, wenn man bei Stockhausens Studie nicht vom klingenden Resultat, sondern vom Partiturbild ausgeht: Die Notenlinien erscheinen als (auf eine neuartig temperierte Skala übertragene) Erweiterung eines traditionellen Notensystems. Sie stehen für ausgehaltene Töne, deren Dauer maßstäblich in die Partitur eingetragen ist und, in musikalisch konventioneller Leserichtung, von links nach rechts fortschreitend mitgelesen werden kann. (Jedes Rechteck steht für die Überlagerung von 5 Sinustönen, die zu einem sogenannten Tongemisch synchronisiert sind, wobei der höchste bzw. tiefste Ton als Ober- bzw. Unterseite des Rechteckes eingezeichnet ist und die drei übrigen, im Notenbild nicht gesondert gekennzeichneten Sinustöne in gleichen Abständen zwischen diesen Randfrequenzen vorzustellen sind.) Die Rechtecke, die Notationssymbole der fünftönigen Sinustongemische, sind zusammengefaßt in klar erkennbaren Gruppierungen: Vereinzelt, zu zwei, drei, vier oder fünf. Wenn mehrere Tongemische zu derselben Gruppe gehören, läßt sich dies daran erkennen, daß sie den gleichen Tonumfang haben (d. h. im Notenbild den gleichen Abstand von der Oberseite zur Unterseite ihres Rechteckes, die gleiche Breite) und verbunden sind entweder sukzessiv (gleichsam melodisch: entweder ohne Pause aufeinander folgend, legato, oder mit Zwischenpausen, staccato) oder simultan (gleichsam harmonisch überlagert zu Akkorden, entweder nacheinander einsetzend wie in einem Arpeggio (und dabei gemeinsam schließend) oder umgekehrt gleichzeitig einsetzend (und nacheinander aufhörend)). Diese verschiedenen Möglichkeiten der Strukturierung und Gruppierung von Sinustönen und Sinustongemischen prägen das gesamte Stück: Es gibt fünf verschieden "breite" Tongemische (d. h. Überlagerungen mit fünf verschieden weiten Tonabständen und Tonumfängen), fünf verschiedene Gruppengrößen (ein, zwei, drei, vier oder fünf Tongemische je Gruppe), kombiniert zu fünf mal fünf verschiedenen Gruppierungen, die in der Großform in fünf verschiedenen Abschnitten in fünf verschiedenen Varianten der Klangverbindung auskomponiert sind (1. melodisch legato, ruhig; 2. harmonisch in engen Abständen; 3. melodisch staccato, zeitlich und dynamisch dichter als in 1.; 4. harmonisch, in weiterem Tonraum und dichter als in 2.; 5. gemischt). - Auch die Intervallkonstruktion ist von der Zahl 5 geprägt: Das kleinste Intervall der für das ganze Stück verbindlichen Skala ergibt sich daraus, daß das Intervall 1:5 (2 Oktaven und eine große Terz) in 5.5=25 gleiche Teile geteilt wird, was ein Grundintervall ergibt, das etwas größer ist als der konventionelle Halbton. - Auch die Dauern der verschiedenen Tongemische sind, ebenso wie die Dauern der zwischen die Tongemisch-Gruppen eingeschobenen Pausen (gemessen in Tonband-Zentimetern) so disponiert, daß sich in ihnen Gruppierungen von fünf Werten unterscheiden lassen, die in gleichen Abständen wahrgenommen werden, gleichsam als Stufen einer temperierten Dauernskala. - Auch die dynamische Konstruktion ist geprägt von von der Zahl Fünf, so daß verschiedene Tongemische innerhalb derselben Gruppe sich nicht nur durch verschiedene Dauern unterscheiden können, sondern auch durch verschiedene dynamische Maximalwerte. Allerdings werden diese dynamischen Maximalwerte, anders als die Frequenzwerte, während einer gegebenen Dauer nicht unverändert festgehalten, sondern verändert in einfachen an- oder abschwellenden Hüllkurven, im decrescendo vom Maximalwert abfallend oder (bei rückwärts wiedergegebenen Klängen) im Crescendo zum Maximalwert hinführend. Diese dynamische Konstruktion mit ihren nur im Studio realisierbaren feinsten Abstufungen ist so differenziert, daß sie nicht mit traditionellen Zeichen notiert werden kann, sondern ein eigenes Notationssystem erfordert, so daß unter jedem Rechteck (Toinhöhen-Notation eines Klanggemisches) ein Trapez mit abwärts oder aufwärts führender Oberseite (Hüllkurven-Notation dieses Tongemisches: Decrescendo oder Crescendo) steht.

Die strenge Konstruktion von Stockhausens "Studie II" ist häufig analysiert worden, weil ihre Details sich aus der Partitur entnehmen lassen. Die technische Realisation hat es möglich gemacht, daß vom kleinsten Detail bis zur Gesamtform eine strenge, zugleich einheitliche und in sich hochdifferenzierte Zahlenstruktur wirksam ist. Mit den Mitteln der herkömmlichen vokal-instrumentalen Musikpraxis wäre eine so strenge musikalische Konstruktion nicht darstellbar. Andererseits ist auffallend, daß selbst so minutiös genau notierte Stück nach den Angaben der Partitur nicht ohne weiteres exakt reproduzierbar ist. Dies wird deutlich, wenn man die Angaben der Partitur genauer überprüft und hierbei auch die technischen Detailangaben des Vorwortes heranzieht.

Stockhausen hatte schon vor der Komposition und Realisation dieses Stückes lange genug im Studio gearbeitet, um sich empirisch mit den Bedingungen des neuartigen elektronischen Klangmaterials hinreichend vertraut zu machen. Schon 1952 hatte ihm Pierre Schaeffer ermöglicht, in seiner Forschungsgruppe für konkrete Musik zu arbeiten und dort eine kurze konkrete Etüde zu realisieren. In dieser Etüde macht Stockhausen von neuen Möglichkeiten der Tonbandmontage Gebrauch, die dem Pariser Studio seit 1951 zur Verfügung standen und dort zuvor schon in Produktionen von Pierre Boulez und Pierre Henry erprobt worden waren (und die fast gleichzeitig auch in den Vereinigten Staaten von John Cage und ihm befreundeten Musikern angewendet wurden): In der Tonbandmusik war es erstmals möglich geworden, kleinste Fragmente aufgenommener Klänge in genauestens abgemessenen Zeitabständen aneinanderzumontieren. Dies eröffnete neue Möglichkeiten der rhythmischen Differenzierung, wie sie in der konventionellen Aufführungspraxis mit Stimmen und Instrumenten zuvor nicht realisierbar gewesen waren. Die in Paris arbeitenden jungen Komponisten wandten diese Techniken der Mikromontage auf ein möglichst eng umgrenztes, einheitliches Klangmaterial an (z. B. Boulez in seiner "Etude I" und Stockhausen in seiner konkreten Etüde auf Einzelklänge eines exotischen oder eines präparierten Instrumentes, Henry in "Vocalises" auf einen einzelnen aufgenommenen Gesangston), während Cage für sein 1952 entstandenes Tonbandstück "Williams Mix" ein Klassifikationssystem ersann, das die rhythmisch und farblich vorstrukturierte Integration möglichst vielfältiger und unterschiedlicher Klangmaterialien erlaubte. Stockhausen trieb die Idee vollständiger struktureller Einheitlichkeit bis ins Extrem, als er forderte, daß die kompositorischen Gestaltungsprinzipien bis in den Einzelklang hineinwirken sollten. Dies schloß die Arbeit mit vorgegebenen, also der kompositorischen Vorausbestimmung insoweit unzugänglichen Klangmaterialien aus - also auch den Ansatz der konkreten Musik, die von Aufnahmen vorgefundener, live produzierter Klänge ausging. Stockhausen wollte, ebenso wie der damals eng mit ihm befreundete belgische Komponist Karel Goeyvaerts, sich eine vollständig neue Klangwelt erschließen, die kein vorgegebenes Material mehr akzeptierte, sondern vom kleinsten Detail bis in die Gesamtform hinein sich als Konsequenz einer einheitlichen kompositorischen Gestaltungsidee ergab. Diese Zielvorstellung führte zu einer streng strukturalistischen Vorstellung Elektronischer Musik, wie sie Stockhausen erstmals 1953 im Kölner Studio für Elektronische Musik realisieren konnte: In seiner Elektronischen "Studie I", die sich aus einfachsten Zellstrukturen des einfachsten Klangmaterials, nämlich von Sinustönen entwickelt.

Stockhausens "Studie I" läßt, deutlicher noch als die ihr folgende "Studie II", erkennen, daß und warum die Entstehung der Elektronischen Musik auf andere historische Wurzeln zurückverweist als auf die Ansätze von Busoni und Varèse: Elektronische Musik als Medium uneingeschränkter kompositorischer Gestaltungsfreiheit erschien auch und gerade in den frühen 1950er Jahren gerade denjenigen, die konkret mit ihr befaßt waren, keineswegs als Gebot der Stunde. Die Neue Musik, auf die der junge Stockhausen sich berief, war durchaus verschieden von einer von traditionellen und konstruktiven Fesseln befreiten Klangkunst im Sinne von Busoni und Varèse. Stockhausen versuchte auch bei der Arbeit mit technisch produzierten Klängen Konsequenzen daraus zu ziehen, daß seit den 1920er Jahren andere, stärker konstruktivistisch orientierte im avancierten Musikdenken an Bedeutung gewonnen hatten: Die serielle Kompositionstechnik, die er von der Instrumentalmusik bis in den Bereich der Elektronischen Musik hineingetrieben hatte, verstand Stockhausen nicht nur als vollständigen musikalischen Neubeginn, in dem vom einzelnen Ton und seinen Eigenschaften ausgehend eine vollständig neue Musiksprache entwickelt wird, sondern auch als verallgemeinernde Weiterführung eines historisch älteren musikalischen Neuansatzes, nämlich der Zwölftontechnik Arnold Schönbergs und seiner Schüler, insbesondere Anton Weberns. Den ersten Satz von Weberns Konzert für neun Instrumente op. 24 mit seinen vielfältig permutierten und variierten Dreitongruppen interpretierte er als Vorstufe serieller Elektronischer Musik, in der die konstruktive Arbeit mit Tonzellen weiter getrieben wird bis in den Bereich der Klangfarbenkonstruktion hinein. Tatsächlich ist auch Stockhausens "Studie I" aus Dreitongruppen gebildet, die denjenigen Weberns eng verwandt sind. Allerdings erschließt sich die Verwandtschaft der Dreitongruppen Weberns und Stockhausens eher aus der Analyse als aus dem unmittelbaren Höreindruck, da Stockhausen, anders als Webern, die Dreitongruppen nicht in motivischen oder akkordischen Gruppierungen deutlich herausstellt, sondern sie in wechselnden Tongruppierungen weitgehend versteckt, so daß im Fluß ständig wechselnder Gestalten allenfalls noch die Grundcharakteristika der durchgängig strengen Intervallstruktur erkennbar bleiben.

Tonstrukturen, die Webern mit Tönen verschiedener Instrumente (d. h. im Wechsel zwischen verschiedenen Obertonspektren und Klangfarben) zu realisieren versuchte, hat Stockhausen übertragen auf den Elementarbereich der Sinustöne - der elementaren Toneinheiten, die erst in unterschiedlichen Überlagerungen, in unterschiedlichen Konstellationen der Tonhöhen und Lautstärken, die Ausbildung unterschiedlicher Klangfarben ermöglichen. Dabei werden die Intervallkonstellationen überlagerter Sinustöne ambivalent: Einerseits bleiben die einzelnen Töne und Intervalle noch weitgehend erkennbar, andererseits tendieren sie zur Verschmelzung in übergeordneten Klangfarben, in deren Kontext die einzelnen Teiltöne und deren Intervallabstände mehr oder weniger an Bedeutung verlieren oder gänzlich unerkennbar werden. Derartige Ambivalenzen ergaben sich ausschließlich im Höreindruck, während die Klänge und Klangstrukturen selbst eindeutig fixiert sind: In ihren Frequenzen, in ihren Lautstärken und in ihren Dauern. Sinustöne überlagern sich in charakteristisch verschiedenen Gruppierungen und Lautstärke-Abstufungen zu Tongemischen, die ihrerseits in Gruppierungen höherer Ordnung zusammengefaßt sind. Im Wechsel von vertikalen und horizontalen Gruppierungen, von Überlagerungen und Abfolgen ergibt sich ein hierarchisch genau gegliederter Formaufbau vom einzelnen Sinuston bis zum vollständigen Stück. Der strenge Konstruktionsplan scheint keinerlei Spielraum für intuitive Abweichungen und für spontane kompositorische Gestaltungsfreiheit im Sinne etwa von Busoni oder Varèse zu bieten. Dennoch läßt sich zeigen, daß selbst in diesem extrem durchkonstruierten Stück Grenzen der prädeterminierten kompositorischen Konstruktivität zu erkennen sind.

Schon in seiner ersten elektronischen Komposition empfand Stockhausen es offensichtlich als unbefriedigend, ausschließlich mit völlig statischen Klängen zu arbeiten. Deswegen verband er die festen Tonhöhen seiner Tongemische mit verschiedenen Verlaufsformen, unter denen der völlig statische Klang nur als eine von sechs verschiedenen Möglichkeiten erscheint: Er unterschied drei verschiedene dynamische Verlaufsformen (fester Wert, anschwellend, abschwellend) in jeweils zwei Varianten (jeweils mit und ohne Verhallung), so daß sich insgesamt sechs verschiedene Formen ergaben. Die dynamischen Varianten bedeuteten eine erste Abweichung von festen Skalenwerten. Die Verhallungen brachten ein erstes Element klanglicher Unbestimmtheit in den musikalischen Zusammenhang: Sie ließen sich dynamisch regeln, aber nicht in allen verschiedenen Klangeigenschaften so präzise kontrollieren wie die originalen Klänge. Dennoch nahm Stockhausen diese Abweichungen von der ursprünglichen klanglichen Präzision in Kauf, da sie, ebenso wie die an- und abschwellenden Hüllkurven, die statische Starre der ursprünglichen Konstruktion aufbrachen und die Musik klanglich bereicherten.

In der "Studie II" ging Stockhausen noch einen Schritt weiter: Dynamische Hüllkurven und Verhallungen wurden obligatorisch für alle verwendeten Klänge. So erhielten alle Tongemische charakteristische dynamische Bewegungsformen, aus denen sich in ihren Abfolgen und besonders bei ihren Überlagerungen dann komplizierte zusammengesetzte dynamische Verläufe ergeben konnten. Die Verhallungen sollten dem Zweck dienen, die präzise Tonhöhen-Wahrnehmung der ursprünglich aufgenommenen Sinustöne mehr oder weniger stark zu verwischen. So wollte Stockhausen wenigstens indirekt einem Klangergebnis näherkommen, das auf direktem Wege (mangels hinreichend differenzierter Filter) sich technisch nicht realisieren ließ: Die verhallten Tongemische mit ihren unterschiedlichen Intervallweiten sollten ähnlich klingen wie unterschiedlich breit gefilterte Rauschbänder. Wer das Stück anhört, kann allerdings feststellen, daß meistens nicht der Fall ist und man die ursprünglich aufgenommenen Sinustöne und die Intervallstrukturen der Tongemische meistens noch deutlich heraushört. Nur in extrem tiefer Tonlage, wie sie am Schluß der Studie zu hören ist, erscheinen die verhallten Tongemische weitgehend geräuschhaft verfremdet - dort allerdings um den Preis, daß man die komponierten Tonhöhen- und Lautstärkedifferenzierungen und die Abgrenzungen zwischen verschiedenen Tongemischen kaum noch heraushören kann. So wird deutlich, daß dem homogenen Partiturbild mit seinen Rechtecken und Trapezen kein einheitliches Klangbild entspricht: Verhallte Tongemische in verschiedenen Tonlagen und Bandbreiten können sich wesentlich stärker voneinander unterscheiden als verschiedene Töne oder Akkorde, die man auf dem Klavier spielt. Der vereinheitlichten Klangproduktion entsprechen nicht immer vereinheitlichte Klangresultate. Die Klangverfremdung der Verhallung sorgt dafür, daß sich spezifische klangliche Unterschiede ergeben, die aus dem Partiturbild allein nicht abgelesen werden können und sich erst im konkreten Höreindruck erschließen. Selbst in dieser genau durchkonstruierten Komposition ist zu erkennen, daß schriftlich Fixierbares und konkret Erklingendes nicht umstandslos in Einklang gebracht werden können und daß strukturelle Beziehungen zwischen aufgenommenen Klängen mehr oder weniger stark verwischt werden können, wenn Klangstrukturen im Studio klanglich verfremdet, z. B. verhallt werden.

Noch einen Schritt weiter ging Gottfried Michael Koenig, als er in seiner elektronischen Komposition "Klangfiguren II" nicht nur das Arsenal der aufgenommenen Klänge erweiterte, sondern auch die Technik der klanglichen Verfremdung radikalisierte: Neben Sinustönen und ihren Gruppierungen in Tongemischen verwendete er auch andersartige Klangmaterialien: Rauschklänge und Impulse. Auch diese Klänge konnten durch unterschiedlich feine Filterungen in verschiedenen Tonlagen mehr oder weniger genau der Tonhöhe nach differenziert werden und insofern in Konkurrenz zu den Sinustönen und ihren Gruppierungen treten. Damit war die Homogenität der frühen Elektronischen Musik aufgegeben und es ergab sich ein Nebeneinander verschiedener Klangfarben, vergleichbar dem Wechsel unterschiedlicher Instrumentalfarben in traditioneller Musik. Die Klangstrukturen aus Sinustönen, Rauschklängen und Impulsen werden in Koenigs Stück erst auf höherer Ebene vereinigt dadurch, daß sie in gleicher Weise klanglich verfremdet werden: Durch die Technik der Ringmodulation. Diese sorgt dafür, daß ein gegebenes Klangmodulation in der Modulation mit einem anderen farblich angereichert, meistens auch geräuschhaft verfremdet wird (dadurch, daß aus den Frequenzen der beiden modulierten Klänge sämtliche Summations- und Differenztöne gebildet werden, wobei sich harmonische, tonhöhenbestimmte in unharmonische, geräuschhafte Klangstrukturen verwandeln können). In Koenigs Stück wird die Technik der Ringmodulation zum klanglich vereinheitlichenden Prinzip für verschiedenartige elektronische, im Studio nach strengen seriellen Konstruktionsprinzipien produzierte Klangmaterialien. Dieses Verfahren der transformierenden Vereinheitlichung des ursprünglich Verschiedenartigen (das sich übrigens in seinen Klangresultaten nur in Ausnahmefällen exakt notieren läßt und daher meistens nur operational, mit Angaben über die Ausgangsmaterialien und zur Modulation, notiert wird) hat seit den sechziger Jahren auch Karlheinz Stockhausen übernommen, als er auch (im Orchesterstück "Mixtur" sowie in den instrumentalen bzw. vokalen Ensemblestücken "Mikrophonie I" und "Mikrophonie II") auch live gespielte Klänge oder (in der Tonbandkomposition "Telemusik") auch Aufnahmen traditioneller Musik in die Ringmodulation einbezog. Stockhausens 1970 entstandene Komposition "Mantra" ist für zwei ringmodulierte Klaviere geschrieben. In allen diesen Kompositionen finden sich Beispiele dafür, daß die Trennung zwischen Klangstrukturierung und Klangtransformation, die sich schon in den ersten Jahren elektronischer Klangproduktion vorbereitet hat, längerfristig zu grundlegenden Änderungen führen mußte, die sogar nach einiger Zeit die bis dahin für selbstverständlich gehaltenen Produktionsbedingungen in Frage stellten, wenn sie die Klangproduktion aus der Exklusivität des Studios heraus verlagern in den Konzertsaal einer live-elektronischen Aufführung.

Sobald in der Elektronischen Musik die elektronischen Klangtransformationen sich durchzusetzen begannen und überdies heterogene Klangmaterialien zugelassen wurden, stellte sich die Frage, ob weiterhin die strengen Prämissen der "klassischen" seriellen Kompositionstechnik aufrecht erhalten bleiben konnten, nach denen die verwendeten Klänge in allen Elementareigenschaften (Höhe, Dauer, Lautstärke) exakt bestimmt sein mußten. Selbst dann, wenn die Ausgangsmaterialien seriell strukturiert waren, blieb zweifelhaft, ob diese Strukturierung auch nach mehr oder weniger weitgehenden klanglichen Verfremdungen noch wirksam bleiben konnte - zumal dann, wenn die klanglichen Verfremdungen sich nicht in vergleichbarer Weise seriell strukturieren ließen wie die Ausgangsmaterialien (sei es aus musikalischen, sei es aus technischen Gründen). Vor allem in der Elektronischen Musik Gottfried Michael Koenigs läßt sich deutlich verfolgen, wie im Zuge der Akzentverlagerung von der Klangproduktion auf die Klangtransformation klassische Prinzipien der seriellen Strukturierung mehr und mehr an Bedeutung verloren und statt dessen neue Fragen nach musikalischen Zusammenhängen zwischen verschiedenen transformierten Klängen sich stellten. Schon in der 1957 realisierten Komposition "Essay" kam es so weit, daß für die verschiedenen Abschnitte des Stückes weniger die seriell konstruierten Ausgangsmaterialen von Belang waren als die verschiedenen Varianten desselben Ausgangsmaterials. In jedem Abschnitt dominierte ein anderes Ausgangsmaterial mit seinen Transpositions-Varianten, so daß trotz der wechselnden Ausgangsklänge die gleichbleibende Varianten-Technik als vereinheitlichendes Formelement wirksam werden konnte.

Noch einen Schritt weiter ging Koenig in der 1962 entstandenen Komposition "Terminus" (die später, nachdem unter abgewandelten Titeln verschiedene Alternativfassungen entstanden waren, den Titel "Terminus I" erhielt). Hier beschränkte der Komponist sich auf ein einziges Ausgangsmaterial: Ein Glissandoknäuel. Es wurde in kleine Stücke zerschnitten, die in unterschiedlicher Weise klanglich transformiert wurde; dabei wurden auch die letzten Spuren serieller Strukturierung unkenntlich, die ursprünglich in den Ausgangs-Frequenzen der Glissandi des Glissando-Knäuels noch erkennbar gewesen sein mögen. Die so gewonnenen Klang-Fragmente wurden nun ihrerseits als Elementar-Materialien höheren Grades angesehen und, in vier verschiedenen Varianten, nach seriellen Prinzipien zu Montagestrukturen zusammengefügt. Aus diesen Montagestrukturen und ihren aus Klangtransformationen entwickelten Varianten sind die Abschnitte des Stückes gebildet. In diesem Stück ist die serielle Strukturierung des Ausgangsmaterials offensichtlich noch weniger wichtig als in "Essay", mit dem es im übrigen die abschnittsweise wechselnde Reihung von Transformations-Varianten desselben Ausgangsmaterials gemeinsam hat. Nicht nur bei der Analyse der Arbeitsaufzeichnungen des Komponisten, sondern auch beim Hören des Stückes kann deutlich werden, daß das Verfolgen des Weges von einer Transformation zur anderen wichtiger ist als die (auf Tonlage und Zeitstruktur konzentrierte) serielle Strukturierung eines Ausgangsmaterials, die in dessen verschiedenen Varianten weitgehend unverändert erkennbar bleibt. Allerdings kann der Hörer nicht ohne weiteres erkennen, ob und inwieweit die Abfolge der Varianten sich aus dem Aufbau der Ausgangsstruktur ergibt. Auch in diesem Stück mit seinen stammbaumartigen Material-Verzweigungen und -Ableitungen ergibt sich nicht ohne weiteres ein vom kleinsten Detail bis in die Großform hinein wirksamer musikalischer Zusammenhang. Selbst die strengste Beschränkung auf ein einheitliches kompositorisches Ausgangsmaterial bietet nicht ohne weiteres die Gewähr dafür, daß die Utopie der vollständigen, alle Formdimensionen erfassenden kompositorischen Konstruktivität sich im musikalischen Zusammenhang tatsächlich konkretisiert.

Schlußbemerkung

Elektronische Musik als streng synthetische konstruktivistische Klangkunst markiert eine Extremposition in der Musikentwicklung des 20. Jahrhunderts, die sich leichter in rigorosen Postulaten einer Theorie beschreiben läßt als in der kompositorischen Realität, die stark von den jeweils gegebenen technischen Gegebenheiten und den Strukturen des Musiklebens geprägt ist. Dennoch ist es aufschlußreich, über Möglichkeiten und Grenzen dieses musikalischen Ansatzes nachzudenken - sei es bezogen auf die analoge elektronische Musik, wie sie sich seit den 1950er Jahren entwickelt hat, sei es bezogen auf vergleichbare spätere Entwicklungen in der Computermusik. Die Dialektik zwischen dem Wunsch nach möglichst weitgehender kompositorischer Gestaltungsfreiheit und dem Bedürfnis nach technisch und ästhetisch konsistenter kompositorischer Konstruktuion bestimmt die Entwicklung der technisch produzierten Musik und insbesondere der Elektronischen Musik von ihren Anfängen bis heute.

[Zurück]   [Vor]   [Hoch]   [Startseite]        [Index]   [Frisius-Homepage]