Dokument: Inhalt\ Musique Concrète\ Elektronische Musik 1999 b.doc
[Zurück]   [Vor]   [Hoch]   [Startseite]        Index

 

3.32 Elektronische Musik 1999 b.doc


Rudolf Frisius

ELEKTRONISCHE MUSIK - ELEKTRONIK PUR?

Elektronische Musik: Ein Begriff im Wandel der Musikentwicklung

Der Begriff "Elektronische Musik" hat seine Eigenarten und Besonderheiten. Wenn man vom Wortsinn ausgeht, könnte man vermuten, daß er sich auf alle Musik bezieht, die mit elektronisch erzeugten Klängen arbeitet. In diesem Falle bezöge sich der Begriff auf die Technik der Klangproduktion, und Elektronische Musik wäre hierdurch als in ihren Klangmitteln erneuerte "Musik des technischen Zeitalters" abgegrenzt von Musik für Stimmen und mechanische Musikinstrumente (einschließlich traditioneller Musikautomaten).

Seit den 1950er Jahren sind uns Versuche bekannt geworten, den Begriff "Elektronische Musik" schärfer einzugrenzen. In Köln wurde, unter der Ägide des damaligen Nordwestdeutschen Rundfunks, ein Studio für Elektronische Musik gegründet, in dem seit 1953 Elektronische Musik produziert wurde, die auf die Verwendung elektronischer Spielinstrumente vollständig verzichtet (obwohl solche Instrumente im Studio zur Verfügung standen). Den entscheidenden Anstoß für diese Neuorientierung gab Karlheinz Stockhausen mit seiner 1953 produzierten Tonbandkomposition "Studie I", die von den einfachstmöglichen elektronischen Elementarmaterialien ausgeht: Von mit Generatoren erzeugten Sinustönen, die sich von Gesangs- und Instrumentaltönen dadurch unterscheiden, daß ihre Tonhöhe sich auf eine einzige Grundfrequenz reduziert, daß sie also, anders als jene, nicht aus Grundton und Obertönen sich zusammensetzen, die, je nach Konstellationen und Lautstärkeverhältnissen der Teiltöne, unterschiedliche Klangfarben ergeben könnten. Die Reduktion der Klangmaterials auf Sinustöne (aus denen dann durch Überlagerung Tongemische, durch Montage und Mischung komplexere Klangstrukturen gebildet werden konnten), auf die einfachsten musikalischen Bausteine, auf die musikalischen "Atome", erschien als ein radikaler Neubeginn, der die Einführung eines neuen Begriffes rechtfertigen könnte: "Elektronische Musik" als Musik aus Sinustönen.

Dieser Musik lag die Überlegung zu Grunde, daß in einer von den einfachsten Elementarklängen ausgehenden Musik auf synthetischem Wege neue Klangfarben konstruiert werden könnten: Durch Überlagerung von Sinustönen zu Spektren oder Tongemischen, die je nach Instervallstruktur oder dynamischer Differenzierung unterschiedlich "gefärbt" sein konnten (und dabei auch unterschiedliche Positionen in einem vorgestellten Kontinuum zwischen harmonischen/tonhöhenbestimmten Klängen einerseits und unharmonischen/tonhöhenunbestimmten/geräuschhaften Klängen andererseits einzunehmen vermochten). So sollte die Komposition bis in das Innere der Klänge eindringen: Musik präsentierte sich nicht mehr als Komposition mit vorgegebenen Klängen (von Stimmen oder bekannten Instrumenten), sondern als Komposition der Klänge selbst.

Elektronische Musik als synthetische Klangkomposition unterschied sich grundsätzlich von aller zuvor komponierten Musik: Sie ließ sich nicht mehr in Form einer Partitur fixieren, nach deren Vorschriften ausübende Musiker die Musik "live" hätten realisieren können. Eine sorgfältige und reichhaltige Auswahl der Sinustöne (in neuartigen Intervallstrukturen und ihre Zusammenstellung in genau dosierten Zeit- und Lautstärkewerten) einerseits und die damals noch äußerst begrenzten technischen Möglichkeiten andererseits ließen es unmöglich erscheinen, Elektronische Musik live aufzuführen. Statt dessen wurde es erforderlich, die einzelnen Tonhöhen (Frequenzen), Lautstärken und Zeitwerte in der vorbereitenden Studioarbeit sorgfältig auszumessen und die einzelnen Klänge in mühevoller Arbeit zu größeren Klangkomplexen zusammenzumontieren. So entstandene Elektronische Musik unterschied sich von herkömmlicher Vokal- und Instrumentalmusik also nicht nur durch ihr Klangmaterial, sondern auch durch den Prozeß der Klangproduktion: Die Klänge mußten auf Tonband vorproduziert werden. Wenn die Komposition fertig auf Tonband fixiert war, konnte sie aufgeführt werden, ohne daß hierfür "live" agierende Musiker benötigt wurden: Als "unsichtbare Musik" oder (wie Stockhausen es in einer Radio-Sendereihe einmal genannt hat) als "Musik, die man nur aus dem Lautsprecher hören kann".

Elektronische Musik ist Musik aus dem Lautsprecher. Wenn ihre Klangstrukturen auf Tonband vorproduziert sind, läßt sie sich als "unsichtbare" Lautsprechermusik aufführen: Bei ihrer Aufführung müssen die Klänge nicht mehr eigens von Interpreten erzeugt werden, sondern es werden vorgegebene Klänge vom Tonband abgespielt (und dabei, zumal bei öffentlicher Wiedergabe, z. B. in "Lautsprecherkonzerten", meistens von einem "Klangregisseur" ausgesteuert). Das 1953 offiziell gegründete Kölner "Studio für Elektronische Musik" (dessen Gründung seit 1951 vor allem von Werner Meyer-Eppler und Herbert Eimert betrieben worden war und an dessen ersten vorbereitenden Klangproduktionen seit 1952 außer Herbert Eimert auch Robert Beyer und Heinz Schütz beteiligt waren) ist zum Geburtsort dieser Elektronischen Musik im engeren Sinne, der elektronischen Lautsprechermusik geworden. Als 1954 erstmals Produktionen dieses Studios im Rahmen eines Konzertes vorgeführt wurden (Werke von Karlheinz Stockhausen, Herbert Eimert, Karel Goeyvaerts, Henri Pousseur und Paul Gredinger) und, daran anschließend, im folgenden Jahr Eimert und Stockhausen eine neue Schriftenreihe mit einem Heft über "elektronische Musik" eröffneten, wurde deutlich, daß hier Signale für den Beginn einer neuen musikalischen Entwicklung gesetzt werden sollten: Der Musikkritiker H. H. Stuckenschmidt sprach von einer "dritten Epoche" der Musikgeschichte, von der Ablösung der vokalen und der instrumentalen durch die technisch produzierten Klänge.

Was damals begann, war zweifellos bedeutsam für die gesamte Musikentwicklung in der zweiten Hälfte des 20. Jahrhunderts. Nach dem Modell des Kölner Studios entstanden bald auch Studios in anderen Ländern und Kontinenten, und das Repertoire der in diesen Studios entstandenen Produktionen erweiterte sich im Laufe der Jahre und Jahrzehnte beträchtlich. Andererseits ist in der Folgezeit deutlich geworden, daß manche Erwartungen, die man in der Gründerzeit der Elektronischen Musik hegen konnte, sich zunächst nicht erfüllen konnten. Wer etwa glaubte, mit der Erfindung der Elektronischen Musik sei das Zeitalter der Vokal- und Instrumentalmusik im bisher üblichen Sinne abgeschlossen, der wurde rasch eines Besseren belehrt. Dies zeigt schon ein Blick auf die weiteren musikalischen Aktivitäten der oben erwähnten Pioniere elektronischer Tonbandmusik: Karlheinz Stockhausen, der bekannteste unter ihnen, hat nur kurze Zeit daran geglaubt, daß mit der Erfindung der Elektronischen Musik das Zeitalter der herkömmlichen Instrumentalmusik endgültig zu Ende sei. Schon 1954, im zweiten Jahr seines Aufenthaltes im Elektronischen Studio, kehrte er zu Instrumentalmusik zurück und begann damit, parallel zu seinen Studiokompositionen instrumentale Partituren auszuarbeiten: Einen Zyklus von Klavierstücken (seit 1954), ein Ensemblestück ("Zeitmaße", 1955-1956) und ein Orchesterwerk ("Gruppen" für drei Orchester, 1955-1957). Der Versuch, die Erfahrung im elektroakustischen Studio auch für die instrumentale Komposition direkt zu nutzen, gelang zunächst nicht: Die ursprüngliche Idee, in den "Gruppen" die live-Orchestermusik mit einer Tonbandwiedergabe zu kombinieren, wurde aufgegeben, und es entstand eine rein instrumentale Komposition. Erst in den sechziger Jahren hielt Stockhausen die Zeit für gekommen, elektronische und instrumentale Musik direkt miteinander zu verbinden (was vor ihm, in der Verbindung elektronischer Klänge mit Orchestermusik, schon Pierre Boulez und Henri Pousseur versucht hatten) und Techniken der elektronischen Klangverarbeitung, die zuvor nur im Studio praktikabel gewesen waren, auf die live-Interpretation im Konzertsaal zu übertragen (was vor ihm, in anderer Weise, auch schon John Cage versucht hatte). Seit den 1960er und 1970er Jahren läßt sich in Stockhausens kompositorischer Entwicklung feststellen, daß neben der Arbeit im Elektronischen Studio mehr und mehr sich die Akzente verschieben: zunächst in Richtung der Live-Elektronik (mit live im Konzertsaal transformierten Instrumental- oder Vokalklängen), später auch in Richtung der Live-Musikpraxis (mit verstärkten, teilweise auch räumlich verteilten oder bewegten Instrumental- oder Vokalklängen). Seit der live-elektronischen Komposition "Mantra" für zwei ringmodulierte Klaviere (1970), seit "Sirius" für Tonband und vier Solisten (1975-1977) sowie seit den elektronischen Produktionen, die für den 1977 begonnenen Opernzyklus "Licht" entstanden sind, hat sich die "Instrumentalisierung" der Elektronischen Musik, ihre Annäherung an vokale und instrumentale Musikpraxis, bei Stockhausen auch dadurch verstärkt, daß einerseits die musikalische Konstruktion von Melodieformeln ausgeht (die sowohl gesungen und gespielt als auch elektronisch auskomponiert werden können) und andererseits innerhalb und außerhalb des elektronischen Studios moderne Synthesizer, als moderne elektronische Spielinstrumente, erheblich an Bedeutung gewonnen haben. Die Elektronische Musik (im engeren, seit den 1950er Jahren etablierten Sinne), die einer ihrer wichtigsten Pioniere, zunächst (in den frühen 1950er Jahren) als letzte Konsequenz und damit zugleich als Abschaffung der traditionellen Instrumentalmusik eingeführt hatte (die zuvor im radikalen seriellen Konstruktivismus an ihre Grenzen gestoßen war) - diese Musik ist also schon wenige Jahre nach ihrer Etablierung in eine Entwicklung geraten, die die klanglichen Innovationen mit den Erfahrungen der tradierten (von Tonordnungen ausgehenden) Musiksprache und (Live-)Musikpraxis zu versöhnen trachtete.

Die genannten und andere Beispiele belegen, daß die Elektronische Musik allenfalls in ihren Anfangsjahren den Anspruch des völligen Neubeginns und der radikalen Ablösung alles Bisherigen glaubwürdig artikuliert hat. Wenn selbst die führenden Exponenten dieser Musik davor zurückschreckten, sich radikal von der überkommenen Vokal- und Instrumentalmusik zu lösen, dann war es nur konsequent, daß auch im Musikleben die Durchsetzung elektronischer Lautsprechermusik seit den späten 1950er Jahren zunehmend schwieriger wurde: Die traditionellen Festival- und Konzert-Strukturen behaupteten sich weitgehend. Die Vorstellung, daß technisch produzierte Musik sich eigentlich von tradierten Vermittlungsformen etwa des Konzertsaales oder Opernhauses radikal lösen müsse (ähnlich wie zuvor der Film von den Ritualen der konventionellen Theatervorstellung) - diese Vorstellung war im ersten Jahrzehnt der elektronischen Lautsprechermusik noch recht lebendig, sie geriet aber in der Folgezeit weitgehend in Vergessenheit. Inwieweit das ursprünglich Intendierte und das in der Folgezeit tatsächlich Erreichte miteinander tatsächlich in Deckung zu bringen sind, läßt sich am Ende des 20. Jahrhunderts erst ansatzweise erkennen. In dieser Situation empfiehlt es sich, bei der genaueren Analyse von divergierenden Fragestellungen auszugehen, die sich schon in frühen Entwicklungsstadien herauskristallisiert haben und, im Spannungsfeld verschiedener Problemstellungen, ihre Relevanz auch für das Verständnis neuerer Entwicklungen erwiesen haben.

Erste theoretische und praktische Ansätze elektroakustischer Musik:

Im Spannungsfeld zwischen Utopie und klanglicher Realität

Die Utopie der vollständigen kompositorischen Gestaltungsfreiheit und ihre Grenzen

Elektronische Musik ist ein Schlüsselphänomen in der Musikentwicklung des 20. Jahrhunderts, das in besonderer Weise geprägt ist vom Spannungsverhältnis zwischen Utopie und klanglicher Realität. Die Hoffnungen, die Feruccio Busoni schon im ersten Jahrzehnt dieses Jahrhunderts auf neue Musik mit elektrisch erzeugten Klängen setzte, eilten den damaligen technischen und kompositorischen Möglichkeiten weit voraus - und man kann noch heute bezweifeln, ob sie selbst seit den fünfziger Jahren in Erfüllung gegangen sind, als tatsächlich eine zusammenhängende, über einzelne isolierte Ansätze hinausführende Entwicklung Elektronischer Musik begann. Das utopische Potential des damals Begonnenen ist, wie es scheint, bis heute noch nicht von der klingenden Wirklichkeit des musikalisch tatsächlich Realisierten eingeholt worden. Andererseits wäre es zu dieser avancierten Musikentwicklung möglicherweise gar nicht gekommen, wenn ihr nicht von wagemutigen Künstlern und Theoretikern vorausgedacht worden wäre.

Die Hoffnungen, die Feruccio Busoni auf eine neue, mit technischen Mitteln realisierte Klangwelt setzte, haben vor allem einen jüngeren Musiker inspiriert, der, anders als Busoni, sogleich an der kompositorischen Realisierung des theoretisch Postulierten interessiert war: Edgard Varèse. Varèse hat allerdings rasch erkennen müssen, wie weit der Weg vom theoretischen Postulat zur klanglichen Konkretisierung technisch produzierter Musik tatsächlich war: Erst 1954 gelang ihm erstmals die Realisation und Aufführung technisch produzierter Musik.

Edgard Varèse, der von den kühnen theoretischen Vorstellungen Busonis stark beeindruckt war, wußte sehr wohl, warum er trotzdem weitgehend jahre- und jahrzehntelang in seinen Kompositionen traditionelle Klangmittel bevorzugte und nur ausnahmsweise (und mit zweifelhaftem Erfolg) elektronische Spielinstrumente verwendete: In den zwanziger und selbst in den frühen dreißiger Jahren erschienen ihm die spieltechnischen Möglichkeiten der damals verfügbaren neuen Instrumente noch als unzureichend, so daß er seine neuen kompositorischen Vorstellungen lieber mit bekannten, wenngleich als eigentlich unzureichend angesehenen Instrumenten realisierte. Selbst in der traditionellen Notation der rhythmischen und dynamischen Werte für mehr oder weniger konventionelle Schlaginstrumente wird deutlich, daß die Musik sich hier grundlegend zu verändern beginnt. Die Emanzipation des Geräusches verbindet sich hier mit der Emanzipation von den Grundlagen traditionellen Musikdenkens; es werden in vielen Fällen keine festen Werte z. B. für Tonhöhe, Lautstärke und Tondauer mehr vorgeschrieben, sondern gleitende Veränderungen, die das klangliche Geschehen im ständigen Fluß halten sollen. Deutlich wird dies in reich differenzierten Crescendo- und Decrescendo-Vorschriften, vor allem in den Sirenenklängen, bei denen gleichzeitig mit dem An- oder Abschwellen der Lautstärke auch auf- oder absteigende Glissandi zu hören sind. Die Sirenen-Glissandi werden zur deutlichsten Manifestation einer Musik, die nicht mehr in festen Tönen, Skalen, Akkorden, Melodien oder polyphon geschichteten Stimmen angelegt ist, sondern als komplexes Klangkontinuum. Deutlich wird allerdings andererseits auch, daß die meisten konventionellen Instrumente, die Varèse notgedrungen noch verwendet, sich zur konsequenten Verwirklichung einer solchen kontinuierlichen Musik nicht eignen: Varèse komponiert hier eigentlich eine Musik jenseits dessen, was eigentlich in den Noten steht. Er selbst hat betont, daß solche Musik eigentlich mit moderneren, elektronischen Mitteln hätte realisiert werden müssen, wie sie zu ihrer Entstehungszeit allerdings noch nicht verfügbar waren.

Varèses Ideen zielten nicht auf eine Musik mit neuen Tonleitern (sei es auch, wie schon von Busoni theoretisch erwogen, unter Einbeziehung von Mikrointervallen), sondern auf eine Musik jenseits der Tonleitern. Die Schwierigkeiten, eine solche Musik zu komponieren, waren offensichtlich beträchtlich - so beträchtlich, daß selbst viele Komponisten Elektronischer Musik ihnen später auszuweichen versuchten. Schwierig erschien es vor allem, diese Musik im herkömmlichen Sinne zu komponieren - d. h. sie entsprechend der Imagination des Komponisten im vorhinein so aufzuschreiben, dass sie, den Anweisungen der Partitur entsprechend, später von Interpreten realisiert werden konnte. Da die traditionelle Notation an festgelegte Tonleiterstufen gebunden war, stellte sich damit die Frage nach Notwendigkeit und Möglichkeit neuer Notationen. Diese Frage wurde allenfalls dann sekundär, wenn der Komponist die Rolle des Interpreten selbst übernahm, also seine kompositorischen Ideen selbst klanglich realisierte. In diesem Falle wurde die Partitur grundsätzlich entbehrlich, da die Komposition jetzt als authentisches Klangbild auch ohne Partitur entstehen und existieren konnte. Beispiele hierfür kennen wir schon aus den Anfangsjahren der konkreten Musik (seit 1948). Auch die ersten Realisationen Elektronischer Musik (von Schütz, Beyer und Eimert) sind bis heute nur als Aufnahmen zugänglich, nicht als ausgearbeitete Partituren. Varèse, der seine instrumentalen Partituren in minutiöser Genauigkeit ausnotierte, hat keine Partituren zu seinen elektroakustischen Realisationen publiziert, was nicht erstaunlich ist, da diese sich den Begrenzungen kodifizierter Notationen weitgehend oder gänzlich zu entziehen scheinen. - In den frühen 1950er Jahren versuchten einige jüngere Komponisten, diese Situation zu ändern und bei der Realisation elektroakustischer Stücke von exakt ausgearbeiteten Partituren auszugehen. Das erste Beispiel einer vollständig ausgearbeiteten und publizierten Partitur ist die 1954 entstandene "Studie II" von Karlheinz Stockhausen. Sie ist allerdings ein Ausnahmefall geblieben, da die hier verwendete Notation nur unter relativ einfachen technischen und kompositorischen Voraussetzungen sich anwenden ließ. Die Analyse dieser Partitur ermöglicht charakteristische Einsichten in eine musikalische Denkweise, die den ästhetischen Ansätzen von Busoni und Varèse in wesentlichen Aspekten diametral entgegengesetzt ist.

Die Utopie der vollständigen kompositorischen Konstruktivität und ihre Grenzen

Schon in seiner ersten elektronischen Komposition (Studie I, 1953) empfand Stockhausen es offensichtlich als unbefriedigend, ausschließlich mit völlig statischen Klängen zu arbeiten. Deswegen verband er die festen Tonhöhen seiner Tongemische mit verschiedenen Verlaufsformen, unter denen der völlig statische Klang nur als eine von sechs verschiedenen Möglichkeiten erscheint: Er unterschied drei verschiedene dynamische Verlaufsformen (fester Wert, anschwellend, abschwellend) in jeweils zwei Varianten (jeweils mit und ohne Verhallung), so daß sich insgesamt sechs verschiedene Formen ergaben. Die dynamischen Varianten bedeuteten eine erste Abweichung von festen Skalenwerten. Die Verhallungen brachten ein erstes Element klanglicher Unbestimmtheit in den musikalischen Zusammenhang: Sie ließen sich dynamisch regeln, aber nicht in allen verschiedenen Klangeigenschaften so präzise kontrollieren wie die originalen Klänge. Dennoch nahm Stockhausen diese Abweichungen von der ursprünglichen klanglichen Präzision in Kauf, da sie, ebenso wie die an- und abschwellenden Hüllkurven, die statische Starre der ursprünglichen Konstruktion aufbrachen und die Musik klanglich bereicherten.

In der "Studie II" ging Stockhausen noch einen Schritt weiter: Dynamische Hüllkurven und Verhallungen wurden obligatorisch für alle verwendeten Klänge. So erhielten alle Tongemische charakteristische dynamische Bewegungsformen, aus denen sich in ihren Abfolgen und besonders bei ihren Überlagerungen dann komplizierte zusammengesetzte dynamische Verläufe ergeben konnten. Die Verhallungen sollten dem Zweck dienen, die präzise Tonhöhen-Wahrnehmung der ursprünglich aufgenommenen Sinustöne mehr oder weniger stark zu verwischen. So wollte Stockhausen wenigstens indirekt einem Klangergebnis näherkommen, das auf direktem Wege (mangels hinreichend differenzierter Filter) sich technisch nicht realisieren ließ: Die verhallten Tongemische mit ihren unterschiedlichen Intervallweiten sollten ähnlich klingen wie unterschiedlich breit gefilterte Rauschbänder. Wer das Stück anhört, kann allerdings feststellen, daß meistens nicht der Fall ist und man die ursprünglich aufgenommenen Sinustöne und die Intervallstrukturen der Tongemische meistens noch deutlich heraushört. Nur in extrem tiefer Tonlage, wie sie am Schluß der Studie zu hören ist, erscheinen die verhallten Tongemische weitgehend geräuschhaft verfremdet - dort allerdings um den Preis, daß man die komponierten Tonhöhen- und Lautstärkedifferenzierungen und die Abgrenzungen zwischen verschiedenen Tongemischen kaum noch heraushören kann. So wird deutlich, daß dem homogenen Partiturbild mit seinen Rechtecken und Trapezen kein einheitliches Klangbild entspricht: Verhallte Tongemische in verschiedenen Tonlagen und Bandbreiten können sich wesentlich stärker voneinander unterscheiden als verschiedene Töne oder Akkorde, die man auf dem Klavier spielt. Der vereinheitlichten Klangproduktion entsprechen nicht immer vereinheitlichte Klangresultate. Die Klangverfremdung der Verhallung sorgt dafür, daß sich spezifische klangliche Unterschiede ergeben, die aus dem Partiturbild allein nicht abgelesen werden können und sich erst im konkreten Höreindruck erschließen. Selbst in dieser genau durchkonstruierten Komposition ist zu erkennen, daß schriftlich Fixierbares und konkret Erklingendes nicht umstandslos in Einklang gebracht werden können und daß strukturelle Beziehungen zwischen aufgenommenen Klängen mehr oder weniger stark verwischt werden können, wenn Klangstrukturen im Studio klanglich verfremdet, z. B. verhallt werden.

Noch einen Schritt weiter ging Gottfried Michael Koenig, als er in seiner elektronischen Komposition "Klangfiguren II" nicht nur das Arsenal der aufgenommenen Klänge erweiterte, sondern auch die Technik der klanglichen Verfremdung radikalisierte: Neben Sinustönen und ihren Gruppierungen in Tongemischen verwendete er auch andersartige Klangmaterialien: Rauschklänge und Impulse. Auch diese Klänge konnten durch unterschiedlich feine Filterungen in verschiedenen Tonlagen mehr oder weniger genau der Tonhöhe nach differenziert werden und insofern in Konkurrenz zu den Sinustönen und ihren Gruppierungen treten. Damit war die Homogenität der frühen Elektronischen Musik aufgegeben und es ergab sich ein Nebeneinander verschiedener Klangfarben, vergleichbar dem Wechsel unterschiedlicher Instrumentalfarben in traditioneller Musik. Die Klangstrukturen aus Sinustönen, Rauschklängen und Impulsen werden in Koenigs Stück erst auf höherer Ebene vereinigt dadurch, daß sie in gleicher Weise klanglich verfremdet werden: Durch die Technik der Ringmodulation. Diese sorgt dafür, daß ein gegebenes Klangmodulation in der Modulation mit einem anderen farblich angereichert, meistens auch geräuschhaft verfremdet wird (dadurch, daß aus den Frequenzen der beiden modulierten Klänge sämtliche Summations- und Differenztöne gebildet werden, wobei sich harmonische, tonhöhenbestimmte in unharmonische, geräuschhafte Klangstrukturen verwandeln können). In Koenigs Stück wird die Technik der Ringmodulation zum klanglich vereinheitlichenden Prinzip für verschiedenartige elektronische, im Studio nach strengen seriellen Konstruktionsprinzipien produzierte Klangmaterialien. Dieses Verfahren der transformierenden Vereinheitlichung des ursprünglich Verschiedenartigen (das sich übrigens in seinen Klangresultaten nur in Ausnahmefällen exakt notieren läßt und daher meistens nur operational, mit Angaben über die Ausgangsmaterialien und zur Modulation, notiert wird) hat seit den sechziger Jahren auch Karlheinz Stockhausen übernommen, als er auch (im Orchesterstück "Mixtur" sowie in den instrumentalen bzw. vokalen Ensemblestücken "Mikrophonie I" und "Mikrophonie II") auch live gespielte Klänge oder (in der Tonbandkomposition "Telemusik") auch Aufnahmen traditioneller Musik in die Ringmodulation einbezog. Stockhausens 1970 entstandene Komposition "Mantra" ist für zwei ringmodulierte Klaviere geschrieben. In allen diesen Kompositionen finden sich Beispiele dafür, daß die Trennung zwischen Klangstrukturierung und Klangtransformation, die sich schon in den ersten Jahren elektronischer Klangproduktion vorbereitet hat, längerfristig zu grundlegenden Änderungen führen mußte, die sogar nach einiger Zeit die bis dahin für selbstverständlich gehaltenen Produktionsbedingungen in Frage stellten, wenn sie die Klangproduktion aus der Exklusivität des Studios heraus verlagern in den Konzertsaal einer live-elektronischen Aufführung.

Sobald in der Elektronischen Musik die elektronischen Klangtransformationen sich durchzusetzen begannen und überdies heterogene Klangmaterialien zugelassen wurden, stellte sich die Frage, ob weiterhin die strengen Prämissen der "klassischen" seriellen Kompositionstechnik aufrecht erhalten bleiben konnten, nach denen die verwendeten Klänge in allen Elementareigenschaften (Höhe, Dauer, Lautstärke) exakt bestimmt sein mußten. Selbst dann, wenn die Ausgangsmaterialien seriell strukturiert waren, blieb zweifelhaft, ob diese Strukturierung auch nach mehr oder weniger weitgehenden klanglichen Verfremdungen noch wirksam bleiben konnte - zumal dann, wenn die klanglichen Verfremdungen sich nicht in vergleichbarer Weise seriell strukturieren ließen wie die Ausgangsmaterialien (sei es aus musikalischen, sei es aus technischen Gründen). Vor allem in der Elektronischen Musik Gottfried Michael Koenigs läßt sich deutlich verfolgen, wie im Zuge der Akzentverlagerung von der Klangproduktion auf die Klangtransformation klassische Prinzipien der seriellen Strukturierung mehr und mehr an Bedeutung verloren und statt dessen neue Fragen nach musikalischen Zusammenhängen zwischen verschiedenen transformierten Klängen sich stellten. Schon in der 1957 realisierten Komposition "Essay" kam es so weit, daß für die verschiedenen Abschnitte des Stückes weniger die seriell konstruierten Ausgangsmaterialen von Belang waren als die verschiedenen Varianten desselben Ausgangsmaterials. In jedem Abschnitt dominierte ein anderes Ausgangsmaterial mit seinen Transpositions-Varianten, so daß trotz der wechselnden Ausgangsklänge die gleichbleibende Varianten-Technik als vereinheitlichendes Formelement wirksam werden konnte.

Noch einen Schritt weiter ging Koenig in der 1962 entstandenen Komposition "Terminus" (die später, nachdem unter abgewandelten Titeln verschiedene Alternativfassungen entstanden waren, den Titel "Terminus I" erhielt). Hier beschränkte der Komponist sich auf ein einziges Ausgangsmaterial: Ein Glissandoknäuel. Es wurde in kleine Stücke zerschnitten, die in unterschiedlicher Weise klanglich transformiert wurde; dabei wurden auch die letzten Spuren serieller Strukturierung unkenntlich, die ursprünglich in den Ausgangs-Frequenzen der Glissandi des Glissando-Knäuels noch erkennbar gewesen sein mögen. Die so gewonnenen Klang-Fragmente wurden nun ihrerseits als Elementar-Materialien höheren Grades angesehen und, in vier verschiedenen Varianten, nach seriellen Prinzipien zu Montagestrukturen zusammengefügt. Aus diesen Montagestrukturen und ihren aus Klangtransformationen entwickelten Varianten sind die Abschnitte des Stückes gebildet. In diesem Stück ist die serielle Strukturierung des Ausgangsmaterials offensichtlich noch weniger wichtig als in "Essay", mit dem es im übrigen die abschnittsweise wechselnde Reihung von Transformations-Varianten desselben Ausgangsmaterials gemeinsam hat. Nicht nur bei der Analyse der Arbeitsaufzeichnungen des Komponisten, sondern auch beim Hören des Stückes kann deutlich werden, daß das Verfolgen des Weges von einer Transformation zur anderen wichtiger ist als die (auf Tonlage und Zeitstruktur konzentrierte) serielle Strukturierung eines Ausgangsmaterials, die in dessen verschiedenen Varianten weitgehend unverändert erkennbar bleibt. Allerdings kann der Hörer nicht ohne weiteres erkennen, ob und inwieweit die Abfolge der Varianten sich aus dem Aufbau der Ausgangsstruktur ergibt. Auch in diesem Stück mit seinen stammbaumartigen Material-Verzweigungen und -Ableitungen ergibt sich nicht ohne weiteres ein vom kleinsten Detail bis in die Großform hinein wirksamer musikalischer Zusammenhang. Selbst die strengste Beschränkung auf ein einheitliches kompositorisches Ausgangsmaterial bietet nicht ohne weiteres die Gewähr dafür, daß die Utopie der vollständigen, alle Formdimensionen erfassenden kompositorischen Konstruktivität sich im musikalischen Zusammenhang tatsächlich konkretisiert.

Schlußbemerkung

Elektronische Musik als streng synthetische konstruktivistische Klangkunst markiert eine Extremposition in der Musikentwicklung des 20. Jahrhunderts, die sich leichter in rigorosen Postulaten einer Theorie beschreiben läßt als in der kompositorischen Realität, die stark von den jeweils gegebenen technischen Gegebenheiten und den Strukturen des Musiklebens geprägt ist. Dennoch ist es aufschlußreich, über Möglichkeiten und Grenzen dieses musikalischen Ansatzes nachzudenken - sei es bezogen auf die analoge elektronische Musik, wie sie sich seit den 1950er Jahren entwickelt hat, sei es bezogen auf vergleichbare spätere Entwicklungen in der Computermusik. Die Dialektik zwischen dem Wunsch nach möglichst weitgehender kompositorischer Gestaltungsfreiheit und dem Bedürfnis nach technisch und ästhetisch konsistenter kompositorischer Konstruktuion bestimmt die Entwicklung der technisch produzierten Musik und insbesondere der Elektronischen Musik von ihren Anfängen bis heute.



Es gibt folgende untergeordnete Dokumente:


[Zurück]   [Vor]   [Hoch]   [Startseite]        [Index]   [Frisius-Homepage]