Startseite
 Aktuelles
 -> Wissenswertes über Musik und Technik
  -> Live-Performance
 Musikdownloads
 Videos
 Bilder
 Biographie
 Kontakt
 Termine
 Links
 Impressum
 Datenschutz
 
 © Peernet.de 

Klangfalter Dennis Erlbeck


Live-Performance

Vorwort

Der folgende fragmentarische Text vom Sommer 2007 fasst einige meiner Gedanken zur Live-Performance elektronischer Musik zusammen. Der hier abgedruckte Text ist eine deutsche Übersetzung ( Übersetzung: Cornelia Albring), das englische Original befindet sich auf meiner Website, siehe unten. Auf der Website befindet sich ebenfalls ein weiterer Text, der als Fortsetzung dieses Textes zu verstehen ist. 

Robert Henke.


Live-Performance im Zeitalter des Super-Computing

Über Live-Electronik wurde schon viel gesagt und geschrieben, insbesondere seit so viele von uns die Club- und Festivalbühnen mit ihren Laptops in Beschlag nehmen. Um dieser Art des Konzerts einen Namen zu geben, wurde der Begriff Laptop-Performance erfunden - er stammt vermutlich von Journalisten, die verzweifelt auf der Suche nach einem eingängigen Bild waren für etwas, das sie sehen aber nicht einordnen konnten. Mir gefällt dieser Begriff nicht sonderlich gut. Denn für mich ist der Laptop einfach ein musikalisches Werkzeug unter vielen. Und der einzige Grund, ihn auf der Bühne einzusetzen, ist für mich die Tatsache, dass der Laptop als ein transportabler Super-Computer in der Lage ist, ganze Racks von Hardware zu ersetzen.

Der Laptop an sich leistet keinen musikalischen Beitrag. Es wird keine "Sinfonie für Dell" komponiert, keine "Suite für sechs Vaios" oder "Zwei Abstürze für Power PC" aufgeführt - es sei denn, man ist sehr ironisch. Vielmehr ist es die Software auf einem Laptop, die ihn zu einem Instrument macht. Und an dieser Stelle wird es kompliziert. Zwar blickt das Publikum auf den Laptop, während die Musik spielt, doch wodurch genau diese Musik entsteht und wie der Musiker mit diesem Werkzeug interagiert bleibt gänzlich undurchsichtig. Der Laptop ist nicht das Instrument - das Instrument ist unsichtbar. Hinzu kommt, dass zumeist nicht nur ein einzelnes Instrument zu hören ist und dass es auch nicht von einem Performer "gespielt" wird, was die Sache noch undurchsichtiger macht. Was wirklich geschieht und für das Publikum absolut nicht zu entschlüsseln ist, ist besser zu beschreiben als ein ganzen Ensemble von Instrumenten, das von einer unsichtbaren Band im Inneren des Laptops gespielt wird. Der sichtbare Teil ist der Performer, der das Werk dirigiert, allerdings auf eine eher langweilig wirkende Art und Weise - zumindest, wenn man es mit jemandem vergleicht, der mit vollem körperlichen Einsatz ein Orchester von eigensinnigen Berufsmusikern durch eine Sinfonie treibt.

Die minimale Differenz zwischen pianissimo und einer Wand aus Lärm? Ein Pixel, 0,03mm.

Was den Laptop-Live-Act darüber hinaus zu einem Rätsel macht, ist die Tatsache, dass es dem Publikum kaum helfen würde, zu wissen, welche Software im Verlauf der Performance auf dem Laptop zum Einsatz kommt. Denn in vielen Fällen wird für die Aufführung eine andere Software verwendet als für das Komponieren der Musik. Selbst wenn diese identisch sind, so unterscheidet sich der Prozess des Aufführens doch wesentlich von dem des Komponierens. Wollen wir verstehen, was eigentlich passiert, wenn jemand an einem Laptop auf der Bühne musiziert, ist es notwendig, tiefer einzutauchen - sowohl in die Technik als auch in die Geschichte der elektronischen Musik.


Kapitel I - Das unsichtbare Instrument

Jedes Mal, wenn ich danach gefragt werde, was ich so mache, und ich antworte ich darauf: "Musik" schließt sich die unumgängliche Frage danach an, welches Instrument ich spiele. In der Erwartung, dann die nächste halbe Stunde lang alles genau erklären zu müssen, erröte ich und murmle: "Computer." (Aufgrund meiner Tätigkeit bei Ableton kann ich mittlerweile sagen, dass ich an Software arbeite. Meist bleiben weitere Fragen dann aus.)


Wie spielt man eigentlich auf einem Computer? Indem man rhythmisch auf den Bildschirm klopft? Mit einem Bogen? Mit einem Hammer? (Manchmal!) Der eigenartige Blick, der einen trifft, wenn man zugibt, Computermusik zu machen, zeigt, dass dieses "Instrument" nicht ohne Weiteres in den bekannten Kreis der Musikinstrumente gehört. 

Warum nicht?

Damit ein klassisches, nicht-elektronisches Instrument Klang erzeugen kann, ist es auf eine andauernde Interaktion mit dem Musiker angewiesen. Die spezifischen physikalischen Eigenschaften des Instruments bestimmen dessen Klang und die Art und Weise, wie es zu spielen ist. Die erklingende Musik ist das Ergebnis der Eigenschaften des Instruments und der Fähigkeiten des Spielers. Die Zuhörer verstehen die Funktionsweise, auch falls sie selbst kein Instrument spielen. Es ist offensichtlich, dass ein sehr kleines Instrument anders klingt als ein sehr großes, dass ein Orchester am lautesten und am vielschichtigsten klingt, wenn jedes seiner Mitglieder stark in Bewegung ist, und dass das Zusammenschlagen zweier Oberflächen ein entsprechendes Geräusch erzeugt, je nachdem, wie das Material beschaffen ist. 

Eine ganzer Zweig von Filmwitzen basiert auf dieser universellen Erfahrung und diesem Allgemeinwissen. Wenn das Schlagen eines Kopfes mit einer Pfanne ein Geräusch wie "boioiooioioioioionnggggg" verursacht, dann ist das Komische daran die Diskrepanz von Erwartung und Ergebnis. Wie soll man nun jemandem erklären, warum das Drücken der Leertaste auf einem Computer einmal wie Bruce Springsteen klingt und ein anderes Mal gar kein Geräusch macht?!  Zudem ist bei "echten" Instrumenten offenbar, dass die Präzision, das Tempo, die Lautstärke, Dynamik, Reichhaltigkeit sowie die Variation im Klang das Ergebnis harter Arbeit sind und dass es der Übung, Ausbildung und des Talents bedarf, um ein Meister auf diesem Gebiet zu werden. - Wenn sich der Musiker nicht bewegt, herrscht Stille.

Es gibt jedoch auch Ausnahmen von dieser Regel, und es überrascht kaum, dass diese Instrumente eine gewisse Ähnlichkeit mit elektronischen Instrumenten haben. 

Betrachtet man beispielsweise eine (motorgetriebene) Kirchenorgel, stellt man fest, dass der Spieler bereits durch das einfache Auflegen von Gewichten auf die Tasten beliebig lang klingende Töne hervorbringen kann, ohne weitere Aktion. Zu nennen wären auch die mechanischen Spielzeuge, die in der Lage sind, Melodien abzuspielen, welche in Form eines bestimmten Musters aus kleinen Stiften auf einer rotierenden Metallwalze vorgegeben sind. 

Schon die Kirchenorgel ist eine bemerkenswerte Stufe weit entfernt von einem intuitiv zu verstehenden Instrument. Der Organist sitzt an einer Stelle, der Klang ertönt aus Pfeifen, die an einer ganz anderen Stelle befestigt sind. Ersetzt man die mechanischen Register durch elektromagnetische Ventile und den Spieler durch eine Papierrolle mit gestanzten Löchern, so würde die Musik präziser gespielt werden, als es ein Mensch überhaupt könnte. 

Das obige Bild zeigt ein Ampico Player Piano von Marshall & Wendell, wie es in den 1920er Jahren gebaut wurde. Der Komponist Conlon Nancarrow nutzte es zur Umsetzung von Kompositionen, die für den Menschen nicht spielbar sind.

Weiterhin ermöglichte die Erfindung der Elektrizität die Entwicklung von noch viel komplexeren "selbst spielenden" Instrumenten. Nicht zuletzt aufgrund des technischen Fortschritts in Elektronik und Informatik wurden diese musikalischen Maschinen handlich genug und somit erschwinglich sowie im Klang reichhaltig genug, um auch für Komponisten interessant zu sein. Derzeit gibt es zwei Haupttypen von elektronischen Instrumenten: zum einen die, welche für klassische Instrumentalisten hergestellt werden und meistens mit einem mechanischen Keyboard ausgestattet sind; zum anderen die Instrumente für Komponisten, mit denen man Musik aufnehmen, editieren und bearbeiten kann. Darüber hinaus gibt es natürlich noch alles, was dazwischen liegt.


Ersetzt man einen Musiker durch ein Klangerzeugungsgerät, das direkt von einer Notenfolge aus gesteuert wird, entledigt man die Musik des unvorhersehbaren Charakters des menschlichen Spiels und gewinnt präzise Kontrolle über das musikalische Ergebnis. Sehr viel historische Computermusik und gewiss auch ein großer Teil der gegenwärtigen elektronischen (Tanz-)Musik wurde ohne den Einsatz von Musikern umgesetzt, die in Echtzeit ein Instrument spielen. Stattdessen wirkt der Komponist als kontrollierende Instanz, als Dirigent und als System-Operator, der festlegt, welches Element an welcher Stelle auf der Zeitachse zu platzieren ist. Dieser Prozess unterscheidet sich in seinem Wesen stark von dem eigentlichen Aufführen von Musik, denn er findet nicht in Echtzeit statt und ist somit viel enger verwandt mit Architektur, Malerei, Bildhauerei oder den Ingenieurswissenschaften.

Während der Komposition elektronischer Musik erlaubt dieser nicht in Echtzeit stattfindende Prozess nahezu unendliche Komplexität und Detailreichtum, da jeder Teil des Stücks wieder und wieder verändert werden kann. Auch hier ist es der technologische Fortschritt, der dies in einem zuvor undenkbaren Ausmaß ermöglicht. Musikalisch leben wir in einer Welt des ´Undo´ und des Denkens in Version. Der Computer ist das perfekte Werkzeug, wenn es um derartige Operationen geht. Zudem vermag er es, zahlreiche Varianten desselben Werkes zu speichern und erlaubt extreme Präzision im Detail. Auch ist der gesamte Arbeitsablauf viel effizienter geworden als im klassischen Studio-Kontext mit einem gigantischen Mischpult, jeder Menge an Hardware und Apparaten und zehn ständig umherlaufenden Assistenten. Das Ergebnis von einigen Wochen Arbeit mit Musik-Software kann ein Musikstück sein, das vergleichbar ist mit der Leistung von 200 Musikern, fünf riesigen Racks mit verschiedenen Effektgeräten und einer massiven Schichtung von Instrumenten. Das ist in der Tat sehr beeindruckend. Und nun soll dies auf die Bühne gebracht werden ...


Kapitel II - Die Tonband-Konzerte

In den Anfängen der Computermusik war das Abspielen eines Tonbandes die einzige Möglichkeit ein Konzert zu geben. Das so genannte Tonband-Konzert war geboren, und dem Publikum fiel es sehr schwer, zu akzeptieren, dass "Konzert" in diesem Zusammenhang bedeutete, dass jemand am Anfang die Play- und am Ende die Stop-Taste drückte. Ironischerweise haben wir alle ein halbes Jahrhundert später schon viele Male dieselbe Erfahrung gemacht, nämlich häufig wenn jemand mit seinem Laptop auftritt. Es ist nicht nur absurd, sondern zumeist auch gänzlich unmöglich, live auf der Bühne zu versuchen, eine komplexe elektronische Komposition von Grund auf wieder zu erschaffen.

Die Schwachstelle ist hierbei nicht, dass heutige Computer nicht alle Klangebenen in Echtzeit erzeugen könnten, sondern vielmehr, dass es einem einzelnen Spieler nicht möglich ist, diesen Prozess auf eine sinnvolle und im Ausdruck angemessene Art und Weise zu steuern. Wenn jemand alle Orchesterinstrumente besäße und sogar imstande wäre, sie alle zu spielen, wäre es für diese Person immer noch unmöglich, allein eine Sinfonie aufzuführen.

Die Computermusiker in der Mitte des 20. Jahrhunderts hatten keine Alternative - das Tonband-Konzert war die einzig mögliche Präsentationsform für ihre Arbeit, da alle computergenerierte Musik in einem nicht in Echtzeit stattfindenden Prozess geschaffen wurde. Für das Erzeugen des Klanges benötigte der Computer viel mehr Zeit als die Klangsequenz selbst dauerte. Bis vor circa zehn Jahren war das in Bezug auf des Entwickeln und Modifizieren von komplexen Klängen relativ normal, womit sich auch erklären lässt, warum das gesamte Gebiet der Live-Performance mit dem Laptop als einziger Ausstattung noch weitgehend unerschlossen ist. Schon in den 1930er Jahren gab es in Echtzeit einsetzbare elektronische Instrumente, wie etwa das Theremin oder Oskar Salas Mixtur-Trautonium. Aufgrund Ihrer Ausrichtung auf einen einzelnen Spieler und mit ihrer Ähnlichkeit zu akustischen Instrumenten, was ihren Ausdruck und ihre Spielweise anbelangt, waren sie in ihrer Komplexität begrenzt. Auch wurden sie gar nicht mit dem Anliegen konzipiert, ein komplettes Orchester durch eine Maschine zu ersetzen.

Um unser Ziel, das Laptop-Performance-Dilemma zu lösen, weiterzuverfolgen, erscheint die Idee des Tonband-Konzerts eher als interessant, da dies unserer Art mit Laptops zu arbeiten und zu spielen viel ähnlicher ist.

Obwohl die beschriebenen Musik-Events als Tonband-Konzerte bezeichnet wurden, hatte man auch den Lautsprecher als Instrument verstanden. Denn die Lautsprecher waren für das Publikum sichtbar, genau wie der Tape-Operator an Mischpult und Tonbandgerät. Während die Lautsprecher sich - quasi als Ersatz für die Musiker - auf der Bühne befanden, saß der Tape-Operator in der Mitte oder am hinteren Ende des Besucherraums. Schon optisch war somit klar, dass er nicht der Musiker war, sondern eben der Vorführer. Diese Konstellation hatte einen rein praktischen Hintergrund.

Vergleichbar mit der Rolle des Dirigenten war der Tape-Operator verantwortlich dafür, den Klang der Aufführung zu steuern, was wiederum nur von einer Position nah genug am Publikum möglich war. Als die Komponisten begannen, mehrere Lautsprecher einzusetzen, wurde dies umso wichtiger. 

Bald boten Tonband-Konzerte mit mehreren Lautsprechern dem Tape-Operator Raum, sich kreativer auszudrücken. Eine ganze Performance-Richtung basiert auf dem Konzept der räumlichen Verteilung von Stereo-Aufnahmen auf mehrere, oft verschieden klingende Lautsprecher, die alle um den Zuhörer herum aufgestellt sind. Einem guten DJ ähnlich, transportiert auch der Tape-Operator die musikalische Komposition vom Medium in den Raum und bearbeitet währenddessen ihren Klang.

Ein DJ erzeugt aus verschiedenen Quellen Stereo-Signal, der Zeremonienmeister des Tonband-Konzerts verteilt ein Stereo-Signal dynamisch an mehrere Lautsprecher, um die größtmögliche Wirkung zu erzielen. Das kann ein erstaunliches Erlebnis sein. Der Tape-Vorführer muss sich dafür jedoch im "Auge des Sturms", inmitten des Publikums befinden.

Der DJ hat viel mit dem Tape-Operator gemeinsam: Beide nehmen komplette vorab aufgezeichnete Musikstücke und setzen diese in einen neuen Kontext. Der eine durch die Verteilung im Raum, der andere durch die Kombination mit anderer Musik. Niemand im Publikum, der Chorgesang von einer Schallplatte hört, würde annehmen, dass in diesem Moment tatsächlich ein Chor aus vielen winzig kleinen Sängern in einer schwarzen Vinylscheibe freudig vor sich hin musiziert. Wir alle kennen die wirkliche Funktionsweise und beurteilen den DJ nach anderen Kriterien als nach der Intonation des Mikro-Chors im Inneren der Schallplatte. Ein gutes DJ-Set bietet alles, was man überhaupt von einer guten Performance erwarten kann. Dabei verstehen wir den kompletten Prozess, sind in der Lage, die Fähigkeiten des DJs zu beurteilen, und vor allem verstehen wir das Wechselspiel zwischen den dem Input des DJs und dem erklingenden musikalischen Ergebnis. Wir haben gelernt, das Instrument "Plattenspieler und Mixer" zu bewerten. Dasselbe gilt für die Verteilung von vorab aufgezeichneter Musik auf mehrere Lautsprecher. Wenn wir also das Konzept einer Performance verstehen, hilft dieses Verständnis dabei, die Qualität der eigentlichen Aufführung unabhängig von der Qualität des tatsächlich aufgeführten Stückes einzuschätzen.

Das erste Notebook, das schnell genug war für Echtzeit-Audio-Processing 1999

Auch wurde das klassische Tonband-Konzert üblicherweise von einer Einführung oder einem entsprechenden Schriftstück umrahmt, um dem Publikum einen Einblick in die Entstehung des aufgeführten Werkes zu gewähren. Mir erscheint diese Art des Konzert-Kontexts als sehr interessant, und es könnte möglicherweise auch jetzt noch als Vorlage für heutige Präsentationsformen von verschiedenen Arten elektronischer Musik dienen. 

Während in der akademischen Musikwelt Tonband-Konzerte weithin akzeptiert und verstanden werden, scheint es außerhalb dieses akademischen Kontexts einen Bedarf dafür zu geben, elektronische Musik "live" und "auf der Bühne" aufzuführen - unabhängig davon, ob das überhaupt möglich ist oder nicht. Meist werden die Produzenten dieser Musik von den Platten-Labels, aber oft auch von ihren eigenen Egos dazu gedrängt, aufzutreten. Nicht zuletzt ist es oft die einfache Tatsache, dass auch sie ihre Miete irgendwie zahlen müssen, die sie dazu bewegt, ihre Arbeit auf der Bühne zu präsentieren, obwohl diese Art der Musik nicht unbedingt als Performance angelegt ist und die Stücke während ihrer Entstehung weder "aufgeführt" noch "gespielt" werden.

Hört man ein solches weitestgehend aufgezeichnetes und vom Laptop abgespieltes Live-Set an, fällt es schwer, einen Ansatzpunkt für die Bewertung der eigentlichen Performance zu finden. So tendiert man oft dazu, dieses vorab aufgezeichnete Arrangement mit einem von Grund auf live improvisierten Stück zu vergleichen. (Auch eine solche improvisierte Darbietung auf dem Laptop ist mittlerweile möglich, solange man das reduzierte Maß an Komplexität in der Interaktion akzeptiert.) Uns fehlt ein Verständnis für die Arbeitsweise des Laptop-Performers auf der Bühne. Alles, was wir sehen ist der im Dunkeln leuchtende Apfel und eine Person, deren genaue Handlungen sich uns nicht erschließen, selbst wenn wir mit den angewandten Werkzeugen vertraut sind. 

Nicht nur für das Publikum ist dieses Szenario unbefriedigend, sondern auch für den auftretenden Komponisten. Denn wenn das Publikum die Qualität der Performance nicht wirklich zu bewerten vermag und stattdessen nur die Qualität des aufgeführten musikalischen und bildlichen Werkes beurteilen kann, könnte es sich auch von einer prätentiösen Performance täuschen lassen. Es könnte eine gänzlich improvisierte und potenziell von zahlreichen Fehlern durchzogene Performance vergleichen mit der Aufführung eines vorab durchkomponierten und gut balancierten Musikstücks, ohne in der Lage zu sein, die beiden voneinander zu unterscheiden. Auch der Performer selbst wünscht sich möglicherweise mehr Flexibilität, mehr Bewegung, mehr Interaktion oder fühlt sich eventuell einfach unwohl, allein auf einer 5x15 Meter großen Bühne, die Blicke des Publikums auf ihn gerichtet in der aufgeregten Erwartung einer großartigen Show, die er so nicht bieten wird.

Demnach funktioniert das klassische Tonband-Konzert gut in Situationen, in denen vorab aufgezeichnete Stücke präsentiert werden, das Publikum sich darüber im Klaren ist und wenn der Tape-Operator in der Mitte oder zumindest in der Nähe des Publikums und vor den Lautsprechern platziert werden kann. Aus diesem Grund ist es auch kein adäquater Ersatz für ein typisches Rock´n´Roll "Live"-Konzert und auch nicht für eine Performance im üblichen Tanz-Club-Kontext geeignet. Wenn das Tonband-Konzert also keine Lösung ist, dann stellen sich Fragen: Wie können eine wirkliche Performance und die Interaktion auf der Bühne gestaltet sein? Wie kann ich dem Publikum nahe bringen, was auf der Bühne vor sich geht, ohne dies durch das Verteilen von lagen Texten oder einen zehnminütigen Einführungsvortrag zu versuchen?


Kapitel III - Das Goldene Zeitalter der Hardware

Historisch betrachtet ist akademische Computermusik sehr eng mit der Erforschung von Instrumenten und Interfaces verknüpft. Auch das typische Konzertpublikum weiß alle möglichen experimentellen Setups zu schätzen oder akzeptiert dies, selbst wenn das Ergebnis nicht vollkommen zufrieden stellend sein sollte. Ich erinnere mich an ein Konzert, das vor einigen Jahren im Rahmen einer Konferenz für Computermusik in einer Kirche stattfand. Auf den Tischen vor uns befand sich eine Reihe sehr teurer Silicon-Graphics Computern sowie eindrucksvollen Racks mit Elektronik unbekannten Ursprungs.

Mit Sicherheit übertraf der geschätzte Wert dieses Ansammlung von Geräten den Wert der Kirche selbst bei weitem. Das Konzert: Licht aus, Spot an, fünf Musiker nehmen ihre Plätze hinter den Bildschirmen ein, das Publikum in stiller Erwartung, während die Aufführenden sich auf das Kommende vorzubereiten schienen: Der Klang von konzentriertem Hacken auf den Computer-Keyboards, ab und zu ein Klick mit der Maus, und endlich hebt einer der Performer seine linke Hand, ausgestattet mit einem neuen Eingabe-Gerät namens Datenhandschuh. Als Resultat einer plötzlichen dramatischen Geste seiner Hand ertönte mit circa mit einer Sekunde Verzögerung ein lauter und stechender Klang aus den Lautsprechern - eine Art  langes digitales Miauen einer gequälten Katze und dies leider auch nicht milde in schönen Hall eingebettet. Die anderen Performer starrten weiterhin auf ihre Bildschirme mit gelegentlichen Betätigungen von Maus und Keyboard, während derjenige mit dem Handschuh seine dramatischen Gesten weiterführte, die allesamt in diverse Miiiiaauuuuuuuuuuuuuusssssss transformiert wurden, wobei jedes Mal diese eine Sekunde zwischen der Bewegung des taktilen Geräts und dem Erscheinen des Klanges lag.

Mmiiiaaaauuuuuuuuiiiiiiiiaaaauuuuuuuuuuu....iuiuiuuiuiuiuiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii.... Dem Großteil des Publikums erschien das nicht besonders eigenartig oder lustig, aber mir fiel es wirklich schwer, nicht laut loszulachen - bei kompletter Nüchternheit. Letztendlich ist der Datenhandschuh nicht in den Mainstream der Musikszene eingegangen, dennoch kann man offenbar in einer Performance, in der eine Art von Dramatik auf der Bühne in ein nachvollziehbares musikalisches Ergebnis überführt wird, ein gewisses Potenzial erkennen.

Anders als deren Aufführung, war das Komponieren akademischer Computermusik von Anfang an eher ein Prozess, der nicht auf Echtzeit basierte. In den späten 1960er Jahren tauchten die ersten kommerziellen Synthesizer auf, die mit einer Klaviertastatur ausgestattet und dafür konzipiert waren, von Musikern gespielt statt von Ingenieuren betrieben zu werden. Und plötzlich wurde der elektronische Sound für richtige Musiker zugänglich. Dies wiederum führte nicht nur zu eindruckvollen Burgen aus Moog-, Oberheim-, Yamaha- und Roland-Keyboards auf der Bühne, sondern auch zur bewussten öffentlichen Wahrnehmung von elektronisch erzeugten Klängen. Die Höhepunkte dieser Entwicklung bildeten die Bühnen-Shows von Elektronik-Post-Rock-Bands wie Tangerine Dream und Kraftwerk in den späten 1970er und frühen 1980er Jahren.

Das Publikum sah eine Gruppe von Leuten hinter beeindruckenden Mengen von Technik, blinkenden Lichtern, großen Mischpulten und grün schimmernden Computer-Terminals - ein Abziehbild der Zukunft auf der Bühne. Es war zudem völlig unvorstellbar, wie all diese neuen und zuvor nie gehörten Klänge aus diesen Maschinen kamen. Doch aufgrund der Menge von Apparaten und der fehlenden Speicherbarkeit des Ganzen wurde die Bühne zu einem Ort, an dem viel geschah und zwar die gesamte Performance hindurch: Kabel waren an modulare Synthesizer anzuschließen und wieder abzutrennen, Regler mussten verschoben werden. Große Floppy-Disks wurden vorsichtig in Geräte eingelegt, die die Menschen zuvor noch nie gesehen hatten, geschweige denn je im Besitz eines dieser kostbaren Stücke gewesen wären. Zudem mussten komplexere musikalische Parts immer noch mit der Hand gespielt werden. Das Kontert als ein Ereignis - bemerkenswert und voll von technischer Magie. Das Konzert war eine einzigartige Gelegenheit, zu erleben, wie elektronische Musik erschaffen wurde - und das live: Ein ganzes elektronisches Studio, auf der Bühne aufgebaut und von einer Handvoll Experten in Echtzeit betrieben. Großes Theater, großes Pathos und manchmal auch großartige musikalische Ergebnisse.

Die gigantischen Keyboard-Stapel sahen nicht nur einfach nur gut aus auf der Bühne, sondern es waren dieselben Instrumente, die bereits vor dem Konzert für die Aufnahmen im Studio zum Einsatz gekommen waren. Sie auf die Bühne zu bringen, war die klarste und direkteste Art und Weise, elektronische Musik aufzuführen, und da diese Geräte einen so unglaublichen Wert hatten, waren die Kosten für den Transport und die Instandhaltung beinahe vernachlässigbar. Wer sich solches Equipment leisten konnte, hatte sicherlich genug Alben verkauft, um den Transport zu finanzieren und somit ein großes Publikum in seine Konzertshows zu locken - das klassische Rock-Motto: Musik für die Massen. So sieht die Vergangenheit aus, das goldene Zeitalter der elektronischen Super-Bands und die Zeiten extrem teurer Hardware. In den späten 1980er Jahren änderten sich die Umstände mit dem Aufkommen von preiswerter Computertechnik dramatisch. Elektronische Musik zu machen wurde nun mit den ersten heimcomputergestützten MIDI-Sequenzern für eine breitere Menge von Menschen erschwinglich. Das hatte nicht nur Einfluss auf den schöpferischen Prozess, sondern auch auf die Performance.


Kapitel IV - Ruhm und Miniaturisierung

Wenn es möglich ist, in einem Schlafzimmer elektronische Musik zu komponieren, dann muss es auch möglich sein, den Inhalt dieses Schlafzimmers (ohne Bett) auf die Bühne zu bringen. Das Equipment lies sich plötzlich im Kofferraum eines Autos zu Events in Konzerträumen transportieren, die man vorübergehend im Keller einer verlassenen Lagerhalle eingerichtet hatte, ohne Bühne, nah am Publikum und nach Möglichkeit auch nahe der Bar. Der revolutionäre Gegenentwurf zu den gigantischen Bühnenshows der vorangegangenen Dekade war das unauffällige und bühnenferne Auftreten des Techno-Produzenten in den frühen 1990er Jahren.

Das Equipment wurde kleiner und auch die Distanz zwischen Performer und Publikum. Ich erinnere mich an die Nächte in Berliner Clubs zu dieser Zeit, Nächte in denen ich den Performern dabei zusah, wie sie ihren Roland TR-808 Drum-Computer bedienten oder Patterns auf Atari-Computern umschalteten. Die Musik war rau, hatte eine Struktur, die einfach genug war, um als das direkte Ergebnis der Handlungen des Performers entschlüsselt werden zu können. Aufflackernde Lichter an Mixern, alle Finger an den Reglern, Blickkontakt mit dem Partner, und hier kommt der Break! Es waren ekstatische Momente, erschaffen mit preiswertem und leicht zu bedienendem Equipment inmitten des Publikums - undurchsichtig genug, um faszinierend zu sein, dennoch ein offenes Buch für die Interessierten und in jedem Falle sehr direkt und eben live! Es gehört zur Tragik jedes historischen Moments, dass sein Ende durch dieselben Kräfte herbeigeführt wird, die ihn überhaupt erst ermöglicht haben. Computer wurden erschwinglicher und leistungsstärker, so dass zunehmend komplexe Funktionen versteckt in dieser kleinen Kiste ausgeführt werden konnten.

Diese Entwicklung hat die elektronische Live-Performance dramatisch verändert. Je mehr Operationen ein Computer im Schlafzimmer-Studio ausführen konnte, desto komplexer konnte der musikalische Output sein und umso weniger war es möglich, dieselben Resultate live wieder zu erzeugen. Ein einfaches Techno-Stück mit einer Roland TR-808, einigen Effekten und Synthesizer-Klängen kann als ein endlos variierender Track über Stunden abgespielt werden. Es ist viel schwieriger, einen typische Drum-&-Bass-Track mit all seinen Time-Stretches, Sampling-Tricks, gewissenhaft ausgetüftelten und gut balancierten Breaks live zu erzeugen, und dies zeigt in den meisten Fällen auch die Grenzen der echten Live-Performance auf. Um ein derartig komplexes Werk zu reproduzieren, bedarf es mehrerer Spieler. Es sei denn, die meisten Parts sind vorab aufgezeichnet. Dieser Umstand hat dazu geführt, dass viele Performances den Tonband-Konzerten sehr ähnlich geworden sind - wenn beispielsweise ein ganzes Stück, gestartet durch einen Maus-Klick, abgespielt wird und der Performer dem Computer lediglich bei der Arbeit zusieht.

All das wäre kein Problem, wenn die Performances in ihrem Aufführungspraxis die Komplexität der Musik widerspiegelten, doch oftmals geschieht das nicht. Vielmehr erleben wir Performer, die eher vortäuschen, wichtige Einstellungen oder kleine Veränderungen an der zumeist bereits festgelegten Musik vorzunehmen. So wird der Performer zum Sklaven seiner Maschine, abgetrennt von seinem eigenen Werk sowie vom Publikum. Dies wiederum hängt unter anderem mit dem zweiten großen Motor des Wandels zusammen: dem Ruhm. Er bringt den Performer auf die Bühne und distanziert ihn somit vom Publikum. Die Miniaturisierung bringt das Orchester in den Laptop. Die Kombination aus Ruhm und Miniaturisierung ist äußerst wirksam als Performance-Killer. 

Als ich anfing, elektronische Musik vor Publikum aufzuführen, war das stets in betont nichtkommerziellen Kontexten, was mir sehr gefiel. Die Menschen kamen wegen der Musik und nicht wegen eines berühmten Namens auf einem Poster. Die Nähe zu den Zuhörern verstärkte mein Gefühl, Teil einer gemeinsamen Idee zu sein.

Eine solche Nähe ließ eine hochgradig kommunikative Atmosphäre entstehen, eine Interaktion mit dem Publikum war möglich und gewollt. Hat man jedoch einmal eine gewisse Berühmtheit erreicht, funktioniert dies nicht mehr so. Der Elektro-Künstler, nach vielen Jahren im musikalischen Untergrund mittlerweile international bekannt, tritt nun auf der Bühne auf und steht beim Spielen nicht mehr an einem kleinen Tisch neben der Bar. Denn das Publikum wünscht sich, überwältigt zu werden und ein Idol zu erleben statt eines normalen, alltäglichen Menschen. Und es erwartet von einem Konzert dasselbe großartige Hörerlebnis wie von den Tonträgern. Dies in Echtzeit zu reproduzieren ist unmöglich. Dennoch hat der "Star" keine wirkliche Wahl. Er spielt die zum großen Teil aufgezeichnete Musik ab. Von einem Laptop. Weit entfernt vom Publikum. Erhöht. Einsam. Statt dem Publikum die Live-Komposition von elektronischer Musik nahe zu bringen und mit ihm spontan in Kontakt treten zu können, beobachtet der Künstler wie die Musik auf der Timeline abläuft und bemüht sich, durch das Hinzufügen einiger Effekte das Beste aus der Situation zu machen.

Abgesehen davon, dass das Publikum in dieser Situation denken könnte, man rufe sein E-Mails ab oder recherchiere nach günstigen Flügen, ist eine solche Konstellation auch für den Performer überaus unbefriedigend. Das Aufführen von elektronischer Musik auf der Bühne ohne akustisches Feedback aus dem Raum, während man sich ausschließlich auf die Bühnenmonitore verlässt, ist zumeist eine große Herausforderung und selten ein Vergnügen. Die Qualität des Sounds könnte stark verbessert werden, wenn wir die Musik auf der Bühne so hörten, wie das Publikum sie hört. Die wohl schwierigste Situation, in die man gelangen kann, ist das klassische Rock-Setup. Zwei Türme aus gigantischen Lautsprechern, schlechte Bodenmonitore und ein einsamer Performer, eingehüllt in Nebel an einem Tisch stehend und sich hinter dem Laptop versteckend. Üblicherweise gibt es weder einen Tontechniker platziert mit seinem Mischpult mitten im Publikum, der versteht, was man aufführen will und wie es klingen soll, noch gibt es Band-Kollegen, die etwas zur Unterhaltung beisteuern können. Stattdessen gibt es dich und deinen Laptop. Um ein solches Szenario zu überstehen, dreht man die Lautstärke am besten weit auf, spielt Stücke mit einem eher geringen Maß an Komplexität und hofft auf ein dank chemischer Substanzen aufgeschlossenes Publikum. Unglücklicherweise ist es in Konzerten, die sich außerhalb der Community der akademischen Computermusik abspielen, kaum möglich, in der Mitte des Publikums zu spielen. Gerade in Clubs ist das wegen der Tanzfläche oft nicht machbar. Zudem ist es vielleicht manchmal auch nicht das Beste, mit seinem Laptop dort mittendrin zu stehen. Selbst wenn sich ein Ort für eine solche räumlich zentrierte Aufführung anbietet, wie vielleicht auf einem Festival, und es einem in einer langen Diskussion gelungen ist, den Tontechniker ebenfalls davon zu überzeugen, sind immer noch die Ansprüche der Fans zu berücksichtigen: Sie wollen dich erhöht und auf der Bühne, sie wollen zu dir aufschauen und eine Show, wie sie es gewohnt sind, und kein komisches experimentelles Setup´.

Es gibt einen interessanten Unterschied zwischen dem Computermusik-Vorführer und einem Live-Act. Der zentral platzierte Tape-Operator verfügt über die perfekten Bedingungen, um den bestmöglichen Klang zu erzeugen, also ein abgeschlossenes Werk auf brillante Weise zu präsentieren, was ihm mitunter auch Virtuosität am Mischpult statt einer bloßen statischen Abstimmung auf die Raumakustik abverlangt. Der Live-Act hingegen tritt diesbezüglich in einem ungünstigeren Szenario auf, wobei von ihm jedoch zugleich eine viel lebendigere Performance erwartet wird. Unter diesen Umständen ist es kaum verwunderlich, dass zumeist die rauen, einfacheren und direkteren Live-Sets auch die schöneren sind, während der Versuch, ein kompliziertes Studiowerk auf einer Bühne zu reproduzieren höchstwahrscheinlich fehlschlägt. Eine roher klingende Performance scheint auch vielmehr zu dem Anblick eines "Typen hinter seinem Laptop" zu passen. Selbst wenn wir ihre Arbeitsweise nicht ganz verstehen, so haben wir doch eine ungefähre Vorstellung davon, wie viel Komplexität eine einzelne Person bewältigen kann. Je mehr die Handlungen auf der Bühne so etwas wie den Klang einer kreischenden Lead-Gitarre auslösen, desto mehr haben wir das Gefühl, dass eine Performance live ist. Wenn wir dagegen mehr Details und Perfektion wahrnehmen können, werden wir eher davon ausgehen, vorab produzierte Musik zu hören. Und meistens werden wir mit dieser Vermutung nicht ganz falsch liegen.

Es ließe sich also schlussfolgern, dass nur einfache, raue und unmittelbare Performances echte Performances sind. Wen interessieren da noch Komplexität und Detail? Und für unseren nächsten Auftritt schnappen wir uns einen Drum-Computer, ein billiges Keyboard, ein Mikrofon und sorgen dafür, dass wir alle in ausreichendem Maße betrunken sind. Das könnte eigentlich sehr gut funktionieren. Aber was, wenn es musikalisch nicht das ist, was wir wollen?

* Ende *


Nachtrag Oktober 2009.

In den letzen zwei Jahren hat sich auf dem Gebiet der elektronischen Live-Performance einiges getan. Nicht zuletzt dank Ableton und anderer Hersteller kommerzieller Produkte speziell für den Bereich Performance ist es mittlerweile durchaus möglich auch sehr komplexe Kompositionen sinnvoll in Echtzeit zu steuern, und diese Möglichkeiten werden auch mehr und mehr genutzt. Es gibt also allen Anlass zu Hoffnung auf spannendere Bühnenshows in der Zukunft. 

Der originale Text von 2007:  http://www.monolake.de/interviews/supercomputing.html

Der zweite Teil: http://www.monolake.de/interviews/hitchhiker.html


 



 




 
Gratis-Newsletter

Deine Emailadresse:

Klangfalter Dennis Erlbeck