Klanginstallationen

 

Florian Dombois: Circum Pacific 5.1 (2003), Klanginstallation
Technik: Fünf Erdbebenstationen rund um den Pazifik (Papua Neuguinea, Russland, Kalifornien, Osterinseln, Antarktis), deren Anordnung auf dem Globus ungefähr einer Surround-Sound-Anlage 5.1 entspricht. Drei Wochen kontinuierlicher Messung (1. bis 21.1.2001) der dortigen Seismometer wurden so komprimiert, dass sie knapp 14 Minuten audifiziertes Klangmaterial ergeben.
Motivation: Im Winter 1988/89 habe ich im Hawaiian Volcano Observatory mitten im Pazifik gearbeitet. Hier kreuzen sich die seismischen Wellen des „Ring of Fire“, wie die tektonisch aktivste Zone rund um den Pazifik genannt wird. Wie würde es nun klingen, wenn man diese dauernde Aktivität in einem Raum zusammenzieht? Die zeitliche und räumliche Komprimierung der Arbeit ermöglicht es, den klanglichen Farben und der Aktivität an fünf sehr weit entfernten Stationen gleichzeitig zuzuhören. Dabei überlagern sich lokale seismische Aktivitäten mit globalen Ereignissen. Was für den Fotografen der Blick durch den Sucher, das ist dem Hörer von Circum Pacific 5.1 das Zeitfenster der Daten. Und wie sich die Motive im Foto platzieren lassen, so kann man in der audifizierten Aufnahme besondere klangliche Ereignisse anordnen.
Im Soundtrack von Circum Pacific 5.1 erklingen u. a. vier Beben in einer Magnitude von über 7 auf der Richterskala und mit Herden nahe den Philippinen, Vanuatu, Aleuten bzw. El Salvador.
Sekundärliteratur: Peter Kiefer (Hg.): Klangräume der Kunst, Heidelberg 2010, S. 337. Dieter Daniels, Sandra Naumann (Hg.): Audiovisuology 1: See This Sound, Köln 2010, S. 292.

http://www.auditory-seismology.org/version2004/distance.html

Florian Dombois


Florian Dombois, Seimic waves travelling across the earth / Seismische Wellen durchqueren die Erde (1999/2017). S. a.:http://www.auditory- seismology.org

 

 

Julian Klein / a rose is: Brain study (2001–2004), Installation für vernetzte Gehirn-Spieler, mehrkanalige Rauminstallation aus der Radioversion (2001)
Brain study ist eine Klanginstallation, die aus einem räumlichen Modell des menschlichen Gehirns besteht. Dessen biologische Funktionsweise, die sich von unserem Erleben sehr unterscheidet, wird in ihrer Fremdheit sinnlich erfahrbar.
Live-Elektronik übersetzt die neuronale Aktivität der Gehirn-Spieler aus einer EEG-Ableitung in Klang. Mit Hilfe dieses akustischen Neurofeedbacks haben die Gehirn-Spieler trainiert, ihre EEG-Wellen aktiv zu beeinflussen und die jeweiligen Klänge absichtlich zu produzieren. Die biologischen Rhythmen und Spektren bleiben jeweils unverändert. Sie werden akustisch verstärkt und bilden die musikalische Struktur der gesamten Installation.
Ein Ensemble aus fünf Gehirn-Spielern ist untereinander vernetzt und bildet auf diese Weise ein Modell des menschlichen Gehirns. Die Darsteller hören ihre eigene Aktivität und können über ihre Hirnzustände die akustischen Wahrnehmungen der anderen Spieler beeinflussen. Es entsteht ein neuronales Netz aus Gehirnen, das sich selbst wie ein einfaches Gehirn verhält: es kann Wahrnehmungen verarbeiten, Erinnerungen aus seinem Gedächtnis abrufen und besitzt emotionale Zustände wie Angst, Freude, Stress und Euphorie. Nach einer embryonalen Phase des Lernens ist das Gehirn-Modell sich selbst überlassen. Der Hauptteil der Installation besteht aus der Live-Aktivität des Systems, in der es wahrnimmt, assoziiert, bewertet und erinnert.
In der Klanginstallation sind diese Funktionen des Modells nach ihrer Position im Kopf anatomisch angeordnet. Die Hörer werden so selbst zum Bestandteil und Zentrum der Installation: Sie nehmen die biologischen Strukturen ihrer eigenen Wahrnehmung wahr.
Konzept und Inszenierung • Julian Klein, Neuro-Elektronik • Marc Bangert, Audio-Elektronik • Gregor Schwellenbach, Ton • Lothar Solle, Dramaturgie • Christoph Buggert, Gehirne • Christian Buck, Sara Hubrich, Kristina Lösche-Löwensen, Eva Müllenbach, Ulf Pankoke, Produktion Hessischer Rundfunk 2001
Julian Klein

Gehirnmodell


a rose is: Brain Study. Probe mit Ulf Pankoke, Filmstill von Daniel Kötter (2004)
Jutta Ravenna: SesamSesam (2017), interaktive Klangskulptur
Während des Festivals wird in der Villa Elisabeth ein temporäres Netzwerk eingerichtet, in das sich die Festivalbesucher mit ihren Mobilgeräten einwählen können. In Echtzeit wird dann über eine Klangskulptur, ein Datenklangfenster aus lichtdurchlässigen Leiterplatten, die Netzaktivität der eingewählten Smartphones sonifiziert. Durch die Sonifikation werden die Daten des Interaktions- und Kommunikationsverhaltens zu beobachtbaren Ereignissen, die entstehen, andauern und vergehen. Das Datenklangfenster funktioniert wie ein überdimensionales Display: Mehrere fest in das Objekt integrierte übergroße Zahlen- und Textdisplays sind mit verschiedenen Aktivitäten im Netz verknüpft und zeigen die gleichzeitig sonifizierten Daten, wie Aufenthaltsdauer, Log-In, Log-Out-Zeit, „Send“ und „Receive“, auch visuell an.
Doch SesamSesam sonifiziert WLAN-Traffic auch, um über physische Erfahrungen mit Daten für den Hörer das kinästhetische Erfassen des Auditiven zu ermöglichen, d. h. der Klang kann zusätzlich über Körperbewegungen vor einem Sensor beeinflusst werden. Damit wird einerseits das kollektive Publikum als Datengenerator wie auch andererseits eine einzelne steuernde Person zum wichtigen Bestandteil dieser Arbeit, in der es darum geht, auf die Netzpräsenz im kollektiven Datenraum zu horchen und die klangliche Atmosphäre physisch zu beeinflussen. Dies geschieht vor dem Datenklangfenster über einen 3D-Sensor, der die unmittelbare gestische Interaktion, Bewegungen und Raumwege scannt und die Klangskulptur zum spiel- oder steuerbaren Instrument werden lässt. In der kegelförmigen sensorischen Umgebung kann der beständig im Wandel begriffene Klang auf drei Raumachsen in freien Bewegungen schiebend, rotierend, pendelnd in sanften Linien oder kurzen Stößen „ertastet“ werden. Die einzelnen Besucher erforschen mit ihrem Körper diese „kinetischen Objekte“ im Sensorraum, zugleich malen ihre Bewegungen Klanglinien in den Raum. In der kinästhetischen Wahrnehmung von Klang begegnen sich Leiblichkeit und formale Algorithmen. Um mit Maurice Merleau-Ponty (Phänomenologie der Wahrnehmung, 1949) zu enden: „Endlich ist mein Leib für mich so wenig nur ein Fragment des Raumes, dass überhaupt kein Raum für mich wäre, hätte ich keinen Leib.“
Technische Realisation • Liang Zhipeng, Timo Engel und Josef T. Heinrich
Jutta Ravenna


Jutta Ravenna, Datenklangfenster (2017)


Jutta Ravenna, Datenströme
Martin Hachmann: Angst. Sonifikation für 3 Stühle und Boden (2017), kinetische Klanginstallation
Auftragswerk der BGNM
Die Installation nimmt die sozialen und soziokulturellen Aspekte des Phänomens Angst zum Ausgangspunkt. Grundlage bilden die seit 1984 jährlich erhobenen Daten des Sozio-oekonomischen Panels (SOEP). Diese sozialwissenschaftliche Stichprobenerhebung hat sich das Ziel gesetzt, eine Längsschnitt-Mikrodatenbasis für die Bundesrepublik Deutschland zur Analyse sozio-ökonomischer Fragen zu erstellen. Die scheinbare Objektivität von Daten erweist sich zunächst als problematisch: Erstens kann die Frage nach der Angst in einer Gesellschaft sicherlich nicht endgültig beantwortet werden. Ihr Gegenstand selbst ist diffus. Ihre Messung kann nur sekundär, wenn überhaupt, erfolgen. Zweitens ist ein Datensatz an sich nie neutral und birgt stets die Ansichten der oder des Erhebenden in sich. Analyse und Darstellung sind zwangsläufig Interpretation. Was also ist in diesem Kontext Angst? Was ist Angst überhaupt? Angst ist ein zeitliches Phänomen. Sie baut auf die subjektive Fähigkeit des Vorausdenkens bei parallel empfundener Ausweglosigkeit. Ihre Gegenwart ist nach Martin Heidegger (Sein und Zeit, 1926) im Augenblick und ständig dem Verfall ausgesetzt. Angst ist vorlaufend augenblickliches Wiederholen. Angst vor dem Ungewissen. Angst vor der Bedeutungslosigkeit, der Wirklichkeit des Nichts, wie Sören Kierkegaard es in Der Begriff Angst (1844) formuliert. Angst als Konflikt aus der Verzweiflung des Verhältnisses der Synthese zu sich selbst. Als kollektives Phänomen setzt Angst eine Angstbereitschaft voraus. Einen Willen zum Nicht-Wissen. Denn Wissen, Information, ginge mit Bedeutung einher und somit mit der Fähigkeit zur Schuld. Soziale Angst kann also, wenn auch unbewusst, ein Versuch der Bewahrung der Unschuld sein. Angenommen Angaben zum Wissensstand, aber auch die Angaben zu direkt empfundenen Gefühlslagen Einzelner oder Bewertungen von subjektiver Zufriedenheit sagen etwas über das Angstpotential einer Gesellschaft aus, so dokumentiert der SOEP-Datensatz über seinen Fragenkatalog den zeitlichen Verlauf sozialer Angst. Es werden daher konkret die Veränderungen der Angaben zur Anzahl der Bücher in einem Haushalt, Angaben zur Balance zwischen Angst- und Glücksgefühlen sowie die Angaben zur persönlichen Zufriedenheit mit der allgemeinen Wohlstandsentwicklung in Deutschland betrachtet und auf drei Zahlenverläufe abstrahiert. Da es möglich ist, die jährliche Umfrage in monatliche Erhebungsschritte aufzuteilen, ergibt sich ein Verlauf aus je zwölf Werten pro Jahr. Ein Jahr im SOEP-Datensatz wird in 365 Sekunden in der Installation abgebildet. Bei 32 Jahren ergibt sich so eine ungefähre Gesamtspielzeit von 3 Stunden und 15 Minuten.
Mittels einer kinetischen Skulptur wird ein auditives Environment erzeugt. Ausgehend von den drei fokussierten Datenverläufen werden drei einfache Stühle verwendet. Jeder Stuhl soll einen Platz am Tisch Gesellschaft, einen Aspekt symbolisieren. Die Stühle sind ansich gleich. Jeder Stuhl ist mittig, unterhalb der Sitzfläche mit der Welle eines Elektromotors verbunden. Durch das Drehen des Motors entsteht ein Stuhlrückgeräusch, ein ständiges Scharben am Fußboden bzw. Podestboden. Die Geschwindigkeit der Stuhldrehung entspricht proportional der Datenverteilung der jeweils dargestellten Angabe aus dem SOEP-Datensatz. Die Höchstgeschwindigkeit von einer Umdrehung pro Sekunde entspricht jeweils dem Maximalwert im gesamten Datensatz in allen 32 Jahren. Die durch Reibung bestehende Trägheit der Bewegungen lässt die Werte ineinander überblenden. Es entsteht eine beklemmend wirkende Klangfläche, ein Geräuschteppich oder Simultanklang, dessen klangliche Intensität sich mit steigender Angst verdichtet und bei sinkenden Werten im Datensatz abnimmt, jedoch stets unscharf bleibt, wie das Phänomen Angst eben auch.
Die Klanginstallation wurde ermöglicht durch die freundliche Unterstützung des Sozio-oekonomischen Panels am DIW Berlin, insbesondere Herrn Knut Wenzig und Dr. Jan Goebel.
Martin Hachmann (im Juli 2017)


Martin Hachmann, Prototyp zu Angst (Juli 2017)


Martin Hachmann, frühe Entwurfsskizzen zu Angst (Juli 2016)

 

 

YoHa: Lungs: Slave Labour (2005), Klanginstallation
Lungs ist ein Mahnmal zum Gedenken an die 4.500 Zwangsarbeitenden, die während des zweiten Weltkriegs in Halle A der damaligen Deutschen Waffen- und Munitionsfabriken AG arbeiteten, also der heutigen Hauptausstellungshalle des ZKM | Zentrum für Kunst und Medien Karlsruhe. Indem es die Lungenkapazität aller Zwangsarbeitenden berechnet, stößt das Computerprogramm ihren letzten Atemzug aus.
Das Projekt Lungs: Slave Labour befasst sich mit den möglichen Überbrückungen der Kluft zwischen der Wahrnehmung von Daten und sozialer Erfahrung. Sein Ziel ist, digitalisierte Daten von lokalen Geschehnissen oder Menschengruppen, die auf den Status von Information reduziert oder entwürdigt wurden, einer Neubewertung durch eine andere Erfahrung zu unterziehen, und damit den Menschen zu erlauben, den Eigenwert der Daten zu entdecken. Der Titel „Lungs“, also Lungen, leitet sich aus dem technischen Vorgang ab, der Datenbank zwei Lungenflügel zu geben, indem die menschliche Lungenkapazität der Individuen in diesem Datensatz berechnet wird und das Ergebnis durch das Audiosystem „ausgeatmet“ wird. Diese Methode der Kreuzung einer Software-Maschine mit einer Mensch-Maschine wurde gewählt, um ein Software Memorial im Gedenken an die Zwangsarbeitenden der ehemaligen Munitionsfabrik in Karlsruhe zu schaffen.
Gedankt sei dem Generallandesarchiv Karlsruhe, das uns die anonymen Daten dieser Zwangsarbeiterinnen und -arbeiter zur Verfügung stellte. Die Datenbank umfasst Einträge von mehr als 57.000 ausländischen Arbeitskräften und wurde im Jahr 2000 erstellt, um Nachforschungen Betroffener zu ermöglichen und die Arbeit der Stiftung Erinnerung, Verantwortung und Zukunft zu ermöglichen. Viele der Einträge sind bis heute noch nicht historisch aufgearbeitet worden und die individuellen Schicksale sind noch nicht entsprechend gewürdigt worden.
Lungs: Slave Labour wurde zuerst 2005 als der Teil der Making Things Public-Ausstellung des ZKM gezeigt. Danach wurde die Installation erworben und ist Teil der permanenten Sammlung „Masterpieces of Media Art“ des ZKM.
Matsuko Yokokoji, Graham Harwood (Übersetzung: JHS)


YoHa, Lungs: Slave Labour (2005)

 


YoHa, Archivgut
Quelle: http://www.landesarchiv-bw.de/web/45605

 

 

Klangvitrine
Terry Fox: Berlino (1988), eine Kompilation präexistenter Tonaufnahmen, interpretiert und aufgenommen von Terry Fox [eine Realisation von Berlin Wall Scored for Sound (1980) für Schallplatte] (für Mitsuko Natori)

Schallplatte (Apollo records AR088807)
Produziert im Tango Studio Eindhoven, 18. August 1988
Tonmeister: Henk Janssen
Produziert von Terry Fox und Het Appolohuis, Eindhoven, Niederlande

Berlin Wall Scored for Sound und Berlino
1980/81 verbrachte ich als Gast des DAAD Künstlerprogramms in Berlin. Während dieser 18 Monate verfügte ich über ein Atelier im Künstlerhaus Bethanien am Mariannenplatz in Kreuzberg, direkt an der Mauer. Vom Schornstein dieses Gebäudes aus konnte ich auf die Mauer hinunterblicken und sah ihren Verlauf in beide Richtungen. Man konnte sehen, wie sie Straßen, Plätze und sogar Häuser in zwei teilte. Um meine neue Umgebung kennenzulernen, beschloss ich, eine Klangkarte, eine Partitur, eine Art hörbare Geografie davon anzufertigen. Auf einem großen Stadtplan fand ich vier ‚Ecken‘ in der Westberlin umgebenden Mauer. Diese Ecken oder ‚Punkte‘ teilten die Mauer also in vier Abschnitte. Diese Punkte verband ich über gerade Linien, die also durch die Mauerlinien hindurchliefen. So ergaben sich gerade Linien, durch die jeweils eine gezackte oder geschlungene Mauerlinie gezeichnet war. Die geraden Linien ergänzte ich oben und unten, so dass sich die Mauerlinie durch ein Notensystem schlängelte. Die Länge der Mauer maß ich auf der Karte. Die Maßangaben in Zentimetern wurden dann in Sekundendauern übertragen; die Entfernung wurde also zu Zeit. Anschließend setzte ich fünf Kategorien fest, die sich auf topografische oder geometrische Auffälligkeiten bezogen. Ihnen ordnete ich die Buchstaben E, G, B*, D, F zu. Eine merkwürdige Form der Mauer, die den Sternen des Pferdekopfnebels im Sternbild Orion ähnelte, nannte ich X. Die sechs Kategorien waren: E – kurvig oder verformt, G – gerade, B – chaotisch, D – Kanal, F – See und X – Pferdekopfnebel. Die gesamte Partitur für sechs verschiedene Klänge oder Klangkombinationen ist endlos und formt eine Schleife, einen Loop, wie die Mauer selbst.
Von dieser Ausgangspartitur habe ich verschiedene Versionen erstellt. Für die Schallplattenaufnahme Berlino habe ich beispielsweise eine lineare Version benutzt. Ich wählte sechs Klangstrukturen von Audiokassetten, die ich gerade da hatte. Es sind Aufnahmen aus meiner Arbeit, allein in meinem Studio. Alle diese Klänge sind akustisch und mit im Raum positionierten Mikrofonen, nicht mit Kontaktmikrofonen, aufgenommen worden.
Die sechs Klänge in Berlino sind:
E) Eine gestrichene Saite, die in einer großen Überdachung nahe eines Bürgersteigs in San Francisco gespielt wurde. Das eine Ende einer Klaviersaite war an der Tür zu einem stählernen Lastenaufzug angebracht, das andere Ende an einem großen Metallgehäuse, das Spannung und Resonanz gab. Die Saite wurde mit zwei Violinbögen gestrichen. San Francisco 1978.
G) Der Klang von zwei jeweils vier Meter langen, parallel gespannten Klaviersaiten. Sie waren auf dem Holzboden befestigt und wurden über hölzerne Stege geführt. Sie wurden mit einem langen Schlegel gespielt, der in einer Hand gehalten wurde und zwischen die Saiten gesteckt wurde. Liège 1988.
B) Das Geräusch eines britischen Militärhubschraubers, der fast täglich am Mariannenplatz an der Mauer entlang flog. Dieses Fluggeräusch habe ich von meinem Studiofenster aus aufgenommen. Berlin 1980.
D) Der Klang einer einzelnen Klaviersaite, die mit einem Ende am Metallrahmen meines Studiofensters befestigt war und zehn Meter zur entgegengesetzten Ecke gespannt war, wo sie an einem Holzschrank befestigt war. Die Saite wurde schnell mit einer Stahlstange gestrichen. Berlin 1981.
F) Der Klang von Regen, Donner und Glocken der Kirche am Mariannenplatz, von meinem Studiofenster aus aufgenommen. Berlin 1980.
X) Das gleiche Instrument wie in (E) aber an einem anderen Tag aufgenommen, als es einen Klang ebenso merkwürdig wie die Form des Pferdekopfnebels machte.
Terry Fox (Liège, August 1988) (Werkkommentar auf der Schallplatte veröffentlicht, Übersetzung: JHS)

*Falls die Buchstaben Tonhöhennamen bezeichnen, müsste das amerikanische B im Deutschen mit der Tonhöhe H übersetzt werden. Terry Fox hat vermutlich die Tonnamen der Töne auf den einzelnen Linien des Notensystems im Violinschlüssel gewählt. Englisch-sprachige Klavierschüler lernen einen Merksatz, dessen Wörter mit den Buchstaben jeder Notenzeile beginnen: „Every Good Boy Deserves Favor“ oder auch „Every Good Boy Does Fine“. Information von Marita Loosen-Fox.
Tanz mit interaktiver Klangskulptur

Tomoko Mio: Dancing Sound – Conducting Data (2017), drei Tänze mit interaktiver Klangskulptur
In einer Tanzaufführung mit Jutta Ravennas interaktiver Klangskulptur SesamSesam (2017) hat die Tänzerin eine zweifache Aufgabe: Erstens schafft sie einen Tanz zu einer Musik, die noch nicht existiert, sondern die erst gleichzeitig zum Tanz aus sonifizierten Daten generiert wird. Zweitens beeinflusst die Tänzerin den Klang während seiner Entstehung durch ihre Körperbewegungen, wie eine Dirigentin.
Im Tanz mit einer Raumskulptur verbünden sich architektonischer, sensorisch präparierter und digitaler Informationsraum, um sich abwechselnd in den Vorder- und Hintergrund der Wahrnehmung zu verlagern. Ein mittig über dem Datenklangfenster positionierter, auf Bewegungen reagierender Sensor scannt die Tanzbewegungen dreidimensional und ermöglicht neue räumliche Bewegungs- und Klangeffekte. Das von Ravenna in ihren Datenskulpturen eingesetzte Basismaterial elektronischer Schaltkreise wurde im Zuge fortschreitender Digitalisierung, Minimierung und Komplexitätssteigerung zunehmend immateriell. In ihrer interaktiven Arbeit SesamSesam entwirft die Künstlerin deshalb eine begehbare Version ihres Datenraums.
Auch Tomoko Mio befasst sich mit der Thematik des Raumes, wenn sie körperliche Bewegungsabläufe und -muster erkundet. Jutta Ravennas Interesse gilt der körperlichen Präsenz der Tänzerin im Datenraum. Rotierende, lineare oder punktuelle Spuren, Körperhaltungen, Positionen oder Wege im Raum: Alle Tanzbewegungen erfahren in diesem Raum eine klangliche Manifestation. Das dafür erforderliche technische Instrumentarium wurde im Team von Liang Zhipeng, Tomoko Mio und Jutta Ravenna experimentell entwickelt. Die Ravenna-Tomoko-Kollaboration basiert auf Ravennas modulhaft konzipierten choreographischen Handlungsanweisungen und Tomokos tänzerisch-choreographischer Kreativität.
Der kegelförmige Sensorraum manifestiert sich in den Dimensionen Höhe, Breite, Tiefe, Volumen und Form. Dieser Raum ist so programmiert, dass er auf die Bewegungen einzelner Körperteile wie Kopf, Schulter, Hand oder Knie reagiert. Drehungen, Schritte und Sprünge erfolgen spontan oder in Reaktion auf die beständig im Wandel begriffene sensorische Umgebung. Die Bewegungen unterliegen keiner Choreographie, sondern entwickeln sich prozesshaft und intuitiv, ähnlich einer Improvisation. Die Verbindung von Tanz- und Klangbewegung verlangt von der Tänzerin ein „Hören in Bewegung“ sowie ein hohes Maß an physischer Präsenz, um sich auf die räumliche Platzierung der Klangobjekte innerhalb der Struktur der dreidimensionalen Klanginstallation einzustellen.
Die Bewegungen in dem sensorisch präparierten Raum rufen Ereignisse aus dem Internet auf. Mit freiwillig aufgezeichneten Internet-Aktivitäten liefert das Publikum den erforderlichen Input für die Installation: Mit jedem Login wird dem Klangbild eine neue Frequenz aus einem Pool prädefinierter Möglichkeiten minimaler Frequenzabweichungen als Variationsmöglichkeit hinzugefügt. Die sonifizierten Daten werden vor dem Datenklangfenster gesplittet und entsprechend ihrer Entfernung vom Objekt in Klangzonen unterteilt. Die Tänzerin erforscht mit ihrem Körper die kinetischen Klangobjekte im Sensorraum, zugleich malen ihre Bewegungen Klanglinien in den Raum, während im Hintergrund die digitale Bühne eines temporären WLAN-Netzwerkes entsteht, in dem von den Festivalbesuchern zur Verfügung gestellte Daten wie Aufenthaltsdauer, Log-In-, Log-Out-Zeit, „Send“ und „Receive“ sonifiziert werden.
Dank Ravennas Instrumentarium klingender Datenströme findet die Tänzerin in der Echtzeitsonifikation einen eigenständigen Partner für ihre Bewegungen. Tänzerin wie Publikum ermöglicht die interaktive Klanginstallation SesamSesam ein kinästhetisches Erleben des Auditiven: Körperbewegungen und Raumwege gewinnen hohe Bedeutsamkeit für das Erfassen der verräumlichten Klänge im Sensorraum.
Jutta Ravenna und Sabine Sanio

 


Jutta Ravenna, Entwurf zu SesamSesam: Sensorraum mit Tänzerin vor der interaktiven Klangskulptur Data Soundwindow / Datenklangfenster (2017)
Soundbar
Die mit Kopfhörern ausgestattete Hörstation, genannt Soundbar, stellt ein kommentiertes Hörangebot für die Festivalbesucher in den Pausen zwischen Konzert und Symposium dar. Die Soundbar entstand in enger Zusammenarbeit mit den auf dem Festival vertretenen Künstlerinnen und Künstlern. Kurze Werkausschnitte aller Arbeiten, die auf dem Festival aufgeführt werden, sind zu hören. Sie beinhaltet darüber hinaus ausgewählte Sonifikations-Beispiele aus historischen und zeitgenössischen Kompositionen. Die Soundbar informiert über Künstler, Titel, Entstehungsjahr, Datenquelle, Sonifikationsmethode und künstlerisches Format. Künstlerische Formate sind Kategorien wie Komposition, Klanginstallation, Performance oder Objekt. Über die Kategorie Sonifikationsmethode erlaubt die Soundbar interessierten Festivalbesuchern auch, sich eingehend mit den unterschiedlichen Methoden der Sonifikation zu befassen, also ihrer Unterteilungen in „Audifikation“, „Parameter Mapping“ oder „Modell-basierte Sonifikation“. Florian Dombois stellt die Unterschiede dieser Verfahren verschiedentlich dar, hier verweise ich auf sein Interview mit Volker Straebel in der Sektion Auditive Perspektiven des Online-Journals kunsttexte.de (Ausgabe 2/2011). Demnach versteht man unter „Audifikation“ die direkte Überführung eines wellenförmigen Signals in Klang, wie beispielsweise bei einer Schallplatte. „Parameter Mapping“ meint die Zuweisung eines bestimmten Klanges an einen Datenpunkt. Innerhalb eines streng definierten Regelwerks werden musikalische Parameter systematisch an einen Datensatz gekoppelt. Bei der „Model-based sonification“ konditionieren die Parameter einen Klangkörper. Je nachdem, welche Parameter virulent sind, hört man unterschiedliche Modi, wie z. B. beim Sonar Frequenzen oder beim EKG Zeitabstände als Folgen kurzer Tonimpulse.
Die Soundbar ist ein Kooperationsprojekt der Partner ZKM | Zentrum für Kunst und Medien Karlsruhe, Deutschlandfunk Kultur, Sonifyer.org und dem Berliner Sonification-Festival.
Jutta Ravenna

http://www.sonifyer.org/wissen/sonifikationmusik/


Soundbar


Sonifkation des Kometen 76P/Chryumov-Gerasimenko, Manuel Senfft 2015

https://soundcloud.com/esaops/a-singing-comet
„Rosetta’s Plasma Consortium (RPC) has uncovered a mysterious ‘song’ that Comet 67P/Churyumov-Gerasimenko is singing into space. The comet seems to be emitting a ‘song’ in the form of oscillations in the magnetic field in the comet’s environment. It is being sung at 40-50 millihertz, far below human hearing, which typically picks up sound between 20 Hz and 20 kHz. To make the music audible to the human ear, the frequencies have been increased in this recording.“ Original data credit: ESA/Rosetta/RPC/RPC-MAG. This sonification of the RPC-Mag data was compiled by German composer Manuel Senfft (www.tagirijus.de). Thumbnail image credit: ESA/Rosetta/NAVCAM – CC BY-SA IGO 3.0
Konzert: Lautsprecher und Live-Elektronik

 

 

Eliza Goldox, Jasmine Guffond und Holger Heissmeyer: From Cloud to Fog – A Sonification of Digital Traces (2016), Publikumsanimation
Nominierung durch Jury

„Das Einnebeln ist eine vitale Reaktion auf den Imperativ der Klarheit, der Transparenz, die das erste Brandzeichen der imperialen Macht auf den Körpern ist. Zu Nebel zu werden soll heißen, daß ich endlich den Part des Schattens auf mich nehme, der mich ausmacht und mich daran hindert, an all die Fiktionen der direkten Demokratie zu glauben, insofern sie eine Transparenz jedes einzelnen für seine eigenen Interessen und aller für die Interessen aller ritualisieren wollen. Undurchsichtig wie der Nebel zu werden bedeutet zu erkennen, daß man nichts repräsentiert, daß man nicht identifizierbar ist; es bedeutet, den nicht aufaddierbaren Charakter des physischen Körpers und des politischen Körpers auf sich zu nehmen und sich für noch unbekannte Möglichkeiten zu öffnen.“
Tiqqun: Kybernetik und Revolte (L’hypothèse cybernétique, 2001) übersetzt von Ronald Voullié, Zürich, Berlin: Diaphanes, 2007, XI, S. 116.

From Cloud to Fog ist ein Experiment zu Vertrauen und Kontrolle innerhalb der Machtdynamiken, die einer Transparenzgesellschaft (nach Byung-Chul Han) und Bewegungen durch die virtuelle Sphäre inhärent sind. Präsentiert wird es als partizipative Performance und Klanginstallation, die Motion Tracking und kollektive Bewegung verbinden und dabei auf die Undurchdringlichkeit von digitaler Überwachung fokussiert und digitales Verhalten übersetzt.
Getarnt als Aerobic-Übungen wird Bewegung getrackt und der Körper als Analyse-Punkt verstanden, durch den gewohnheitsmäßiges Vertrauen und Repetition mit anderen enthüllt werden. Diese vorgegebenen Gesten, die wir jeden Tag individuell ausführen, werden ein kollektiver Akt der Imitation. Die aufgenommenen Bewegungsdaten werden in sonische Rhythmen übersetzt, als eine Methode der Interpretation, die ein fortwährendes Ritual und Soundscape erzeugt.
Die Bewegungsanweisungen verwenden „Unpatentable Multi­touch Aerobics“, eine Aerobics Folge von Liat Berdugo und Phoebe Osborne. https://fleeimmediately.com
Eliza Goldox (Übersetzung: JHS)


Eliza Goldox, Jasmine Guffond und Holger Heissmeyer, From Cloud to Fog, Spektrum Berlin, Juni 2016. Foto: Willan Octave-Emile

 

 

Hans Tammen: Conflict of Interest (2017), Live-Elektronik,
Uraufführung
Vor einigen Jahren ließ ich meine DNA in einem Gen-Labor analysieren und mir die Daten geben. Natürlich interessierte mich, ob ich bald das Zeitliche segnen würde (zum Glück nicht) oder woher meine Vorfahren kamen (leider keine Überraschungen hier. Und wer mich kennt, wäre nicht überrascht, dass das Labor 2,7% Gene von Neandertalern fand). Eigentlich wollte ich die Daten jedoch für ein künstlerisches Projekt nutzen, schließlich besteht mein Datensatz aus über 600.000 Zeilen von Daten – eine Goldmine für einen Künstler, der sich für Algorithmen interessiert. Da dieses Festival den Rahmen für die Uraufführung von Conflict of Interest bietet, lohnt es sich, etwas weiter auszuholen und die Hintergründe darzustellen, obwohl ich zum jetzigen Zeitpunkt (Juni 2017) davon ausgehen muss, dass sich Details noch ändern werden.
Der interessanteste Aspekt von DNA-Daten ist, dass jede Zeile menschlicher DNA eine spezifische „Bedeutung“ hat und daher nicht einfach als ein kontinuierlicher Fluss von Bits & Bytes behandelt werden kann. Warum ist das relevant? Projekte, in denen Daten in Klang oder Bilder übertragen werden, kranken oft an dem Wunsch des Künstlers, inhärent in der Datenstruktur etwas zu finden, das seine ästhetischen Entscheidungen mitbestimmt. (Ein alter Freund von mir – Hi Martin! – hat das mal als Faulheit der Komponisten abgetan.) Als technischer Berater einer Gewerkschaft habe ich in den 1990ern vor deutschen Betriebsräten argumentiert, Daten seien bloß Daten, würden aber in dem Moment zu „Information“, in dem die Firmenvorgesetzten sie interpretierten. Dass eine Angestellte im Call-Center sich häufiger als der Durchschnitt in ihrem Computersystem abmeldet, um auf die Toilette zu gehen, hat nichts zu bedeuten, doch wie ihre Vorgesetzten diese Tatsache interpretieren, kann – je nach deren Vorurteilen – Konsequenzen für die Angestellte haben. Wie Überwachungsdaten interpretiert werden, hängt von dem Umgang mit Macht in dem Unternehmen ab.
Diese Ideen beschäftigten mich auch als Leiter eines Programms für Künstlerresidenzen und Berater für Künstlerinnen und Künstler, die Projekte mit Datensonifizierung und visualisierung planten. Auch hier vertrat ich nachdrücklich den Standpunkt, dass die Künstlerin oder der Künstler ästhetische Entscheidungen trifft – und nicht die Daten. Häufig laufen Kunstschaffende in die Falle, einfach unterschiedliche physikalische Realitäten zu verbinden (Komponisten ordnen gern Zahlen der Frequenz oder Tonhöhe zu) und dann das System ohne weiteres Zutun laufen zu lassen. Wenn das Ergebnis mit absurden Behauptungen angereichert wird, landet man in der Esoterik, beispielsweise: „Gis ist die Frequenz des Mondes.“, als ob kreisende Objekte und Klangwellen irgendwie dasselbe wären. Man muss nur die Anzahl der Tage, die der Mond um die Erde kreist, oft genug multiplizieren, um im Hörbereich zu landen. Angeblich wirkt sich die resultierende Tonhöhe Gis positiv auf die sexuelle Energie aus – kein Scherz! Kann man online finden.
Natürlich ist nichts falsch daran, einen Zahlenstrom einem anderen zuzuordnen; dafür sind Computer schließlich gut geeignet. Der springende Punkt ist, dass es die Künstlerin oder der Künstler ist, die oder der über die Beziehung verschiedener Zahlenreihen entscheidet, und dass es nicht eine Eigenschaft ist, die man in die Daten hineininterpretiert.
Die über 600.000 Zeilen meiner DNA-Analyse umfassen sehr verschiedene Daten. Vermutlich am besten bekannt ist der Genotyp (eine Buchstabenfolge, also Sequenz, wie beispielsweise AGCTCTAGACTTGGCTAAAGCCAA…). Gleich mehrere Genom-Sonifikations-Projekte haben gerade diesen gewählt, vielleicht weil man ihn leicht als kontinuierlichen Datenfluss von A, G, C und T interpretieren kann. Zu dumm, dass T kein Tonhöhenname ist!
Aber es gibt mehr zu entdecken – und hier kommt die oben erwähnte „Bedeutung“ ins Spiel: Jede Zeile enthält erstens die über RSID, einen Schnelltest, identifizierbaren genetischen Varianten, SNPs, und zweitens den Hinweis, auf welchem der 23 Chromosomen sie sich befinden, drittens die Position dort und viertens den Genotyp. Eine typische Zeile sieht so aus:
rs147226614 – 1 – 878697 – GG
Von vielen dieser genetischen Varianten haben wir keine Ahnung, wofür sie gut sind; einige sind vermutlich wertlos; für andere wissen wir mehr oder weniger, welche Funktion sie in unserem Körper erfüllen; andere arbeiten nur in Gruppen zusammen. Es ist sinnlos, die SNPs für ein Kunstprojekt zu nutzen, ohne in Betracht zu ziehen, was über diese spezifischen Genvarianten bekannt ist. Ich kann die zusätzlichen Daten, d. h. auf welchem der 23 Chromosomen es liegt und die spezifische Position, auch verwenden, doch muss ich mich zunächst damit beschäftigen, was über die SNPs bekannt ist.
Glücklicherweise gibt es viele Forschungsstudien, die SNPs Charaktermerkmalen oder Gesundheitszuständen zuordnen. Man kann diese Studien in öffentlich zugänglichen Forschungsdatenbanken finden. Dort kann ich in den Stichwörtern oder der Zusammenfassung nach dem suchen, was mich interessiert. In diesen Datenbanken werden SNPs durch ihre RSIDs referenziert, inklusive der Position auf dem Chromosom, auf dem sie gefunden wurden. Es müsste also ein Leichtes sein, ein Computerprogramm zu schreiben, das RSIDs mit Position aus meinen Daten mit denen in den Forschungsartikeln abgleicht. Bleibt abzuwarten, was man mit den so gewonnenen Informationen anfängt. Wenn ich weiß, wonach ich eigentlich suche, kann ich diesen Abgleich vielleicht sogar in Echtzeit durchführen und in die Aufführung integrieren.
Die meisten Studien in solchen Forschungsdatenbanken befassen sich natürlich mit Krankheiten wie Prostatakrebs, Alzheimer, Migräne, Parkinson. Aber man kann auch Hinweise auf allgemeinere Informationen finden wie Körpergröße, Präferenz für bitteren Geschmack, Körpermasse-Index (BMI), oder ob jemand Frühaufsteher ist. Man kann feststellen, ob eine spezifische Variante mit Neigung zum Selbstmord oder Alkoholabhängigkeit zusammenhängt. In vielen Studien werden untersuchte Bevölkerungsgruppen genannt. Oh, und dann ist da eine Menge, von dem ich keine Ahnung habe, was es bedeutet.
Im ersten Schritt meines Projekts schaue ich also, welche SNPs meiner DNA in den Forschungsartikeln der Datenbanken auftauchen. Die betreffenden Studien speichere ich ab. Im nächsten Schritt erst handle ich als Künstler: Sobald ich eine Entscheidung treffe, welche Schlüsselwörter oder Textteile ich in der Suche verwende, überschreite ich die Schwelle von ‚Daten‘ zu ‚Information‘, von der ich oben sprach, also die Schwelle zur Kunst. „Hasenscharte“ gehört vielleicht nicht zu meinem Projekt, aber es gibt viele Einträge, auf die ich fokussieren könnte. Krankheiten? Körpermerkmale? Empfindlichkeit gegenüber bestimmten Arzneimitteln? Was passiert, wenn die SNPs in meinem Datensatz Bevölkerungsgruppen betreffen, denen ich nicht angehöre, z. B. „chinesische Psychiatrie-Patienten“ oder „Angehörige der nordindischen Agraval“? Ich könnte auch Informationen nutzen, die mir das Genlabor schon mitgeteilt hat, also Informationen, die bei der Recherche in der Forschungsliteratur nicht herauskommt. Verkompliziert wird alles dadurch, dass ein einzelnes SNP vermutlich nicht allein ausschlaggebend für eine bestimmte Eigenschaft ist, d. h., um die Information zu bekommen dass ich wahrscheinlich keine Grübchen habe, verwandte das Labor neun Merkmale, mit denen sie ihr statistisches Modell fütterten. Heraus kam, dass das zu 62% der Fall ist – und 63% der Europäer haben auch keine Grübchen. Wie wertvoll diese Information auch immer sein mag…
Letztlich werde ich Cluster von Informationen haben, mit denen ich arbeiten kann und die nach bestimmten Eigenschaften oder Schlüsselwörtern aus der Forschung geordnet sind. Klänge – live gespielt, vorher aufgenommen oder generiert – werden jedem Cluster zugeordnet. Doch auch die Anzahl der SNPs, die mit dem Cluster verbunden wird, seine Position auf einem bestimmten Chromosom und seine Allele (AA, AC, TC etc.) – sie alle können in dem Algorithmus verwandt werden, der bestimmt, wie die Information gebraucht wird.
Für die Performance, das Live-Sound-Processing und die Spatialisierung der Klänge über Mehrkanal-Lautsprechersysteme plane ich Software aus meinem Endangered-Guitar-Projekt zu verwenden. Seit 2000 stetig fortentwickelt und in hunderten Konzerten vorgestellt, ist die „Endangered Guitar“ zunächst ein hybrides interaktives Instrument zum Live-Sound-Processing von Gitarrenklängen. (Detaillierter beschrieben in: Hans Tammen: „Case Study – The Endangered Guitar“, in: Till Bovermann, Alberto de Campo, Hauke Egermann, Sarah-Indriyati Hardjowirogo, Stefan Weinzierl [Hg.]: Musical Instruments in the 21st century. Identities, Configurations, Practices, Springer 2016. S. a.: http://tammen.org/musical-instruments-in-the-21st-century-endangered-guitar/ [letzter Zugriff: 2. Juli 2017].) Obwohl die Gitarre Ausgangspunkt der Entwicklung war, ist sie nicht mehr notwendigerweise Teil jeder Aufführung. Über die Jahre hinweg habe ich die Software für andere Stücke und Projekte weiter entwickelt, so dass sie auch Eingaben anderer Klangquellen als der Gitarre verarbeiten, Samples von der Computerfestplatte spielen und prozessieren sowie jeden vorstellbaren externen Controller nutzen kann. Diese Software ist Ausgangspunkt für viele meiner Arbeiten mit Klang geworden, sei nun eine Gitarre angeschlossen oder nicht.
Das System ist zur Zeit in der Lage, etwa 100 Parameter zu kontrollieren. Natürlich kann niemand 100 Parameter gleichzeitig bewusst und in Echtzeit kontrollieren, weshalb viele der Möglichkeiten gar nicht genutzt werden. Doch sie stehen bereit, so dass jeder eintreffende Datenstrom – im Fall dieses Projekts aus meinen DNA Informationsclustern – auf jeden dieser Parameter geroutet werden kann. Die Daten werden verwandt, um zu entscheiden, welche Klänge gespielt werden, und um die Parameter des Processings gleichzeitig zu kontrollieren.
Als dritte Ebene kann ich diesen Datensatz auch in einer interaktiven Performance verwenden, denn die Endangered-Guitar-Software ist ein interaktives System. Vor 30 Jahren beschrieb Joel Chadabe ein „interaktives Kompositionssystem“ als eines, das als intelligentes Instrument operiere. „Intelligent“ insofern, als es auf den Spieler in einer komplexen, nicht gänzlich vorhersagbaren Weise reagiere, den Entscheidungen des Spieler Informationen hinzufüge und ihm Einsätze zu weiteren Aktionen gebe. (Joel Chadabe: „Interactive Composing“, in: Computer Music Journal VIII:1 [1984], S. 23.) Meine Software „hört“ sich die Eingangssignale „an“, um dann über die Parameter der elektronischen Verarbeitung derselben Klänge zu entscheiden, wobei sie flexibel reagiert, da ich mit Absicht unvorhersehbare oder „fuzzy“ Elemente in die Software integriert habe.
Während jede Aufführung Elemente beinhaltet, die in Jahrzehnten von Aufführungspraxis entwickelt wurden (die Wahl des klanglichen Materials, die Abfolge und das Timing der Teile, wie die Übergänge von einem zum nächsten Teil zu gestalten sind, wann harte Schnitte gesetzt werden, die Dynamik und andere Elemente der Form), macht die Software durch ihre Einmischung in die vorhersehbare Abfolge der Ereignisse eine Improvisation aus der Aufführung. Eine Improvisation, weil der Spieler gezwungen ist, mit unvorhergesehenen Ereignissen umzugehen. Zusätzlich zu den bereits verfügbaren Strategien kann ich nun auch meinen DNA-Datensatz einsetzen, um die Unvorhersehbarkeit des Verhaltens der Software zu steigern, den Verlauf der Aufführung zu beeinflussen und um den Spieler von seinem (naja, meinem) Weg abzubringen.
Hans Tammen (Übersetzung: JHS)


Hans Tammen, Foto: Vavarella

Alberto de Campo: Navegar é Preciso (2006), multi-kanal
(Navegar é Preciso wurde für den Concert Call „Global Sound – The World by Ear“ der ICAD Konferenz 2006 geschrieben, der dazu einlud, akustische Repräsentationen von globalen Sozialdaten zu gestalten.)
Navigation als Praxis und Wissenssystem hat großen Einfluss auf die Weltentwicklung ausgeübt. Die erste erfolgreiche Weltumsegelung unter Fernão de Magalhães (Magellan) erbrachte den Beweis, dass die Erde rund ist. Ohne systematische Kultivierung aller beteiligten Wissenschaften in der Schule für Navigation, Erstellung von Weltkarten und Schiffbau, die von Heinrich dem Seefahrer, König von Portugal im 15. Jahrhundert gegründet wurde, wäre dies nie gelungen. Daher erschien uns Magellans Route eine reizvolle Wahl für die zeitliche und räumliche Organisation dieses Stücks.
1519 brachen fünf Schiffe unter Kapitän Magellan in Sevilla auf, überquerten den atlantischen Ozean und ankerten nahe dem heutigen Rio de Janeiro. Drei Jahre später kehrte nur eines dieser Schiffe mit 18 von 237 Besatzungsmitgliedern und ohne den Kapitän zurück. In Caetano Velosos Lied Os Argonautas (1969) heißt es: „Navegar é preciso, viver não é preciso“ (Navigieren ist notwendig, leben nicht).
Die Motivation für die Seefahrt im frühen 15. Jahrhundert waren Gewürze (nach denen Europa geradezu süchtig war), Gold und guten Zugang zu beidem. Heutzutage gelten andere Rohmaterialien als wertvoll. In diesem Projekt haben wir uns für zwei Hauptdimensionen entschieden: Die eine stellt ökonomische Charakteristiken jeden Landes, an dem wir vorbeikommen, dar; die andere gibt Informationen zum derzeitigen Trinkwasserzugang der Bewohner dieser Länder.

Sonifikation der Einkommensungleichheit
In den USA verdiente der Leiter eines Unternehmens 1980 42mal so viel wie ein Angestellter. 1999 war dieser Wert mehr als zehnmal so hoch: ein Leiter verdiente nun 475mal so viel wie ein durchschnittlicher Angestellter, um ein Beispiel zu geben. Der Gini-Koeffizient ist eine ökonomische Messgröße für diese Einkommensungleichheit: Je höher der Gini-Koeffizient, desto höher ist der Einkommensunterschied zwischen den ärmeren und reicheren Teilen einer Gesellschaft. Ein Wert von Null bedeutet gleiches Einkommen für alle, ein Wert von 100 bedeutet, dass eine Person das gesamte Einkommen eines Landes erhält. Der Gini-Koeffizient kann allerdings nicht darstellen, ob ein Land ärmer oder reicher als ein anderes ist.
Unsere Sonifikation versucht, die Grenzen dieser beiden Variablen durch ihre Kombination auszubalancieren: Dafür berücksichtigen wir den Mittelwert zwischen der oberen und der unteren 10.-Perzentile aller Einkommen eines Landes, also den oberen und unteren 10%, sowie der 20%-Mittelwert. In Dänemark, das auf dem Gini-Index-Rang 1 von 124 Nationen liegt, verdienen die 10% Bestverdiener 4,5mal so viel wie die 10% Geringstverdiener. In Großbritannien (Rang 51) ist das Verhältnis 13,8 zu 1, in den USA (Rang 91) 15,9 zu 1, in Namibia (Rang 124) 128,8 zu 1. Für fehlende Daten sind dichte Cluster nahe dem Mittelwert gesetzt worden, die akustisch gut von den belegten Werten zu unterscheiden sind.

Sonifikation des Zugangs zu Trinkwasser
Die Prozentzahl der Bevölkerung mit Zugang zu sauberem Trinkwasser ist Teil der sogenannten sozialen Indikatoren, welche der Statistik-Abteilung der UNO von den nationalen Statistikämtern ihrer Mitgliedstaaten berichtet werden. Leider fehlen die Daten für viele Länder: für 46 von 190 Staaten, also 24,2%. Bei den Staaten an unserer Magellan-Route fehlen 16,3% (31 Staaten) der Daten. Wir haben die fehlenden Werte aufgrund der Datenlage der Anrainerstaaten geschätzt.

Zuordnungen
Jedes Land wird von einem komplexen Klangstrom dargestellt, der sich aus fünf Resonatoren zusammensetzt. Alle Parameter dieses Klangstroms werden von a) den Dateneigenschaften des assoziierten Landes und b) dem Navigationsprozess bestimmt, d. h. dem momentanen Abstand des fiktiven Schiffs vom Land und seine Richtung auf das Land hin.
Durchgängig sind jeweils die 15 Länder gleichzeitig zu hören, denen das Schiff am nächsten ist. Das begrenzt die Komplexität der Darstellung zugunsten der Verständlichkeit und ermöglicht die Wiedergabe der Sonifikation in Echtzeit.

Die Zuordnungen im Detail:

  • Bevölkerungsdichte des Landes: Dichte von (zufälligen) Impulsen im Klangstrom,
  • Bruttoinlandsprodukt pro Person des Landes: dominierende mittlere Resonanz-Tonhöhe des Stroms,
  • Verhältnis der höchsten zur niedrigsten 10.-Perzentile des Einkommens: Tonhöhen der äußeren zwei „Satelliten“-Resonatoren (höchste und tiefste Tonhöhe),
  • Verhältnis der höchsten zur niedrigsten 20.-Perzentile des Einkommens: Tonhöhen der inneren zwei „Satelliten“-Resonatoren (fehlende Werte dieser beiden Parameter klingen als dichte Cluster),
  • Wasserzugang: Ausschwingzeit (kurze Töne bedeuten weniger Zugang, also trockener, lange Töne besseren Zugang zu Trinkwasser),
  • Abstand vom Navigationspunkt: Lautstärke und Einschwingzeit (entfernte Ströme sind leiser und weniger deutlich),
  • Richtung: die räumliche Richtung des Stroms in der Verteilung auf die Lautsprecher (Richtung Norden bleibt konstant)

Die Bewegungen und Bedingungen der Navigation – Geschwindigkeit des Schiffs, Richtung, Sturm und Ruhe – sind sehr direkt dargestellt als räumliche Ausrichtung, Helligkeit, Intensität und Lebendigkeit der windähnlichen Geräusche.
Die folgende Auflistung der Zeitpunkte und Orte gibt beim Hören eine Orientierung:
0:00–0:10 Sehr langsame Fahrt von Sevilla nach San Lucar.
0:20–0:26 Cape Verde: sehr direkter Klang (also in Hauptstadt-Nähe), eher tief, dichtes Spektrum (armes Land, unbekannte Einkommensverteilung).
0:54–1:00 Uruguay/Rio de la Plata: sehr direkter Klang, dichte Vorbeifahrt.
1:05–2:40 Port San Julian, Patagonien: sehr lange Stasis, alles ist weit weg, 4 + 2 Monate Winterpause in Magellans Reise.
2:45 Fahrt in den Pazifischen Ozean: neue Ströme, viele dichte Spektren; unbekannte Einkommensverteilung.
3:20 Philippinen: sehr direkter Klang (nahe der Hauptstadt), hohe Satelliten: ungleiche Einkommensverteilung … Molukken, indonesische Inselgruppe.
4:00 Brunei: sehr direkter, hoher, dichter Klang: sehr reich, unbekannte Verteilung.
4:50 Osttimor: direkt, hauptsächlich Klicks, nur sehr tieffrequente Resonanzen (sehr arm, wenig Zugang zu Wasser, unbekannte Einkommensverteilung).
5:15 In den Indischen Ozean: ‚Offenheit‘, ein Gefühl von Entfernung.
5:50 Annäherung an Afrika: mehr tiefere Mitten mit sehr hohen Satelliten: arm, mit sehr ungleicher Einkommensverteilung (aber wenigstens zugängliche statistische Daten).
5:55 Vorbei am Kap der Guten Hoffnung: ähnlich wie Osttimor.
6:10 Rückkehr nach San Lucar, Spanien.
Alberto de Campo und Christian Dayé (gekürzter Text aus: Proceedings of the 12th International Conference on Auditory Display, London, UK, 20. bis 23. Juni 2006) (Übersetzung: JHS)


Route von Magellans Weltumseglung, aus Antonio Pigafetta, Primo Viaggio Intorno Al Globo Terracqueo (1530, Reprint 1800). Universitätsbibliothek Graz

http://turbulence.org/project/heat-and-the-heartbeat-of-the-city/

 

Andrea Polli: Heat and the Heartbeat of the City (2004), 4-kanal
Die Erdatmosphäre erwärmt sich und der Anstieg der globalen Temperaturen führt jetzt schon zu steigenden Meerespegeln rund um die Welt. Dies erhöht die Wahrscheinlichkeit der Zunahme von Wirbelstürmen und Tsunamis, wie sie vermutlich schon über die Erde ziehen. 2004 arbeitete ich zusammen mit Dr. Cynthia Rosenzweig, Dr. David Rind und Richard Goldberg am NASA Goddard Institute für Space Studies und der Klima-Forschungsgruppe der Columbia University mit Daten zum Klimawechsel der Region New York City. Die WissenschaftlerInnen entwickelten ein atmosphärisches Modell der Stadt, das eines der detailliertesten Modelle urbaner Umgebungen überhaupt ist. Mit diesem Modell lässt sich vorhersagen, welche Auswirkungen der Klimawandel auf New York und seine Umgebung haben wird. Ich erhielt Temperatur-Messdaten verschiedener Orte in New York für mehrere Sommer der 1990er Jahre sowie vorherberechnete Temperaturdaten für Sommer in den 2020ern, 2050ern und 2080ern. Die Daten waren für ihre Sonifizierung formatiert. Auf deren Basis schuf ich eine Reihe von Sonifikationen, mit denen ich versuchte, die physische Erfahrung ansteigender Temperaturen zu vermitteln.
Andrea Polli (Übersetzung: JHS)


Sound artist Andrea Polli at work in the weather tower at Williams Airfield near McMurdo Station.Foto: Tia Kramer

 

 

Johannes Kreidler: Charts Music (2009), Musikstück mit Visualisierung
Charts Music ist eine Sonifikation von Börsenkursen und anderen politischen Statistiken zum Höhepunkt der Finanzkrise (Januar 2009). Aus Schaubildern wurden Melodien gebildet und diese in die Kinderkompositionssoftware „Songsmith“ eingespeist.
Johannes Kreidler

Johannes Kreidler: Bildschirmfotos aus Charts Music (2009)
Ricardo Climent: Oxidising the Spectrum (2004), live Game-Audio
Oxidising the Spectrum (2004) begann als interdisziplinäre Zusammenarbeit zwischen dem Komponisten Ricardo Climent und dem Chemieingenieur Dr. Quan Gan. Die interaktive Installation exploriert die Möglichkeiten von mikrobieller Elektrochemie in einer kompositorischen Umgebung. Um das Chemielabor als Musikinstrument neu zu erfinden, hat der Komponist ein System entwickelt, das mit Hilfe von mikrobieller Brennstoffzellen (MBZ) biologische Pattern generieren und manipulieren konnte, um Elektrizität für musikalisches Mapping zu erzeugen. Es umfasst fünf „Familien“ mikrobieller Kulturen (das „Microbial Ensemble“), die sich wie ein musikalisches Quintett verhalten, während geringe elektrische Spannungen in einer Live-Performance in musikalische Äußerungen übersetzt werden. Kompositorisch betrachtet wird durch die Manipulation von lebenden Organismen versucht, den Prozess der Sonifikation zu wiederholen, indem man elektrische Muster rekonstruiert, die dann sonisch getestet werden. Climent schuf dieses interaktive System und das Stück, nachdem er ein Jahr bei Dr. Gan im Chemie-Labor der Queens University in Belfast studiert hatte.
Die virtuelle Version dieses Live-Bio-Simulators wurde zuerst 2016 beim Sonifikations Symposium am ZKM in Karlsruhe gezeigt, geschaffen in der Unreal Game Engine 4. Sie ahmt das mikrobielle System der originalen Installation und die originale musikalische Klangwelt mit ihrer Daten-Extraktion nach. Da die Mikroben dieser Version virtuell sind, ist die Aufführung für das Publikum sicher: Es liegt kein Gesundheitsrisiko vor.
Ricardo Climent (Übersetzung: JHS)

 


Bildunterschrift: Ricardo Climent, Performance im Temple Bar Music Centre, Dublin (2006), Foto: Ima Pico

 

 

Falk Morawitz: Nuclear Magnetic Resonance (2014), 2-kanal
Nuclear Magnetic Resonance ist ein etüdenartiges Musikstück, das auf molekularer Sonifizierung beruht. Molekulare Sonifizierung ist die Übersetzung von molekularen und atomaren physikalischen Eigenschaften (wie zum Beispiel atomare Vibration und elektromagnetische Oszillationen) in Klang. Die vom atomaren System ausgesendeten elektromagnetische Impulse haben unter gewissen Voraussetzungen sehr ähnliche Eigenschaften wie Schallwellen und können so direkt in Klang verwandelt werden – essentiell als eine Form des „akustischen Fingerabdrucks“, der für jede Molekülart charakteristisch ist. Durch die gezielte Auswahl der Moleküle und spektroskopische Methoden für die Sonifizierung kann eine Vielzahl an Klangfarben erzeugt werden. Die Komposition Nuclear Magnetic Resonance benutzt die Sonifikationsprodukte von Wasserstoff-1 Kernspinresonanz-Daten von 50 verschiedenen Molekülen als Ausgangspunkt der Komposition. Kernspinresonanzspektroskopie ist für die molekulare Sonifikation besonders geeignet, da die elektromagnetischen Impulse der untersuchten Moleküle hier meist bereits in einer Frequenzbreite von 20 bis 20.000 Hertz vorliegen, also im Hörbereich von Menschen. Eine einfache Konvertierung (oder Audifizierung) der Impulse in mechanische (Schall-)Wellen erzielt somit bereits hörbare Resultate. Für die Komposition wurden die einzelnen Ausgangsklänge durch Amplitudenmodifikation, Micro-Editing, Frequenzmodulation und granulare Synthese noch weiter bearbeitet. Das resultierende Musikmaterial wurde so strukturiert, dass jede Partition der Komposition eine andere Bearbeitungsform hervorhebt.
Falk Morawitz

 


Falk Morawitz, Grafik zu Nuclear Magnetic Resonance (2014)
Falk Morawitz: Spin Dynamics (2016), akusmatische Komposition, 8-kanal
Spin Dynamics ist eine akusmatische Komposition, die den Einsatz von sonifizierten Wasserstoff-1 und Kohlenstoff-13 Kernspinresonanz-Daten in einem elektroakustischen Kontext untersucht. Kernspinresonanz-Experimente regen Moleküle dazu an, spezifische elektromagnetische Signale in einem Bereich von 20 bis 20.000 Hertz auszusenden. Da es weit mehr als 50 Millionen verschiedene organische Substanzen gibt und jede Substanz ein einzigartiges Frequenzmuster besitzt, ist die Anzahl der potentiell zu erschaffenen Klangfarben nahezu endlos. Die Inkorporierung dieser vielfältigen Klänge in die Musikkomposition ist jedoch nahezu unerforscht. Für Spin Dynamics wurden die Kernspinresonanz-Daten von hundert verschiedenen organischen Substanzen sonifiziert. Die Klangauswahl und Arrangierung folgt hauptsächlich ästhetischen Gesichtspunkten, indem jeder Abschnitt der Komposition einen anderen Aspekt des Ausgangsmaterials hervorhebt.
Falk Morawitz

Falk Morawitz, Grafik zu Spin Dynamics (2016)
Åsa Stjerna: Vom Himmel holen (2017), performative Präsentation einer permanenten 16-kanaligen Klanginstallation in Göteborg
Uraufführung
Vom Himmel holen ist eine künstlerische Sonifikation des Himmels über dem Sahlgrenska-Krankenhaus in Göteborg, Schweden. Das Glasdach des Lichthofs des Krankenhauses ermöglicht die freie Sicht in den Himmel, der innerhalb des Gebäudes sonifiziert und interpretiert wird. Dazu werden von einer Wetterstation auf dem Dach des Krankenhauses Daten, wie Temperatur, Windgeschwindigkeit, Niederschlag, Luftdruck u. a., in Echtzeit zum Computer gesendet, wo Klänge in Abhängigkeit von diesen Daten auf verschiedene Weise synthetisiert und transformiert werden. Diese Klänge bewegen sich vertikal über 16 in die hölzerne Wandverkleidung eingelassene Lautsprecher über die gesamte Höhe des Lichthofs – vom Erdgeschoss bis in den Himmel.
In der Villa Elisabeth werden die Klänge ebenfalls in Abhängigkeit von den Wetterdaten aus Göteborg in Echtzeit generiert, im Saal für die Performance interpretiert und mit dokumentarischem Material vom Entwicklungs- und Aufbauprozess kombiniert.
Programmierung (Installation und Performance) • Andre Bartetzki, Technisches Konzept und Aufbau (Installation) • Manfred Fox
Åsa Stjerna

Åsa Stjerna: Skizzen und Fotos der Installation im Sahlgrenska-Krankenhaus in Göteborg (2016)
Jasmine Guffond, Listening Back (2017), Live-Elektronik, Projektion und Schlagzeug
Uraufführung, Auftragswerk

Before cookies, the Web was essentially private. After cookies, the Web becomes a space capable of extraordinary monitoring. (Lawrence Lessig)
[Bevor Cookies eingeführt wurden, war das Netz eigentlich privat. Nach der Einführung von Cookies ist das Netz ein Raum geworden, der außerordentliche Überwachung ermöglicht. Lawrence Lessig]

Listening Back ist eine Liveperformance mit Echtzeit-Sonifizierung von Cookies, also Dateien, über die Internetseiten ihre Besucher verfolgen, und führt den rapiden Zuwachs allgegenwärtiger Internetüberwachung vor. Nach dem Begriff „magic cookie“ (Zauberkeks) aus der Informatik benannt, werden Cookies meist zum Data-Profiling zu Werbezwecken, durch Unternehmen und Regierungen genutzt, indem eine Textdatei auf dem Computer, über den die Website besucht wird, gespeichert wird. 1994 eingeführt sind solche Internet-Cookies inzwischen allgegenwärtig und verändern das Surfen im Netz von einer verhältnismäßig anonymen Aktivität zu einer Umgebung, in der Transaktionen, Wege und sogar Begehren verwahrt, sortiert, analysiert und verkauft werden. Die relative Unsichtbarkeit digitaler Überwachung hat unsere Wahrnehmung davon, überwacht zu werden, sowohl verstärkt als auch ambivalent werden lassen. Klang wird in dieser Arbeit ein Mittel des Zurückhorchens werden auf einige der nicht wahrnehmbaren Infrastrukturen, die unser gewohntes Surfen im Netz überwachen.
Jasmine Guffond (Übersetzung: JHS)


Jasmine Guffond, Auszug aus dem Programmiercode für Listening Back (2017)


Jasmine Guffond

 

 

Zur Podiumsdiskussion

Klang Kunst Wissen – Die Reihe „Sonarisationen“ im Deutschlandfunk Kultur

In der Reihe „Sonarisationen“ erzeugen KünstlerInnen und WissenschaftlerInnen sinnliche Hörräume aus abstrakten Daten. Sie forschen dabei aktiv am Zusammenspiel von ästhetischer Vielfalt und informativer Deutlichkeit. Im Mittelpunkt steht immer ein Wissensfeld, das viele interessiert, aber wenige durchschauen. Das Hören soll einen direkten Zugang zu Phänomenen ermöglichen, die durch Grafiken oder Texte nur schwer vermittelbar sind. Die Ergebnisse präsentiert Deutschlandfunk Kultur immer dann, wenn ein Hörspiel, Feature oder Klangkunst-Stück etwas kürzer ist als der jeweilige Sendeplatz. Bisherige Ausgaben waren:

Tweetscapes
Wie klingt es, wenn Deutschland twittert? Wie tickt das soziale Netzwerk live? Der Klangkünstler Anselm Venezian Nehls und der Sonifikationsforscher Dr. Thomas Hermann zapfen den Datenstrom des Twitter-Netzwerks an. Award of Distinction beim Prix Ars Electronica 2012.

http://www.deutschlandfunkkultur.de/klangminiaturen‐tweetscapes.1387.de.html?dram:article_id=297229

Bonner Durchmusterung (siehe auch Konzertprogramm)
Wie klingt ein Pulsar? Welchen Rhythmus hat eine Galaxie? Solche Fragen beantworten der Komponist Marcus Schmickler und der Audio-Informatiker Alberto de Campo mit ihrem Projekt Bonner Durchmusterung, angelehnt an die gleichnamige Sternenkarte aus dem 19. Jahrhundert.

Leftovers
Der Komponist Hannes Seidl hat zusammen mit dem Experimentalstudio für akustische Kunst einen invertierten MP3-Filter entwickelt. Dieser bringt all jene Klanganteile hervor, die normalerweise der Kompression zum Opfer fallen. In seinen Leftovers wird der akustische Abfall der digitalen Wegwerfgesellschaft hörbar.

http://www.deutschlandfunkkultur.de/klangminiaturen-leftovers.1387.de.html?dram:article_id=293381

Operation Olympic Games
Unter dem Decknamen „Operation Olympic Games“ nutzten die Vereinigten Staaten Computerviren zur Sabotage der iranischen Nuklearanlagen. Analog dazu unterwandert James Hoff unsere Hörgewohnheiten: Er überträgt die Strukturen bekannter Schadsoftware auf gängige Musikgenres.

http://www.deutschlandfunkkultur.de/klangminiaturen-operation-olympic-games.1387.de.html?dram:article_id=315324

KLIMA|ANLAGE
Alle reden übers Wetter. Diese Binsenweisheit scheint im 21. Jahrhundert eine neue Wendung zu nehmen: Alle reden übers Klima. Die Interpretation von Temperatur, Niederschlag, Luftdruck und Co. ist zunehmend heiß umkämpft, denn sie berührt ökonomische, soziale und politische Interessen.
In Zusammenarbeit mit Sonifikationsforschern der Universitäten Bielefeld und Graz hat der Klangkünstler Werner Cee ein begehbares, interaktives Klangobjekt gestaltet. Es kann Klimawerte und Modellrechnungen über Zeiträume zwischen 1950 und 2100 ertönen lassen. So werden Muster und Entwicklungen wesentlich leichter erfassbar als in den herkömmlichen Schaubildern.

http://www.klima-anlage.org/

Marcus Gammel

Werner Cee, Abbildung aus Klima|Anlage

 

 

Konzert: Kairos Quartett:

Iannis Xenakis: ST/4-1,080262 (1962) für Streichquartett


Xenakis Werk ist eines der ersten vom Computer errechneten Kompositionen. Als Pionier kann Xenakis als Referenz für die Komponisten betrachtet werden, die in einem weiteren Schritt die Sonifikation von Daten mit einbeziehen.
Titelerläuterung (vollständig: ST/4-1,080262): ST = stochastische Musik. Stochastisch bedeutet in der Mathematik „ungewiss“, „zufällig“, „der Wahrscheinlichkeit unterworfen“ und ist von Jacques Bernoulli eingeführt worden; 4-1 = erstes Werk für 4 Instrumente. 080262 = 8. Februar 1962, der Tag, an dem das Werk vom Elektronengehirn [Großcomputer] errechnet wurde.
ST/4 ist eine Version für 4 Streichinstrumente des Werkes ST/10 für 10 Instrumente, das vom Elektronengehirn 7090 der IBM in Paris nach einem vom Komponisten erdachten, besonderen stochastischen (Wahrscheinlichkeits-) „Programm“ errechnet wurde. Dieses „Programm“ ist aus dem Grundsatz vom „Mindestmaß von Kompositionsregeln“ hergeleitet, der schon in Achorripsis für 21 Instrumente formuliert worden war, aber erst vier Jahre später von IBM-France „mechanisiert“ werden konnte. Das Programm ist ein Komplex von stochastischen Gesetzen (Wahrscheinlichkeitsrechnung), die der Komponist seit vielen in die musikalische Komposition eingeführt hat. Es gibt dem elektronischen Gehirn auf, alle Töne einer vorher errechneten Sequenz, einen nach dem anderen, zu definieren. Zuerst den Zeitpunkt des Eintritts, sodann die Klangfarbe (arco, pizzicato, glissando etc.), sein Instrument, seine Lage, die Steilheit des Glissandos soweit erforderlich, die Dauer und Dynamik. Dieses Streichquartett verwendet die Instrumente in jeder nur möglichen Weise […].
Vorwort zur Partitur, Boosey & Hawkes, 1968.
Lula Romero: Dérive (2017) für Streichquartett und Live-Elektronik
Uraufführung, Auftragswerk der BGNM
Dérive (2017) für Streichquartett und Live-Elektronik exploriert die ästhetischen Konsequenzen von Subjektivität in Sonifikationsprozessen, das Konzept des „Dérive“ (Umherschweifens) und die Übersetzung eines real-physischen Raums in eine musikalische Struktur.
In jedem Sonifikationsprozess steckt ein subjektives Element in der Interpretation der Daten und ihrer Zuordnung zu musikalischen Parametern oder der musikalischen Transformation. Hinzu kommt, dass Daten aus wissenschaftlicher Versuchsanordnung nicht im eigentlichen Sinne objektiv sind, sondern Repräsentationen von Phänomenen, wie der Molekularbiologe und Philosoph Hans-Jörg Rheinberger feststellt („Experimental systems: difference, graphematicity, conjuncture“, in: Florian Dombois u. a. [Hg.], Intellectual birdhouse: artistic practice as research, Köln 2012, S. 89–99). Daten präsentieren demnach nicht die Phänomene selbst, sondern repräsentieren sie. Deshalb beinhalten sie ein Moment von Interpretation, also Subjektivität. Dieser Idee folgend, erforscht Dérive die Folgen dieses Moments von Subjektivität, und zwar nicht bloß in der Übersetzung der Daten in Musik, sondern auch in der Erhebung der Daten selbst. So hat dieses Projekt zwei Teile: die Datenerhebung und deren Sonifikation in einem Musikstück für Streichquartett und Live-Elektronik.

Datenerhebung
Die sonifizierten Daten werden zunächst von einer Spaziergängerin (ich selbst) in einer Stadtwanderung, einem „Dérive“ von einer Stunde Dauer in Berlin erhoben. Eine Tracking-App in meinem Smartphone hat meine Wanderung aufgezeichnet. Dieses Computerprogramm ermöglicht außerdem Tonaufnahmen und Einfügen von Daten- und Medien-Dateien (Text, Video- und Audioaufnahmen), die verwendet wurden, um Besonderheiten, Eindrücke, Gedanken und Entscheidungen auf dem Weg aufzuzeichnen. Zusätzlich fertigte ich field recordings während des Laufens an. Wie in Guy Debords Konzept des „Dérive“ wurde mein Gehen von subjektiven Entscheidungen in spezifischen Umgebungen bestimmt. Bei Debord umfasst die Methode des Umherschweifens oder „Dérive“ spielerisch-konstruktives Verhalten und Bewusstsein über psychogeografische Effekte. In einem „Dérive“ geben eine oder mehrere Personen, laut Debord, ihre Absichten für Bewegungen und Aktionen, ihre Beziehungen, ihre Arbeit und Freizeitaktivitäten für eine bestimmte Zeit auf und lassen sich von den Attraktionen der durchschweiften Umgebung und dem, was sie darin antreffen, anziehen (Guy Debord, „Theory of Dérive“ [1958], zitiert nach: Nomadic Trajectories, hg. von John Sellars, in: Warwick Journal of Philosophy 7, [1998], S. 7). Deswegen ist jeder Richtungswechsel während des Spaziergangs und jede Änderung des Gehtempos von der urbanen Architektur, der Umwelt und den Menschen darin bestimmt, also von Geschmack, Neugier oder Aversion ebenso wie von Unbehagen und Furcht. Diese Entscheidungen wurden in einem „Walk Diary“ protokolliert. Der Datensatz des Spaziergangs durch eine Gegend im Berliner Stadtteil Kreuzberg wurde in dieser Komposition sonifiziert. Es gibt zwei Arten von erhobenen Daten:

Quantitative Daten:
Bewegungen, Routen und erlaufene Gegenden, die von der Tracking-Applikation aufgezeichnet wurden. (Routen und Bewegungen sind als rote Linie auf der Karte markiert. Der Anfang ist durch ein rotes Dreieck, das Ende des Spaziergangs durch ein rotes Viereck eingezeichnet. Die durchlaufene Gegend ist auf der Karte rot eingefärbt.)
Dauer und Geschwindigkeit der Routen (Daten aus der App) sowie Pausen im Spaziergang (auf der Karte als blaue Punkte gekennzeichnet).

Qualitative Daten „Walk Diary“:
Ereignisse und Motivationen für jeden Richtungswechsel (auf der Karte als grüne Punkte markiert).
Subjektive Eindrücke, die in Form von Fotos, Texten, Tonaufnahmen und Videos festgehalten wurden.
Field recording.

Ästhetische Implikationen
Wenn ein konkreter physikalischer Raum, in diesem Fall ein urbaner Raum, als Datenquelle für die Komposition eines Musikstücks genutzt wird, hat das ästhetische Konsequenzen. Die Daten der Laufrouten und Geschwindigkeiten werden beide für die Struktur der Komposition und die Spatialisation genutzt. Ein fließender und offener Raum ergibt eine fließende, sich kontinuierlich ändernde Form und einen Raum, der sich von der parzellierten Struktur von Musikstücken unterscheidet; es ergibt sich eine Form in kontinuierlicher Entwicklung, die durch ihr eigenes Material, ihren eigenen physikalischen Raum, entwickelt ist; deshalb ergibt sich eine Form, die durch Bewegung entsteht und durch ihre Beziehung zur Zeit statt zu architektonischen Formen. Eine Form, die auch die Narben der Stadt, ihre Fehlplanungen, ihre Fehlnutzungen entdeckt, die Prätention einer harmonischen Form ablehnend.
Dennoch schränkt der Berliner Urbanismus – wie in den meisten europäischen Städten, die von ihrer Entwicklung im 18. und 19. Jahrhundert unter Idealen von Aufklärung und Idealismus geprägt sind, – die Bewegungsfreiheit der Laufenden auf das orthogonale Raster der Stadt ein. In Berlin ist diese geometrische Struktur perforiert und verkompliziert von den Spuren des zweiten Weltkriegs und der Teilung der Stadt. Für zukünftige Projekte wäre eine vergleichende Erforschung von Städten wie Venedig oder Sevilla interessant, die immer noch Züge eines chaotischeren und rhizomatischeren Urbanismus des Mittelalters tragen.

Politische und soziale Implikationen. Nomadisches
Durch die Entscheidungen und Wanderungen der Laufenden in ihrer sozusagen auto-ethnografischen Feldforschung treten verschiedene politische und soziale Implikationen hervor, nämlich wie öffentlicher Raum und urbane Architektur instandgehalten und genutzt werden, wie hetero-patriarchische und kapitalistische Ideologie sich in der urbanen Architektur und der Stadtplanung sowie in ihrer Nutzung spiegeln. Deutlich werden kann auch, für welche Bedürfnisse und Bevölkerungsgruppen die Stadt geplant und gebaut wurde: für Fußgänger oder für Verkehr, für Shopping, für Ruhe und Besinnung, als sozialer Treffpunkt, für Angehörige welcher gesellschaftlicher Gruppen: welches Geschlecht, Alter oder sozioökonomische Zugehörigkeit. Aber auch neue und subversive Nutzung der Anwohner in urbanem Raum zeigt sich. Der Stadtteil Kreuzberg ist ein heterogener, armer und internationaler Ort mit Reibungen in der sozialen Koexistenz. Die Nachkommen türkischer Migranten, neue Migranten aus dem globalen Süden, Migranten aus anderen Teilen Deutschlands, Papierlose ohne Aufenthaltsgenehmigung, Künstler und Partytouristen koexistieren in einem demografisch pluralen und dicht besiedelten Ort mit Problemen von Armut, Gentrifizierung und Kapitalismus. Das hieraus entwickelte Stück kann also weder eine fröhliche Collage dieses Berliner Stadtteils sein, noch soll er dämonisiert werden. Vielmehr soll es die Gemeinschaft und die Realität sichtbar machen: es soll etwas präsentieren oder repräsentieren, das unsichtbar ist, ignoriert oder missachtet wird. In dieser Präsentation soll nicht das Problem definiert werden, sondern eine „nomadische Figuration“ im Sinne von Rosi Braidotti (Nomadic Subjects. Embodiment and Sexual Difference in Contemporary Feminist Theory, New York 1994); eine Erklärung für eine sich immerfort ändernde Situation in kontinuierlichem Wandel, der sich als fluides Musikstück materialisiert.

Interpretation der Daten
Die gesammelten Daten sind die Grundlage für die Entwicklung der Makro- und Meso-Struktur des Stückes und ein Modell für die räumliche Verteilung des Klangs durch die Live-Elektronik. Der Zeitrahmen von 60 Minuten des Spaziergangs sowie die unterschiedlichen Geschwindigkeiten und Rhythmen des Laufens werden komprimiert, indem sie durch Vier geteilt werden, so dass die Komposition nur 15 Minuten dauert. Die gelaufenen Geschwindigkeitswechsel etc. wurden auch in die Struktur der Komposition übernommen.
Das erlaufene Gebiet wird auf die Dimensionen des Aufführungsortes, den Saal der Villa Elisabeth, reduziert. In diesem Saal werden die Klangquellen (die vier Instrumente des Streichquartetts und vier Lautsprecher) räumlich so angeordnet, dass sie eine Fläche gleich der gelaufenen konturieren. Das Publikum sitzt innerhalb dieses Gebiets. Die Routen des Klangmaterials, die sich zwischen Instrumenten und Lausprechern ergeben, werden einen Eindruck vom „Dérive“ der Laufenden geben, der Klang wird also ihrem Weg folgen.
Im „Walk Diary“ sind die Ereignisse verzeichnet, die in musikalische Ereignisse übertragen, nicht nur die Richtungsänderungen der Klangrouten auslösen, sondern auch Registerwechsel („Dérive“ im ‚vertikalen Raum‘ des Klangs), Dichte des Materials, Amplitude, Texturen und Qualität des Spektrums. Elemente aus den Field Recordings wurden transformiert und transkribiert und so als kompositorisches Material eingesetzt. Diese Übersetzung oder Zuordnung sollte als sehr subjektive Interpretation verstanden werden, was aber nicht heißt, dass die Musik simplifiziert die ‚Gefühle‘ der Laufenden wiedergeben soll. Vielmehr ergeben die Ereignisse aus dem „Walk Diary“ eine Abstufung der Änderungen und bestimmen die Kategorien der oben genannten Wechsel.
Lula Romero (Juni 2017) (Übersetzung: JHS)


Lula Romero, Dérive-Karte und Zeitübersicht zu Dérive (2017)
Luc Döbereiner: Auflösung (2017) für Cello und Live-Elektronik
Uraufführung, Auftragswerk der BGNM
Theorien der Sonifikation unterscheiden zwischen einer Informations- oder Datenquelle und einer vermittelnden Übersetzung in ein akustisches Signal, das in den Daten vorhandene Verhältnisse, Eigenschaften und Strukturen klanglich erfahrbar macht. Fluktuationen und Muster in den Ausgangsdaten, die erfahrbare zeitliche oder räumliche Größenordnungen übersteigen oder in nicht-klanglichen Medien kodiert sind, können so hörbar und wahrnehmbar gemacht werden. In Auflösung interessiert mich weniger die klangliche Darstellung oder Übertragung außermusikalischer oder wissenschaftlicher Daten oder Strukturen, sondern vielmehr eine Interpretation des akustischen Instrumentalklangs als Datenquelle selbst. Meist legt Sonifikation einen Schwerpunkt auf Klang als Informationsträger, indem Daten durch klangliche Übersetzung sinnlich wahrgenommen werden können und ihnen damit Sinn gegeben wird. In dem Stück Auflösung für Cello und Live-Elektronik gehe ich von der „Sonifikation von Klang selbst“ aus. Dabei interessiert mich besonders, wie sich verschiedene Zeitebenen berühren können und wie Strukturen von einer auf eine andere Zeitebene übertragen und somit erfahrbar gemacht werden können.
Spektrale Eigenschaften wie Rauschhaftigkeit, Fluktuation, spektraler Schwerpunkt, Bandbreite, Dichte der Ereignisse und weitere Analysen bilden Ausgangsdaten, die zur Steuerung eines Syntheseprozesses verwendet werden, dessen klangliches Resultat wiederum mittels Körperschallwandler (Transducer) über das Cello wiedergegeben wird. Sonifikation besteht aus einer Überführung von einem Medium in ein anderes. Ich verstehe diesen Vorgang als eine Form von „Transduktion“, wie sie Gilbert Simondon beschreibt, d. h. als Prozess der Übertragung und Ausbreitung, durch den Form erzeugt wird:
„Unter Transduktion verstehen wir einen physikalischen, biologischen, mentalen, sozialen Vorgang, durch den sich eine Aktivität im Inneren eines Bereichs nach und nach ausbreitet. Diese Ausbreitung beruht auf einer allmählich fortschreitenden Strukturierung des betroffenen Bereichs: Jede Region der gebildeten Struktur dient der folgenden Region als Konstitutionsprinzip, so daß sich zugleich mit diesem strukturierenden Vorgang eine Modifikation immer weiter ausbreitet […] Der transduktive Vorgang ist eine fortschreitende Individuation“. (Gilbert Simondon, „Das Individuum und seine Genese. Zur Einführung“, in: Claudia Blümle, Armin Schäfer [Hg.], Struktur, Figur, Kontur. Abstraktion in Kunst und Lebenswissenschaften, Zürich, Berlin: diaphanes, 2007, S. 29–45, 40f.)
Es ist gerade die Spannung zwischen den unterschiedlichen Bereichen, die die Dynamik des Prozesses erzeugt. In Auflösung wird Sonifikation als Operation in einem offenen Rückkopplungsprozess verstanden, der als transduktive Individuation von Klang durch eine Übertragung fungiert. Was mich interessiert ist dabei der Übergang von Bedeutung und Material und der spannungserzeugende Unterschied, der durch die Übersetzung der Sonifikation entsteht. Cellistin, Analyse und Synthese werden dabei als heterogenes System mit inneren Grenzen verstanden, das durch ein nicht-lineares Mapping von Parametern der instrumentalen Aktionen, der Analyse und Klangsynthese aufeinander gekennzeichnet ist.
In Auflösung durchfließt Klang verschiedene Medien als Datenstrom, elektrische Spannung und mechanische Vibration und durchläuft materielle Transformationen, Messungen, Parameter-Mapping, Synthese und Analysen. Die Vielfalt an Datenströmen verbindet verschiedene Zeitebenen. Was sonifiziert und damit hörbar gemacht wird, sind Aspekte des Klangs, die sich über einen längeren oder sehr kurzen Zeitraum entwickeln und nicht im einzelnen vorübergehenden Instrumentalklang fassbar sind, sowie Muster und Beziehungen, die erst eine Auflösung des Klangs in bestimmte Klangeigenschaften zu Tage treten lässt. Die wieder sonifizierten Eigenschaften, die zurück auf das Cello projiziert werden, kreieren einerseits eine neue Zeitebene in Form einer „Resonanz“ mikro- und makro-zeitlicher Veränderungen im Klang und erzeugen andererseits eine Rückkopplung, in der die sonifizierten Klangeigenschaften selbst wieder Gegenstand der Analyse werden. Was hier also hörbar gemacht wird, sind einerseits die analysierten Eigenschaften des Klangs und deren Entwicklung und, durch die Rückkopplung, andererseits die Operation des Systems und die analytisch-parametrische Auflösung des Klangs selbst. „Auflösung“ bezieht sich hier also auf eine technische Messung, auf die Aufspaltung eines Phänomens im Sinne einer Analyse, aber auch auf ein Verschwinden.
Wird bei Sonifikation in der Regel eine Form von Bedeutung in den Ausgangsdaten klanglich wahrnehmbar gemacht, so hat hier der Instrumentalklang eine mehrfache Bedeutung, die wiederum in Daten übertragen wird. Der Instrumentalklang funktioniert hier als Produktion von Steuerdaten für die Klangsynthese. Die Cellistin interagiert somit mit dem System und bespielt das Instrument gemeinsam mit den sonfizierten Klängen. Die Bedeutung des instrumentalen musikalischen Materials geht über das unmittelbar hörbare Ergebnis hinaus und das Cello wird durch seinen Klang auch zu einem Controller für die Live-Elektronik. Sonifikation wird hier als kompositorische Perspektive zur Entwicklung einer performativen Interaktionsform zwischen Musiker und Technologie verstanden.
Luc Döbereiner


Luc Döbereiner, Grafik und Foto zu Auflösung (2017)

 

 

Knut Müller: Thorn (1996) für Streichquartett

Thorn für Streichquartett entstand 1996 mit Hilfe einer grafischen Kompositionsmethode in einem Tonhöhen-Zeit-Diagramm. Teile des Stückes wurden zuerst auf Millimeterpapier als Grafik entworfen, bevor sie in die Notenschrift übertragen wurden.
Thorn ist inspiriert von der gleichnamigen Erzählung des schwedisch-amerikanischen Schriftstellers Lars Gustafsson (1936–2016). In ihr sucht der Ich-Erzähler in einer Bibliothek, die eine Sammlung von alten Stichen und Landkarten enthält, die historische Entwicklung der Stadt Thorn, des heutigen Torun in Polen, durch die Jahrhunderte hindurch zu verfolgen. Ein Detail, ein Haus mit Wetterfahne, erweckt sein Interesse. Dieses versucht er, von Karte zu Karte wiederzufinden. Mitunter ist es nur teilweise sichtbar, bisweilen scheint es von neuen Bauten gänzlich verdeckt und schließlich glaubt er, dass es auf Grund der Zerstörungen durch Kriege oder die Veränderungen der Zeit aus dem Stadtbild verschwunden ist. Völlig unverhofft findet er es auf einem viel späteren Stich jedoch wieder – an einer gänzlich anderen Stelle der Stadt. Es bleibt die Frage, ob es jenes Haus ist oder ein bis ins Detail nachgebautes Pendant. Die Erzählung veranschaulicht für mich auch ein Problem der Interpretation von Musik, das Erwecken von Klang aus der Notation. Wie ein Musiker in den Notentext, so dringt der Erzähler in die Struktur der Grafik ein, belebt das Starre und projiziert es im Erzählvorgang in die Zeit.
Thorn besteht zum Großteil aus Glissandi. In diesem dynamischen System ist als musikalischer Grundbaustein eine ständig anwesende Konstante in Form eines Akkordes verborgen. Dieser spezifische vierstimmiger Akkord im Umfang eine Quarte, der von den Kräften der immer anwesenden Bewegungen ständig verformt wird, erklingt in seinen möglichen Stellungen entweder vollständig oder in Teilen. Im Sog der fließenden Tonhöhenveränderungen, im Wahrnehmen der verschiedenen dynamisierten Energieübergänge und Energiezustände, glaubt man das Feste verloren. Aber aus der harmonischen Präsenz des Akkordes, aus der Differenzierung in Abschnitte und aus der Bündelung der Instrumente zu einem Meta-Instrument bildet sich dem Stück eine neue Form, so wie ein Flussbett die Gestalt des in ihm fließenden Wassers bildet.
Thorn erhielt 1996 einen Preis beim Internationalen Kompositionswettbewerb der Stadt Klagenfurt.
Knut Müller
Martin Iddon: Mohl ip (2009/10) für Streichquartett

https://soundcloud.com/search?q=martiniddon

Der Titel, Mohl ip, ist eine Transliteration eines koreanischen Begriffs, der das purpurne oder hellblaue Licht beschreibt, das man bei geschlossenen Augen in den Anfangsphasen von Meditation sieht. Obwohl das Stück in keinerlei Hinsicht im Wortsinne programmatisch sein soll, verlangt Mohl ip doch ziemlich viele, extrem kontrollierte, flüssige Körpergesten von seinen Interpreten. Ebenso wie dies hörbare Musik ist, ist es auch körperliche und sichtbare Musik: In den Körperbewegungen der Interpreten artikulieren sich langsam ändernde Verhältnisse, welche komplexe, aber stetige Änderungen der Klangfarbe hervorrufen, fast noch mehr als Änderungen der Tonhöhen. So wird der performende Körper gleichsam als Naht zwischen dieser numerischen Repräsentation sich graduell ändernder Tempokurven und des hörbaren Resultats verstanden, welches diese Daten durch Klangfarbe zuordnet. Der aufführende Körper ist somit das Medium, durch das Sonifikation sichtbar wie hörbar vonstattengeht. Das Körpertheater, das dieses Stück bietet, ist daher von höchster Bedeutung und sollte sowohl umgesetzt als auch verstanden werden wie die Körperkontrolle, die man im Tanz oder in Kampfkunst, beispielsweise Tai Chi, sehen kann.
Martin Iddon (Übersetzung: JHS)
Terry Fox: Berlin Wall Scored for Sound (1980–88), interpretiert und realisiert als Instrumentalstück für Streichquartett von Arnold Dreyblatt (2017)
Terry Fox’ Arbeit über die Berliner Mauer besteht aus verschiedenen Entwürfen und Zeichnungen, die unter dem Titel Berlin Wall Scored for Sound zusammengefasst sind. Sie entstanden während seines Aufenthalt als DAAD-Stipendiat 1980/81 in Berlin. In vielen dieser Zeichnungen wurden die Umrisse der Berliner Mauer über ein topografisches System gelegt, in dem räumlichen Koordinaten zeitliche Dauern zugeordnet werden. Konturen werden in diesem System kategorisiert und die Kategorien mit Buchstaben bezeichnet. Fox realisierte basierend auf diesen Zeichnungen eine Version für Schallplatte. Sie erschien 1988 unter dem Titel Berlino (Het Apollohuis, Eindhoven). Die Klänge sind Tonaufnahmen und seinen eigenen Performances entnommen. Über Berlin Wall Scored for Sound schrieb Fox:
„Auf einem großen Stadtplan fand ich vier ‚Ecken‘ in der West-Berlin umgebenden Mauer. Diese Ecken oder ‚Punkte‘ teilten die Mauer also in vier Abschnitte. Diese Punkte verband ich über gerade Linien, die also durch die Mauerlinien hindurchliefen. So ergaben sich gerade Linien, durch die jeweils eine gezackte oder geschlungene Mauerlinie gezeichnet war. Die geraden Linien ergänzte ich oben und unten, so dass sich die Mauerlinie durch ein Notensystem schlängelte. Die Länge der Mauer maß ich auf der Karte. Die Maßangaben in Zentimetern wurden dann in Sekundendauern übertragen; die Entfernung wurde also zu Zeit. Anschließend legte ich fünf Kategorien fest, die sich auf topografische oder geometrische Auffälligkeiten bezogen. Ihnen ordnete ich die Buchstaben E, G, B, D, F zu. Eine merkwürdige Form der Mauer, die den Sternen des Pferdekopfnebels im Sternbild Orion ähnelte, nannte ich X. […] Die gesamte Partitur für sechs verschiedene Klänge oder Klangkombinationen ist endlos und formt eine Schleife, einen Loop, wie die Mauer selbst.“
(Terry Fox)
2015 kuratierte ich gemeinsam mit Dr. Angela Lammert eine Ausstellung zu Fox an der Akademie der Künste in Berlin, die Elemental Gestures hieß. Dafür realisierte ich in Zusammenarbeit mit dem Elektronischen Studio der AdK drei Räume mit Klangkunstarbeiten, einer davon war eine von mir spatialisierte Fassung von Berlino als Klanginstallation. Im Begleitprogramm zur Ausstellung wurde am 11. November 2015 außerdem meine instrumentale Realisation von Berlin Wall Scored for Sound für Blechbläser aufgeführt.
In meiner Interpretation von Terry Fox’ Partitur habe ich die in den Zeichnungen angegebenen Buchstaben als Tonhöhen interpretiert – mit Ausnahme von „X“, dem ich „Stille“ zugeordnet habe. Mich hat interessiert, dass Fox die fünf Buchstaben gewählt hatte, welche die Tonnamen der fünf Notenlinien im Violinschlüssel sind. Seine Arbeiten beinhalten häufig musikalische Referenzen und können als eine Form von „offener“ Partitur verstanden werden, die aufgeführt werden kann, aber eben zuerst „realisiert“ werden muss, d. h., bestimmte Entscheidungen müssen getroffen werden. In der Realisierung von Berlin Wall Scored for Sound habe ich die präzisen Dauernangaben für jeden Buchstaben und folglich jede Tonhöhe in der Zeichnung übernommen, was in einer linearen Komposition von 15 Minuten und 32 Sekunden resultierte. Für die Wahl der Klangqualitäten habe ich mich an den langgehaltenen resonierenden Klängen orientiert, die Terry Fox in seinen legendären Sound Performances mit langen Saiten in verschiedenen Räumen hervorbrachte, wie auch an seine Zusammenarbeiten mit Instrumentalisten, beispielsweise mit den Spielern der Celli und des Kontrabasses in Rallentando (1988). Aber auch mein eigener Hintergrund als Komponist minimialistischer Musik hat meine Entscheidungen geprägt. In dieser Aufführungsversion halten die Instrumentalisten jede „Note“ ohne Vibrato oder dynamische Wechsel, während sie im Zeitrahmen die jeweiligen Obertonvibrationen explorieren. In jedem der unirhythmischen Tonblöcke kann jeder Instrumentalist die Oktavlage des Tons frei wählen und hält sie dann bis zum nächsten Tonwechsel aus. Diese Version für das Kairos Quartett kommt Terry Fox’ lebenslanger Erforschung von harmonischer Saitenschwingung am nächsten.
Arnold Dreyblatt (Übersetzung: JHS)
Marcus Schmickler: Bonner Durchmusterung (2009), 9-kanal

http://piethopraxis.org/projects/bonner-durchmusterung/

Der namensgebende Ausgangspunkt unseres Projekts ist die Bonner Durchmusterung, die von dem Bonner Astronomen F.W.A. Argelander (1799–1875) und seinen Mitarbeitern erstellt wurde. Sie ist nicht nur historisch das bedeutendste astronomische Werk, das je in Bonn verfasst wurde. Sie enthält auch alle Sterne, die man mit bloßem Auge oder einem kleinen Fernrohr am Himmel entdecken kann. Die Beobachtung der Sterne erfolgte nach einem sehr primitiven aber effektiven Verfahren: Der Hauptbeobachter schaute durch ein fest aufgestelltes Fernrohr, das nach Süden ausgerichtet war. Die Sterne eines Himmelsstreifens zogen in diesem Fernrohr durch das Gesichtsfeld. Der Hauptbeobachter schätzte die Helligkeit des Sterns und Höhe des Durchgangs ab und gab in dem Moment, als der Stern sich exakt durch die Mitte des Feldes über ein Fadenkreuz bewegte, ein akustisches Signal ab (Fußstampfen). Ein zweiter Beobachter saß vor einer Uhr und schrieb bei jedem Signal die abgelesene Uhrzeit auf. Mehr als eine Million Sternbeobachtungen wurden in der Durchmusterung durchgeführt und führten zu einem Sternverzeichnis mit mehr als 300.000 Sternen. Unsere Bonner Durchmusterung bemüht sich um eine epistemische Ebene zwischen Musik und Astronomie, einem Versuch über außersprachlichen Erkenntnisgewinn in der Kunst und Narration in den Wissenschaften. Grundlage unserer Sonifikation sind Messdaten verschiedener Sterne, Sternhaufen und Galaxien und deren Eigenschaften, wie Licht, Entfernungen und Koordinaten. Hinzu kommen weitere Verklanglichungen unterschiedlicher berechneter Eigenschaften wie Gravitationsverhalten und verschiedener Konstanten, die unter anderem zur einer Phänomenologie des Universums in Bezug auf Größe, Alter und Materie geführt haben.
1. Reionisierungsepoche (Sonifikation der Spektren von Helium und Wasserstoff)
2. Sonneneruptionen
3. Exzentrizität der Ellipsenbahnen des Solarsystems
4. Historische Karten der kosmischen Hintergrundstrahlung
5. Die Bonner Durchmusterung
6. Gravitationsmodelle
7. Pulsare/Neutronensterne
8. Expansion / Rotverschiebung / Dunkle Materie / Dunkle Energie
9. Gammastrahlen-Explosionen/Gamma-Blitze
10. Quantenspektren
Auftragswerk des Internationalen Astronomiejahr 2009 und des Deutschen Musikrats, uraufgeführt in der Kunst- und Ausstellungshalle der Bundesrepublik Deutschland, Bonn (Mai 2009).
Marcus Schmickler • Komposition; Alberto de Campo • Sonifikation; Carsten Goertz • Projektion bei der UA; Dr. Michael Geffert • Supervision
Marcus Schmickler


Marcus Schmickler, Bonner Durchmusterung (2009)

 

 

Konzert Dahinden-Kleeb-Babel

Alvin Lucier: Copied Lines (2011) für Posaune und 13 Streicher

http://www.alvin-lucier-film.com/panorama.html

Während der Aufführung spielt der Posaunist auf- und absteigende Glissandi, welche die Umrisse der Williams Fork Mountain Range von Ute Pass in Colorado aus gesehen nachspielen. Gleichzeitig verfolgen die 13 Streicherinnen und Streicher die Posaunenglissandi auf unterschiedlichen Tonhöhen, über und unter der Posaune gelegen. Im Ambitus einer kleinen None spielen die acht Violinen jeweils im Halbtonabstand von den acht Halbtönen über dem ersten Posaunenton ausgehend, die Bratschen und Celli von den Halbtönen unter dem ersten Posaunenton ausgehend ihre Glissandi. Jedes Instrument beginnt auf einem anderen Ton, im Halbtonabstand zu den anderen, so dass insgesamt ein Cluster klingt.
Der Posaunist gibt das Tempo der Glissandi vor; die Streicherinnen und Streicher versuchen seinen variablen Tempi zu folgen. Kleine Unterschiede in der Stimmung der Instrumente werden erwünschte, hörbare Schwebungen zwischen den Instrumenten hervorrufen. Hin und wieder unterbricht der Posaunist sein Spiel und lässt Pausen zwischen den steigenden und fallenden Glissandi entstehen. In diesen Pausen schiebt er jedoch den Zug seiner Posaune weiter, als würden die Glissandi weiter gespielt werden. Auch die Streicher bewegen ihre Bögen weiter, ohne Klang hervorzurufen, und lassen ihre linke Hand weiter über die Saiten gleiten, den Bewegungen des Posaunisten folgend. Fortgesetzt wird das klingende Spiel an dem Punkt der Partitur, an dem die Spielenden während ihres stummen Spiels angekommen sind. Zeitangaben in der Partitur sind nur näherungsweise. Der Posaunist ist in seiner Interpretation der Dauern frei.
Alvin Lucier, Spielanweisung aus der Partitur, Frankfurt am Main: Material Press, 2011 (Übersetzung: JHS)

Die Komposition Copied Lines nannte Lucier ursprünglich Panorama II und verwies damit auf seine Komposition Panorama (1993) für Posaune und Klavier, die ebenfalls auf einer Bergpanorama-Zeichnung basiert. (JHS)
Dahinden, Kleeb, Babel: Free Lines I und II (2017), zwei Improvisationen für Posaune, Klavier und Perkussion
Das Trio verwebt seine Improvisationen zu einem fluktuierend-pulsierenden Sound Cocoon. Dahinden-Kleeb-Babel spinnen ein Netz aus filigranen Pianoscales, flirrenden Cymbals, groovenden Multiphonics, aufblitzenden Pianostaccati, rasendschnellen Posaunenphrasen, polyrhythmischen Trommeln, auftürmenden Klavierclustern, treibender Percussion und verwischten Posaunenmelodien. Eigenheiten von Instrument und persönlicher Klangsprache formen den Hintergrund zu einer imaginären Partitur, schwingen in einer poetischen Vision von Raum und Zeit, inspiriert von Jackson Pollocks Malerei.
Dahinden-Kleeb spielen seit 30 Jahren zusammen und treffen sich mit dem in Berlin lebenden Genfer Perkussionisten Alexandre Babel. Alle drei gehören zu den profiliertesten Stimmen auf ihren Instrumenten. Das Trio ist ihr neues Projekt.
Roland Dahinden

 

Alvin Lucier: Panorama (1993) für Posaune und Klavier

(Hildegard Kleeb und Roland Dahinden gewidmet)
Im Frühjahr 1993 erhielt ich von Roland Dahinden und Hildegard Kleeb eine Panorama-Fotografie der schweizerischen und österreichischen Alpen, wie man sie von ihrer Heimatstadt Zug aus sieht. Ich plante gerade einen Schiurlaub in die Schweiz und hatte sie um Reiseprospekte gebeten. Gleichzeitig begann ich, über eine Komposition für die beiden nachzudenken. Sobald ich das Foto sah, kam mir die Idee, diese Gebirgslinie in musikalische Notation zu übertragen. Der Posaunist sollte die Berge „zeichnen“, indem er kontinuierlich durch das Stück ziehen würde – Dahinden ist ein ausgezeichneter Schifahrer – und nur zum Atmen den Klangstrom unterbräche. Die Pianistin würde die Bergspitzen punktuieren. Da die sich kontinuierlich ändernden Tonhöhen der Posaune nur selten exakt mit den fixierten Tonhöhen des Klaviers übereinstimmen würden, ergäben sich aus der Diskrepanz der beiden Tonhöhen Schwebungen.
Alvin Lucier (Übersetzung: JHS)

 


Alvin Lucier, Panorama (1993), Vorlage (Bergpanorama) und Auszug aus der Partitur im Manuskript.
Mit Dank an Volker Straebel. © Alvin Lucier

 

 

Mio Chareteau: White Piece (2016) für Pianistin
In White Piece, geschrieben 2016, macht Mio Chareteau mit einer einfachen Geste reinen Tisch und rückt den Akt des klassischen Klavierstücks zur Seite. Eine weiße Seite, eine zufällige Klangkomposition, eine Pianistin, die ihr Instrument nicht berührt, den Flügel mit Distanz behandelt und gleichzeitig verfeinert. An der Grenze zwischen Stillem Leben, minimalistischer Musik und sorgfältiger Performance. White Piece ehrt die Schönheit des Edelsten aller Instrumente.
White Piece ist der Pianistin Hildegard Kleeb gewidmet.
Mio Chareteau
(Eine Klanginstallation zur Aufführung ist während des Festivals in der Galerie zwanzigquadratmeter zu sehen. Siehe Satellitenprogramm.)


Mio Chareteau: Partitur: White Piece (2016)

photo by Agatha A. Nitecka

 

photo by Agatha A. Nitecka

 

Ludger Brümmer: Spin (2014), 8-kanal

Granularsynthese und Physical Modelling können beide extrem reiche Klangstrukturen erzeugen. Bei physikalischen Modellen wird diese durch Nichtlinearität ermöglicht, bei Granularsynthese können hochkomplexe Grain-Konstellationen mit extrem kurzen Dauern zu stark geräuschhaften Klängen führen. Eine andere, der Granularsynthese durchaus ähnliche Methode solch komplexe Klänge zu erzeugen, besteht in der Sonifikation von Datenfiles. Es ist interessant, welche strukturellen Eigenschaften Datenfiles enthalten. Sie können sich durch hohe Komplexität in Form eines Rauschklanges äußern, wie es auch meistens der Fall ist, oder sie lassen die Eigenschaften bestimmter Strukturen erkennen. Genau diese Datenfiles habe ich für Spin gesucht. Sie sollten eine gewisse Strukturierung entweder in Klangfarbe oder Tonhöhe erkennen lassen. Diese habe ich in Videofiles oder in bestimmten Datenfiles tatsächlich vorgefunden. Durch Transposition über mehrere Oktaven konnte die Geschwindigkeit und damit auch die Komplexität dieser Daten verlangsamt werden. Die erste melodische Phrase des Stückes, die auch später mehr zu hören ist, entstand beispielsweise direkt aus solch einem Datenfile. Das Resultat dieses Transpositionsprozesses wurde über Crosssynthese mit anderen Klangstrukturen verändert und so immer neu interpretiert. Zusammen mit einigen mit physikalischen Modellen erzeugten gestrichenen Saiten und einigen Stimmsamples entstand die erzählerische Struktur des Werkes, die einen sinnlichen Einblick in die Struktur von Daten gibt.
Von Spin wurde auch eine Version für generatives 3D-Video von Bernd Lintermann geschaffen.
Ludger Brümmer