Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser. |
http://www.medienkunstnetz.de/themen/bild-ton-relationen/audiovisionen/
Was Musik für uns ist, ist sie durch Medien. Deren Einfluss kann groß oder klein, offenbar oder subtil sein. Aber in gleicher Schärfe, wie Niklas Luhmann die Bedeutung der Massenmedien für die Welterkenntnis verabsolutiert [1] , kann man für alles Akustische sagen, dass Medien es zu dem machen, was es ist — und dies mit zunehmender Intensität: Mit der Ausdehnung elektronischer Medien in immer mehr und zentralere Positionen des alltagspraktischen und kulturellen Lebens wird Musik immer stärker von medialen Phänomenen geprägt, bedient sich zu ihrer Konzeption und Herstellung immer häufiger medialer Technologien und reflektiert zunehmend Funktionsweisen und Effekte von Medien.
Schon die frühesten Medien, die für Musik bedeutsam waren, waren nicht ausschließlich akustische Medien: jegliche Musikinstrumente; Gesangs- und Instrumentaltechniken, die zu Tänzen oder anderen rituellen bzw. sozialen Handlungen ausgeführt werden; schriftliche und grafischen Notationsweisen; Druck- und Verlagswesen; musikalische Darbietungskonventionen verschiedenerEpochen — all diese Medien und Dispositive artikulieren und tradieren sich nicht nur im Klang, sondern zu großen Anteilen auch durch narrative/textbasierte Repräsentationen, vermitteln sich über Tast-, Geruchs- und Geschmackssinn, besonders aber durch ihre visuelle Erscheinung. Sobald Musik nicht nur als akustische Reizstruktur, sondern im Kontext ihrer Entstehung und Wirkung betrachtet wird, ist sie zugleich in vielfacher Weise intermedial.
Der vorliegende Text untersucht Musik auf ihre ›natürlichen‹ sichtbaren Komponenten, auf die visuellen Repräsentationen, mit denen sie erzeugt, vermittelt und tradiert wird sowie auf komplexe Wechselbeziehungen mit Bildern, die sie in alltäglichen Medienprodukten und im Experimentierfeld der Künste eingeht.
Die Bedeutung nichtakustischer Medien für Musik ist essenziell. Die schriftliche Notation etwa leistete eine Erweiterung des aktuellen sowie des historischen musikalischen Gedächtnisses, ohne die weder das Erdenken noch die Ausführung komplexer Mehrstimmigkeit möglich gewesen wären. Das Verlagswesen schuf für die Komponisten des 19. Jahrhunderts, die mit ihrer neuen Bürgerfreiheit die Abhängigkeit von kirchlichen Funktionen und fürstlichen Zuwendungen aufgegeben hatten, die Lebensgrundlage und bewirkte damit, dass jene musikalischen Gattungen, die sich als Hausmusik ausführen ließen, besondere Verbreitung fanden: vornehmlich Klavier- und klein besetzte Kammermusik.
Die so genannte ›Augenmusik, häufig an Johann Sebastian Bachs Werken exemplifiziert, verdeutlicht, wie weitgehend die visuelle Vermittlung musikalischer Struktur eine eigenständige ästhetische Ebene darstellt, wenn bestimmte symbolische Bedeutungen nur durch das Lesen der Partitur offenbar werden. Diesen Gedanken führte der Komponist Dieter Schnebel mit dem Buch »Mo-No: Musik zum Lesen« [2] ins Extrem. Anregungen zum musikalischen Hören der Geräuschwelt und visuelle Text-/Grafikkompositionen, die allein — mono — und still lesend aufgenommen werden sollen, lassen im Kopf des Lesers aus Text und Bild eine nur vorgestellte Musik entstehen. Auch NamJune Paik, La Monte Young und George Brecht komponierten Vorstellungs-Musik, die sie als so genannte »Events« in knappen textlichen Handlungsanweisungen fixierten.
Die Betrachtung der konkreten Erzeugungssituationen von Musik bestärkt die Diagnose: Musikmachen speist sich auch aus vielerlei visuellen Reizen — vom Lesefluss der Partitur über die Beobachtung der eigenen Motorik des Instrumentalisten zur gestischen Abstimmung akustischer Ereignisse zwischen mehreren Musikern. Dies setzt sich auf der Rezeptionsseite fort: Mimik und Gestik der Spieler vermitteln den Hörern Informationen zum Kontext (zum Beispiel gemeinte Emotion), zu Melodik, Harmonik und Rhythmik. Die Ausdruckqualität der jeweiligen Musik, aber auch die Virtuosität, die dem Musiker abverlangt wird, werden durch den visuellen Nachvollzug der instrumentalen Darbietung transparenter und liefern Material, das in die ästhetische Erfahrung und Bewertung von Musik einbezogen wird.
Musik ist offenbar in viel größerem Maße, als man spontan meinen könnte, ein intermediales, vor allem audiovisuelles Phänomen — weit gehender, als es von der bildenden Kunst gesagt werden kann. Hierzu liefert ein Ausspruch von Marcel Duchamp weiteren Aufschluss: »On peut regarder voir, on ne peut pas entendre entendere« [3] , zu deutsch etwa: »Man kann das Zuschauen sehen, aber man kann das Zuhören nicht hören.« Diese Einsicht lässt sich noch erweitern: Tatsächlich kann man weder das Sehen noch das Hören hören. Wenn es vor dem Konzert still wird, hört man zwar förmlich, wie die Menschen beginnen, zuzuhören, aber diese Stille ist nicht von der Stille der visuellen Konzentration im Museum zu unterscheiden. Umgekehrt kann man aber das Zuhören ebenso wie das Zuschauen visuell verfolgen: Wie man dem Blick die Folge der betrachteten Elemente und emotionale Reaktionen auf sie ablesen kann, so sieht man auch, wie die Leute beim Zuhören den Blick nach innen kehren, weil sich dort die Klänge abspielen, und man kann den Augen die verschiedenen Reaktionen auf das Gehörte entnehmen.
Beim Rezeptionsvorgang fördert die andächtigeStille in Museumsräumen die Beschränkung auf die visuelle Kontemplation. Der Klangkünstler George Brecht sammelte bis 1999 für sein ironisches Projekt »Audio Recordings of Great Works of Art« Tonaufnahmen der Geräuschkulissen vor zentralen Werken der europäischen Kunstgeschichte (u. a. natürlich der »Mona Lisa« im Pariser Louvre) und fand eine völlige Indifferenz zwischen Klangumfeld und Gehalt der Kunstwerke vor.
Etwas anders verhält es sich mit der künstlerischen Produktion. Der Klang von Pinsel, Gravournadel oder Hammer und Meißel sowie des akustischen Umfelds blieb sicher nicht ohne Auswirkung auf den ausübenden Künstler. Über die gegenständliche, häufig symbolische Abbildung von Musikern, Instrumenten und Musikhörern hinaus zu einer explizit strukturellen Parallele zur Musik findet aber erst die Malerei der klassischen Moderne. Bei Cirluonis und Kandinsky [4] werden zum Beispiel musikalische Erlebnisse in abstrakte Farbmuster übertragen, die Klangeindrücke und zeitliche Proportionen wiedergeben.
Diese Künstler des beginnenden 20. Jahrhunderts beriefen sich auf einen grundlegenden Zusammenhang zwischen den Künsten: dass bei Gemälden, Skulpturen und Fotografien ähnliche zeitliche Prozesse ablaufen wie in der Musik. Herstellung und Rezeption bildender Kunst sind aus dieser Sicht gleichermaßen in der Zeit ausagierte Tätigkeiten, die Parallelen zum Verfolgen einer Narration, einer räumlichgegenständlichen Dramaturgie oder sogar einer musikalischen Partitur aufweisen.
In der weiteren Entwicklung etablierte sich mit der weiteren Öffnung bildnerischer Gestaltungsweisen zu zeitbasierten Prozessen (Performance, Installation) wie von selbst der dabei erzeugte Klang als integraler Bestandteil dieser Kunstwerke, beispielsweise bei Jean Tinguelys tönenden kinetischen Skulpturen oder bei Arbeiten wie »The Box with the Sound of its Own Making« (1961) von Robert Morris. Umgekehrt greifen Komponisten die Offenheit des visuellen Rezeptionsvorgangs als Vorlage eines neuen Konzepts musikalischer Interpretation auf, indem sie grafische Partituren erstellen, die die Abfolge von Klangbausteinen freistellen. John Cage verwendete für »Fontana Mix« grafische Vorlagen und formulierte dazu Regeln, anhand derer zwei übereinander gelegtenLinienstrukturen genaue Angaben für Tonhöhe, Tondauer usw. entnommen werden können. Die Partitur wird vom Komponisten als offenes Regelsystem konzipert, das mit einem großen Maß an Variabilität konkretisiert wird.
In der populären Musik ereignen sich in dem Moment, wo Musik durch ihre technische Übertragung, Speicherung und Synthese [5] die Partitur, die Notwendigkeit immer wieder neuer Interpretation und den öffentlichen Darbietungszusammenhangs überspringt, mehrere Wellen der Visualisierung musikalischer Kontextinformationen: Spätestens in den 1950er Jahren übernimmt das Bild von Stars wie Elvis Presley eine tragende Rolle im Vermarktungsprozess der Musik. Etwa zeitgleich beginnt die Cover-Art der Schallplatte eine eigene Ästhetik hervorzubringen; einer der Vorreiter ist hier das Jazz-Label »Blue Note«. In den 60er und 70er Jahren wird die Bühnen-Show des Rock-Konzertes zu einem fulminanten visuellen Spektakel aus Licht und Rauch; der Unsichtbarkeit der Stars bei Massenveranstaltungen wird durch gigantische Videowände entgegengewirkt. In den 1980ern entwickelt sich der Videoclip zum unvermeidlichen visuellen Pendant jedes Popmusiktitels. [6]
Der musikalische Experimentalismus, der sich um die Zentralfigur Fontana Mix entwickelte, basiert auf einem erweiterten Materialverständnis, indem zum Beispiel Geräusche gleichwertig neben den Tönen der Instrumente verwendet werden. Vor allem aber werden musikfremde Strukturen — technische, soziale und nichtmusikalische ästhetische Zusammenhänge — für die Konzeption der Werke bestimmend. Eine zentrale Stellung nimmt dabei die oben beschriebene grafische Partitur ein. Neben sozialen, biologischen und spielartigen Regelprozessen waren es vor allem die technische Funktionsweise sowie die Inhalte von Medienapparaten, die als ›Strukturgeneratoren‹ verwendet wurden, zum Beispiel in Cages »Imaginary Landscape No. 4« bei dem die Senderabstimmung und die Lautstärke von zwölf Radiogeräten nach einem zeitlichen Ablaufplan verändert werden.
Zu Beginn der 1950er Jahre war die Konkretisierung der Werke noch professionellen Musikern vorbehalten.John Cage beispielsweise sperrte sich zu dieser Zeit gegen Interaktionen der Hörer, da sich aus seiner Sicht nur ausgebildete Musiker bei der Umsetzung offener Kompositionen der Versuchung widersetzen könnten, in musikalische Klischees zu verfallen. Cages Einwand gegen die Interaktion der Hörer zeigt ein zentrales Problem auf: Wie können die Kompetenzen musikalischer Experten (Komponisten, Interpreten) mit denen der Hörer zusammengeführt werden? Wie kann einem musikalisch ungeschulten Hörer die Bedeutung seiner Interaktion so vermittelt werden, dass er ›musikalisch sinnvoll‹ handelt?
Die Lösung, die die Experimentalisten dafür hatten, war, die intermediale Struktur auch in der Interaktion offen zu legen: die Benutzung technischer oder anderer allgemein bekannter Systeme, die auch von musikalisch Ungeschulten begriffen und bedient werden können. Mit diesem Ansatz kann auch das Publikum die Interpretenrolle einnehmen. »Maxfeed« (1967) von Max Neuhaus ähnelt einem Transistorradio, erzeugt die kreischenden und rauschenden Klänge aber selbst. Das Publikum besteht nur aus einer Person, die die Klangfolgen durch solche Reglereinstellungen selbst bestimmt, die es vom eigenen Radiogerät bereits kennt.
Intermedialität dient dem Komponisten also erstens zum Finden neuer Strukturen, als Strukturgenerator. Gleichzeitig wird Intermedialität als Kontaktpunkt für den Rezipienten benutzt, damit dessen Interaktion einer konsistenten Linie folgen kann. Die logische Folge dieser Entwicklung ist der Schritt von der konzertanten Darbietung zur installativen Situation, die sich das Publikum eigenständig und einzeln erschließt.
Wie wichtig die ›visuelle Absicherung‹ beim Dekodieren einer musikalischen Figur ist (Welchen Gesichtausdruck hat der Musiker? Mit welcher Geste erzeugt er den Ton? Etc.), zeigt das Beispiel der elektronischen Musik der Kölner Schule der 1950er Jahre, bei der das Fehlen des menschlichen Interpreten auf der Bühne und mithin die vollkommene Abwesenheit visueller Elemente als eklatantes Vermittlungsproblem empfunden wurde.
Elektronische Tonbandstücke wie »Studie I« von Karlheinz Stockhausen wurden häufig als leblos, starrund unmusikalisch beschrieben [7] . Die Rückkehr von Interpreten auf die Bühne in der so genannten live-elektronischen Musik seit den 1960er Jahren ging dieses Problem an, indem entweder die Klänge von Instrumentalisten während der Aufführung elektronisch umgeformt oder die rein elektronischen Klänge live erzeugt und modifiziert wurden. Karlheinz Stockhausens »Kontakte« machte musikalische Effekte elektroakustischer Technologie sichtbar. Nun konnte man wieder einem Menschen beim Musikmachen zusehen.
Dieser Ansatz löste das Problem aber nicht immer zur allgemeinen Zufriedenheit. Insbesondere bei Performern, die elektronische Geräte über Knöpfe und Regler bedienen, fehlt dem Publikum oft das Verständnis dafür, was diese denn da drehen und drücken. Anders als beim klassischen Instrumentalspiel vermittelt sich hier kaum etwas über körperliche Gestik, denn was hinter den einzelnen Knöpfen verborgen ist, ist bei jedem Konzert anders, während das Spiel auf einer Geige anhand von Gesten weitgehend allgemeingültig interpretiert werden kann. Nicht ganz ohne Ironie baute Nic Collins seine »Trombone Propelled Electronics«, mit der er eine elektronische Apparatur mit den bekannten Gesten des Posaunisten steuert, ohne des Posaunenspiels auch nur in Ansätzen mächtig zu sein. Mit den Computer-Performern der letzten Jahre, die oft nahezu unbeweglich und nicht selten ohne erkennbare Gemütsregungen hinter ihren Laptops sitzen, hat sich das Problem noch einmal verschärft. Von Musik erwarten sich Hörer offenbar mehr als nur geordneten Schall.
Eine Lösung für dieses Vermittlungsproblem ist die Darbietung in einer neuartigen Raumanordnung oder in einer Lounge-Situation, in der man seine visuelle Aufmerksamkeit immer wieder von der Bühne abziehen und in der Raumdekoration und im sozialen Geschehen schweifen lassen kann. Andere Lösungen sind Visualisierungen musikalischer Zusammenhänge in installativen Anordnungen oder parallel gezeigte Visuals, die inhaltlich bzw. ästhetisch auch unabhängig von der Musik sein können. Eine weitere Lösung ist der interaktive Einbezug des Publikums. Alle drei Lösungen basieren auf Intermedialität.
Der Einbezug visueller Medien in die musikalischePraxis speist sich aber nicht nur aus dem Mangel visueller Reize bei elektronischer Musik, sondern ist eine ästhetische Tendenz, die an die Auflösungserscheinungen des Konzertformats und die mit ihr verknüpften Bewertungskriterien gebunden ist. Die frontal auf erhöhte Konzertbühnen ausgerichtete Rezeptionssituation in Konzerthäusern, die sich im 19. Jahrhundert herausgebildet hat und mit strengen Verhaltensnormen wie dem Stillsitzen und Klatschritualen gekoppelt ist, ist zu großen Teilen visuellen Kriterien untergeordnet. Der mit geschlossenen Augen Zuhörende ist zwar in der auf abstrakte Form und Struktur fixierten Musikwissenschaft hoch geachtet [8] , im Publikum aber in der Unterzahl. Die Mehrzahl der Konzertbesucher verfolgt Musiker und Dirigent intensiv mit den Augen. Diese Frontalanordnung der Konzerthäuser löst sich seit der Mitte des 20. Jahrhunderts zunehmend auf. So genannte Konzertinstallationen integrieren häufig multimediale Elemente, bei denen nicht nur die Instrumentalisten, sondern auch die Zuschauer räumlich verteilt werden und die Musiker in die Mitte nehmen.
Fast antithetisch zu den körperlosen Auftritten bei elektronischer Musik und Laptop- Konzerten erscheint die Betonung des Körpers und der physischen Hervorbringung von Klang, die oft durch den Einsatz von Medien hervorgekehrt wird. Die feinmotorische Virtuosität der Instrumentalmusiker, im 19. Jahrhundert eine zentrale Bewertungskategorie, hat im 20. Jahrhundert eine Verschiebung zur Betonung der gesamten Körperlichkeit bei der Musikproduktion erfahren. In den 1980er Jahren machte Helmut Lachenmann die physische instrumentale Hervorbringung von Musik zum Inhalt seiner Werke (zum Beispiel »Pression«, 1969/70). Auch Nam June Paiks Stücke für die Performerin Charlotte Moorman (zum Beispiel »TV-Bra for Living Sculpture«, 1969) sowie zum Beispiel die Performance »Fractal Flesh« von Stelarc in denen er sich selbst in ein elektrisches System einbaut, sind körperbetonte mediale Bühneninszenierungen instrumentaler Klangerzeugung.
Was in der Kunstmusik ausdrücklich neu etabliert werden musste, weil das Ideal der ›absoluten Musik‹ bisheute nachwirkt [9] , ist in der populären Musik eine Selbstverständlichkeit: Die Musik von Jimi Hendrix oder The Who bis hin zu Heavy Metal und Hip-Hop wäre ohne die ›Körperarbeit‹ der Musiker nicht dieselbe.
Aber auch bei neueren Kompositionen, die dem Konzert und der Gattung Instrumentalmusik anhängen, ist eine Inter-Medialisierung im Gange. Beispielsweise wird das instrumentale Spiel parallel zur Live-Aufführung durch Videoprojektionen ergänzt bzw. visuell gespiegelt. Michael Beil hat für »MACH SIEBEN« den Pianisten Ernst Surberg beim Spielen des Stückes auf Video aufgenommen. In der Aufführung verschränken sich die Videoprojektion und die Live-Interpretation als zeitliche Spiegel einer symmetrisch konzipierten Komposition. Vadim Karassikov vergrößert instrumentale Gesten, die an der Grenze zur Unhörbarkeit Klang erzeugen, auf über die Musiker gehängte Projektionsflächen. Bei »Eyear« (2003) von Pascal Battus und Kamel Maad wird die Erzeugung von differenzierten Schlagzeugklängen, die durch das Reiben von Steinen, Sand auf Trommelfellen entstehen, in Echtzeit aus nächster Nähe gefilmt und auf eine Leinwand projiziert. Die Trommel wird zur Bühne, deren Klanggeschehen im Video eine ästhetische visuelle Verdopplung erfährt.
Die Visualisierungen betonen Qualitäten der musikalischen Produktion, sie greifen also Elemente auf, die schon in der Komposition und im Instrumentalspiel vorhanden sind, und konkretisieren sie mit medientechnischen Mitteln. Die grundsätzlichen medialen Eigenschaften instrumentaler Musikproduktion bleiben bei diesem Vorgang bestehen. Die Beispiele können so interpretiert werden, dass die Komponisten hier die Visualität der Musikerzeugung als integrales Element der Musik aufzufassen und dies mit Hilfe des Videobilds nur zu Bewusstsein bringen.
Während in der kunstmusikalischen Konzertpraxis das Videobild aber noch eine Besonderheit darstellt, ist Video aus Clubs kaum noch wegzudenken. Dort kamen in den 1990er Jahren als neues audiovisuelles Formatgemeinsame Auftritte von DJs und VJs auf. Musiker und Videokünstler agieren dabei größtenteils in loser Verbindung, das heißt, der Zusammenhang zwischen Bild und Ton beruht selten auf einer technischen Kopplung der jeweiligen Instrumente und ebenso selten auf detailliert ausgearbeiteten Konzepten, sondern meist auf generellen Absprachen und improvisativem Zusammenspiel, zum Beispiel in den Performances der 242.pilots. Verbindungen zwischen Musik und Bild konstituieren sich primär atmosphärisch, nur selten geht es auf beiden Ebenen um konkrete Inhalte oder narrative Strukturen. Durch unterschiedliche Nähe zur Realität entsteht dabei oft ein Ungleichgewicht: Während in den Visuals häufig reale Bilder eingesetzt werden, z. B. Stadtansichten in »Deathsentences« (2003) der Gruppe Negativland, sind die Musiken kaum durchgängig konkret bzw. narrativ. Zwischen narrativen Bildern und elektronischen Klangprozessen vermittelt manchmal der Einsatz nur einzelner konkreter Geräusche, die realen Objekten zugeordnet werden können.
Bei der Verknüpfung von Bild und Ton wird immer wieder die Frage diskutiert, nach welchem Verfahren oder Code Strukturmerkmale von einer in die andere Sinnesebene übersetzt werden soll: Was bedeutet es für die Musik, wenn das Bild blau, blaß oder bewegt ist, und was bedeutet es für das Bild, wenn die Musik klangfarblich dumpf, harmonisch verzwickt oder melodisch durch große Intervallsprünge dominiert ist?
Das Problem ergibt sich aus der Tatsache, dass Bild und Ton einerseits in der kognitiven Verarbeitung untrennbar ineinander wirken: Wir können zum Beispiel manchmal schwer sagen, ob uns die Bilder oder eher die Musik eines Films zu einem bestimmten Urteil über das Gesamterlebnis bewogen haben. Andererseits aber sind die einzelnen Sinnesreize bzw. die Gestalten, die der kognitiven Verarbeitung zugrunde liegen, inkommensurabel, also in keiner Weise vergleichbar: Farben und Körper gibt es in der erklingenden Musik so wenig wie das Dur-Moll-Verhältnis oder eine melodischeLinie in der visuellen Gestaltung.
Am weitgehendsten spielt die zeitliche Struktur eine integrative Rolle im audiovisuellen Rezeptionsvorgang. Rhythmus ist eine Eigenschaft, die sowohl in Musik als auch im Bild wahrgenommen werden kann. Ob als Bildaufteilung, als Bewegung von Figuren oder als Schnittrhythmus des Films; ob als musikalischer Puls oder als melodisch- rhythmische Figur: Zeitliche Struktur kann grundsätzlich physiologisch-körperlich erfahren werden. Synchronizität der auditiven und der visuellen Ebene ist daher ein wesentliches Mittel, um ein integriertes Erlebnis hervorzurufen [10] . Daher setzen viele DJ-/VJ-Arbeiten genau hier an. Wie sehr die Rhythmen in Bild und Ton übereinstimmend gestaltet werden, ist Spielraum der künstlerischen Entscheidung. Bild und Ton können an Knotenpunkten zusammengeführt oder auch durchgängig synchronisiert bzw. kontrapunktiert werden.
Analogien zwischen Bild und Ton beruhen aber auch auf parallelen Wahrnehmungserfahrungen im Alltag: Aus physikalischen Gründen sind nur große Körper in der Lage, langwellige Frequenzen abzustrahlen, weswegen wir mit tiefen Tönen großes Volumen und Macht assoziieren. Hohe Töne hingegen eignen sich aufgrund der größten Hörempfindlicchkeit des menschlichen Ohres in diesem Frequenzbereich am besten als Warnsignale, was dazu führt, dass sie z. B. im Film interkulturell wirksam als Signal des Schreckens zur Anwendung kommen [11] .
Bezüge zwischen visuellen und auditiven Strukturen können auf zwei Wegen hergestellt werden. Eine Möglichkeit ist die Verwendung struktureller oder atmosphärischer Analogien bzw. relativer Synästhesien: das dunkle Bild, zu dem tiefe Töne gespielt werden, die grellen, zerfetzten Farbflächen, zu denen kreischend-hohe Klänge erklingen oder die dezente Staccato-Tonfolge, zu der sich kleine grafische Elemente bewegen etc. Die andere Möglichkeit ist die narrative Zuordnung von Geräuschen zu sichtbaren Objekten und umgekehrt.
Entsprechungen zwischen Farben/Licht und Tönen suchten bereits die Pythagoräer, die ihr Konzept der Sphärenharmonie, die aus den harmonischenVerhältnissen zwischen den Planetenbewegungen entsteht, auch mit den Farben des Lichts in Verbindung brachten. Dabei war das tertium comparationis, der vermittelnde Wert zwischen Farben und Tonhöhen, rein spekulativ. Leonhard Eulers 1746 publizierte Schwingungstheorie des Lichts sowie Goethes Farbenlehre regten die Suche nach naturwissenschaftlich fundierten Einheitsvorstellungen von Licht und Klang und damit nach konkreten Zuordnungen einzelner Farben zu bestimmten Tonhöhen erneut an. In diese Suche nach einem gemeinsamen Urgrund und der Verschmelzung visueller und akustischer Ästhetik spielten verschiedene mystische und esoterische Weltbilder hinein.
Auch im 20. Jahrhundert wurden weiter Versuche unternommen, Farben und Licht in komplexe musiksprachliche oder kosmische Systeme zu integrieren. Der russische Komponist Alexander Skrjabin (1872–1915) — selbst Synästhetiker und den Symbolisten und theosophischen Gedanken nahe stehend — stellte 1911 auf der Grundlage seiner eigenen Synästhesieerlebnisse13 eine Farbtonzuordnung vor, die er als »Wiedervereinigung mit der Zeit getrennter Künste« verstand. »Das synthetische Gesamtkunstwerk soll durch Überwindung aller Gegensätze gewaltig das Bewusstsein erweitern und zur Ekstase führen. Folglich soll es so strukturiert sein, dass alle fünf Sinne zu einer Einheit zusammenwachsen, wobei aber vom ›Willen‹ abhängige Künste (Musik, Tanz, Wort) dem Spiel der Farbe und Düfte übergeordnet sind.« [12] Hintergrund für die audiovisuellen Bezüge ist ein im Unterbewussten wurzelndes integrales Analogiesystem, das Einfluss hat auf Form und Struktur der Musik und ihre Verwebung mit symbolischen Inhalten und Farben/Düften.
In seine symphonische Dichtung »Promethée. Le Poème du feu« op. 60 von 1911 notierte Skrjabin als oberstes ein Licht-System ›Luce‹. Skrjabin konstruierte aber keine 1:1-Übersetzung der komponierten Musik in Lichtfarben. Die Farbklavierstimme bildet eine eigene formale Anlage aus, die nur an einigen Schnittstellen mit der Musik zusammengeführt wird. Zu Lebzeiten von Skrjabin wurde diese Lichtfassung vom Prometheus nicht mehr aufgeführt, das Werk hatte jedoch Bedeutung für den um den »Blauen Reiter« und Kandinsky geführtenDiskurs. Kompositorisch unvollendet blieb Skrjabins »Mysterium«, bei dem neben Lichtfarben auch Düfte zu einem Gesamtkunstwerk und einem ganzheitlichen sinnlichen Erlebnis beitragen sollten. Die dafür angedachte Duftorgel wie auch das ausschließlich dafür entworfene halbkugelförmige Gebäude wurden nie gebaut.
Olivier Messiaen schuf ein System so genannter Modi, die er an Stelle von Tonarten seiner Musik zugrunde legte. Ähnlich wie den Kirchentonarten bestimmte Funktionen innerhalb der Liturgie zukamen, basieren Messiaens Modi jeweils auf einer eigenen Skala (Tonleiter) und werden bestimmten Farben zugeordnet [13] . Darüber hinaus stellte Messiaen Bezüge zur Ornithologie her und legte sein umfangreiches System in dem sieben Bände umfassenden »Traité de Rhythme, de Couleur, et D’Ornithologie« [14] dar. Messiaens Werke sind jedoch reiner Klang, die Einheit von Farbe und Ton, von Gestalt und Zeit liegt ihr nur ideell zugrunde. Den »Zauber des Unmöglichen, also der Identität von Zeit und Farbe« [15] wahrzunehmen, bleibt hier der Vorstellungskraft des Rezipienten anheim gestellt. Der Russe Ivan Wyschnegradsky schloss an die systemischen Ansätze von Skrjabin und Messiaen an. Er konstruierte eine mikrotonale Tonleiter aus Zwölfteltonschritten (statt den Halbtonschritten unserer normalen Tonleiter) und liquidierte die Oktavperiodizität. Wyschnegradsky entwickelte ein System der ›totalen Analogie‹, indem er Farbkreise nach tonsystemischen Regeln in konzentrische Ringe und Zellen zergliederte und so zu 5184 Farb-Ton-Zellen gelangte. Wyschnegradskys Vision war ein kosmischer, kugelförmiger »Lichttempel«, der wie Skrjabins »Mysterium« unverwirklicht blieb. [16]
Erstmals 1970 wurde bei der Weltausstellung in Osaka ein kugelförmiges Auditorium nach Entwürfen von Karlheinz Stockhausen realisiert. Klänge konnten hier über 50 Lautsprecher räumlich bewegt werden. Die Lautsprecherzuordnung und das Erstrahlen 35 weißer Lichtquellen wurden intuitiv mit speziellen ›Sensorkugeln‹ gesteuert [17] . In den vergangenen Jahrzehnten baute Stockhausen den darin enthaltenengesamtkunstwerklichen Ansatz zu einer Privatmythologie aus und konkretisierte ihn in seinem umfangreichen Werkzyklus »LICHT«.
Der Fluxus-Künstler La Monte Young kann bedingt in der Tradition dieser Komponisten gesehen werden. Sein System von Klang und Harmonie gründet auf mathematischen Prinzipien und konzentriert sich auf das Phänomen Zeit, da Schwingungen ein Zeitphänomen sind. Von 1962 datiert das erste Konzept für »Dream House« ein »lebender Organismus mit einem Eigenleben und einer eigenen Geschichte«, das er mit der Licht-Künstlerin Marian Zazeela entwickelte. »Dream House« verwandelt den Raum in ein fein austariertes Klang-Licht-Environment. Als Klänge verwendet La Monte Young ausschließlich reine Sinusschwingungen, deren Frequenzen er so auf die Raumproportionen abstimmt, dass sich stehende Wellen bilden. Durch ein Set verschiedener Lautsprecher und mathematisch aufeinander bezogener Wellenlängen entsteht ein Klangraum, den der Rezipient durchschreitet und dabei Knotenpunkte aufspürt und gleichzeitig das Gleichgewicht der stehenden Wellen ›stört‹. Das magentafarbene Licht ist in seiner Wellenlänge auf die Tonfrequenzen bezogen. Wie bei Skrjabin und Wyschnegradsky spielen symmetrische Anordnungen bei der komplexen mathematischen Strukturierung des Tonraums eine wesentliche Rolle. Die Transformationslogiken, also die Zuordnungsregeln zwischen Farbe und Ton, werden bei diesen Beispielen aus der Musik (Kompositionsstruktur, Musiktheorie) bzw. aus mathematischen Verhältnissen der musikalischen Akustik abgeleitet.
Bei der Komponistin und bildenden Künstlerin Christina Kubisch lässt sich zeigen, wie im Bereich der Klangkunst visuelle und auditive Gestaltung eng ineinander gehen. Klanginstallationen haben zwar immer mit Raum und damit auch mit dem Sehen, der Orientierung im Raum zu tun, sind aber nicht zwangsläufig auch visuell ausgestaltet. Bei Kubisch gibt es neben der Klangebene fast immer auch eine Lichtkomponente, wobei sie vor allem mit dem bläulichen Farbton des Schwarzlichts arbeitet. Auch bei ihr bündelt das Phänomen Zeit die Sinne in einen ausdrücklich nichtsynästhetischen Zusammenhang. Noch genauer beschrieben ist es die Stille, die zum verbindenden Glied wird, die als in der ZeitUnbewegtes begriffen sowohl visuell als auch auditiv erfahren wird. [18] So treffen sich in »Klang Fluss Licht Quelle – Vierzig Säulen und ein Raum« (1999) die beiden Medien im sinnlichen Gestus, in einer Konturhaftigkeit und Subtilität als Ausdrucksparameter des Ortes. Die Gestaltung bildnerischer und klanglicher Elemente folgt bei Kubisch keiner ›errechneten‹ Transformationslogik und ist keinem Streben nach Einheit unterworfen, sondern gründet sich auf intuitive Entscheidungen.
Mit den elektronischen Medien hat sich die Praxis entwickelt, Musik als elektrisches Signal direkt in Bild zu übersetzen und umgekehrt und damit eine rhythmisch-formale Parallelstruktur zu generieren. Ansätze dieser Art können bereits bei frühen Videoarbeiten von Nam June Paik beobachtet werden. [19] Auf einer simplen elektrischen Analogie beruht die Installation »Skate« (2004) des Londoner Medienkünstlers Janek Schaefer: Schaefer fertigte spezielle Schallplatten an, deren Rillen unterbrochen sind. Als Folge hüpft die Nadel von einem Rillenbruchstück zum nächsten. Die sie abspielenden dreiarmigen Plattenspieler koppelt er mit einem Set roter Glühbirnen, so dass zeitgleich zu den aus dem Abspielen entstehenden zufälligen Rhythmen die Lampen aufleuchten.
Vorläufer der heutigen Visuals sind Versuche aus der ersten Hälfte des 20. Jahrhunderts, mit Hilfe des Lichttonverfahrens Bild und Ton aus demselben Material zu gewinnen und dadurch eine audiovisuelle Verschmelzung zu erreichen. Oskar Fischinger ging aufgrund eigener Forschungen 1932 bei »Tönende Ornamente« davon aus, dass es unbewusste Verbindungen zwischen kulturell verbreiteten Ornamenten und ihrem Klang beim Abspielen auf einem Lichttongerät gäbe. Arsenij Avraamov und Jevgenij Scholpo unternahmen ab 1930 in Leningrad Experimente, um aus grafischen Formen Klang zu synthetisieren. Scholpo konstruierte für seine Idee des ›gezeichneten Tons‹ eine spezielle Apparatur, deren Prinzip der digitalen Klangsynthese mit so genannten ›Wavetables‹ gleicht: Liest man ein Standbild mit einer bestimmten Kurvenform periodisch mit der Lichttonapparatur aus, so entsteht ein kontinuierlicher Klang. Scholpo machteVersuche, inwiefern beispielsweise der Klang scherenschnittartiger Gesichtsprofile den Charakter des gezeigten Menschentyps wiedergibt. Eine Parallele dazu findet sich in den audiovisuellen Arbeiten des Duos Granular Synthesis die Bild und Ton nach dem gleichen Prinzip (der Granularsynthese) bearbeiten.
Das Interesse an der Nutzung elektrischer Signale für die Generierung von Musik und Bild besteht seit den Anfangsjahren elektronischer Gestaltungstechniken, zum Beispiel mit der Visualisierung von Klängen auf dem Oszillographen [20] . Zudem wurde nach Visualisierungsformen gesucht, die wie die traditionelle Notation eine geeignete Grundlage für die musikwissenschaftliche Analyse elektronischer Klangprozesse sein könnten (Sonagramm, grafische Notation). Dabei wurde erkannt, dass diese Visualisierungen einen eigenen ästhetischen Reiz haben.
Die Möglichkeiten für eine Visualisierung von Klang vervielfältigten sich durch die Computerisierung und damit Digitalisierung von Klang. Das Prinzip des Sonagramms wird von ›Analyse-Resynthese-Software‹ aufgegriffen, bei der man visuell dargestellte Analysedaten akustischer Verläufe grafisch manipulieren und die so ›korrigierte‹ Visualisierung wiederum in Klang zurück transformieren kann. Guy van Belle und die Gruppe »code31« wendeten ein ähnliches Verfahren in der vernetzten Performance »Anyware« (2004) an. Synthetische Klänge und eine dynamische Farbfläche werden dabei von den gleichen Parametern gesteuert und über das Internet an die anderen Performer gesandt. Die Analyse der eingehenden Klänge und Bilder beeinflussen die erneute Synthese von Ton und Farbe, so dass eine fortwährende Rückkopplung zwischen Bild und Ton sowie zwischen den Spielern entsteht.
Der Fluxus- und Medienkünstler Yasunao Tone übersetzt in »Wounded Man’yo 2/2000 « japanische Schriftzeichen, die er in der Audio-Software »Sound Designer II« mit der Maus zeichnet, in akustische Schwingungsverläufe. Hörbar werden auf diesem Wege geräuschhafte Klangstrukturen, die in ihrer Klangprägnanz mit japanischen Schriftzeichen assoziiert werden können.
Eine Einheit von Klang und Bild versucht die argentinische Komponistin Ana Maria Rodriguezherzustellen, indem sie ein eng umgrenztes Ausgangsmaterial analysiert und als Quelle für Bild und Ton heranzieht. In Ihrer Arbeit »Code Switching« (2004) mit der australischen Videokünstlerin Melita Dahl ist die Transformation von einem in den anderen Code zum expliziten Thema erklärt. Gesichtsausdruck als visuell vermittelte und Phoneme als akustisch erzeugte Elemente von ein und demselben Kopf und Mund bilden das Ausgangsmaterial für eine audiovisuelle Installation. Auf vier große Leinwände werden die Gesichter der Performerin Ute Wassermann projiziert und mit einer Morphing-Technik ineinander transformiert. Akustisch sind einzelne Phoneme isoliert worden und ebenfalls mit einer Morphing-Technik zu einem abstrakten Klang-Sprachraum verdichtet. Die Prozesse, die auf die Ausgangsmaterialien angewandt werden, beruhen beide auf demselben Prinzip.
Netochka Nezvanova verwendet für das audiovisuelle Online-Instrument »nebula.m81« blanke Definitionen technischer Formate: Die international vereinheitlichten »ISO Latin-1«-Zeichen beliebiger Webseiten werden von dem Programm ohne die Notwendigkeit einer Datentransformation oder Umrechnung einfach umdefiniert in das Audioformat »Sun µlaw« mit den Parametern 8-bit Auflösung und 8-kHz Sampling- Frequenz und als Ton abgespielt. Die technischen Formatdefinitionen bestimmen dabei das ästhetische Ergebnis.
Betrachtet man den heutigen Stand der technischen Entwicklung, so scheinen Bildmedien auf den ersten Blick avancierter zu sein: Wir staunen über die visuellen Effekte der neuesten Kinofilme und der Werbung und bemerken dabei in der Regel nicht, mit welcher Raffinesse die dazu abgespielte Klangkulisse konstruiert ist. Tatsächlich besitzen heutige Audiomedien sogar viel weiter reichende Möglichkeiten, einen Raum an einem anderen Ort zu rekonstruieren oder auch synthetisch zu erzeugen als die visuelle Virtual Reality.
In der Entwicklungschronologie von Bild- und Tonmedien war Daguerres Fotografieverfahren 1839 als erstes vorhanden — wenn auch als ›unnatürliches‹ Standbild, das die Zeit einfach ausklammert. Als Edison 1877 den Phonographen erfand [21] , konnte er nichtanders, als die Zeit mit zu berücksichtigen, denn nicht nur Musik, sondern schon der physikalische Ton ist per se ein zeitliches Phänomen, das sich im Stillstand in Nichts auflöst. Damit ist die Tonaufzeichnung doch vor der vollständigen, nämlich die Zeit abbildenden Bildaufzeichnung des Films in der Welt.
Dieser technische Vorsprung des Tons vor dem Bild bleibt größtenteils erhalten: Das Radio etabliert sich lange vor dem Fernsehen als Massenmedium; das Grammophon ist lange vor Filmprojektoren in privaten Haushalten verbreitet; den tragbaren Kassettenrecorder gibt es vor der Videokamera. Eine Ausnahme bildet der Schmalfilm, der vor dem Tonbandgerät erfunden wird und auch vor ihm in privaten Haushalten in Gebrauch kommt. Bei den aufwändigeren, eher von wissenschaftlichen oder künstlerischen Eliten genutzten Technologien hat wiederum der Ton einen Vorsprung: die elektromechanische Klangsynthese mit Thaddeus Cahills »Telharmonium« und die verschiedenen Stufen der elektronischen Klangsynthese mit dem Theremin und später mit Robert Moogs spannungsgesteuertem Synthesizer existierten vor Techniken gezielter Bildsynthese bzw. wurden aus Ermangelung entsprechender visueller Technologien zum Beispiel von Nam June Paik einfach zur Bildsynthese ›zweckentfremdet‹; auch die digitale Klangerzeugung und - bearbeitung im Computer entstand aufgrund von Problemen mit den viel größeren Datenmengen bei der Bildverarbeitung vor dieser.
Das Verhältnis zwischen dem Vorhandensein bestimmter Technologien und der künstlerischen Anwendung ihrer Prinzipien erweist sich bei näherem Hinsehen aber als komplex. Das zeigt sich zum Beispiel daran, dass die Tonkünstler trotz des Vorsprungs der Audiotechnologie häufig langsamer als ihre visuell arbeitenden Kollegen auf die entstehenden Medien reagierten: Die künstlerische Montage wird anhand des Films im visuellen Bereich entwickelt, führt aber erst bei Pierre Schaeffer Ende der 1940er Jahre zu musikalisch neuen Ergebnissen, da die Musik ihre traditionelle Fixierung auf die abstrakten Töne (anstelle der konkretenGeräusche, die mit dem Grammophon handhabbar werden) nur zögerlich überwindet. Gefundenen klanglichen Rohstücken wurde zwar kaum je das Potenzial zu einer natürlich gegebenen Schönheit abgesprochen. Igor Strawinsky etwa hebt den ästhetischen Wert elementarer Klangphänomene wie Baumrascheln oder Vogelgesang hervor und bezeichnet sie als der Musik verwandt, indem sie »[…] das Ohr liebkosen und uns ein Vergnügen bereiten […]«. Kunststatus haben sie damit aus seiner Sicht aber noch nicht: »[…] jenseits dieses passiven Genusses entdecken wir die Musik, die uns aktiv am Wirken eines Geistes teilnehmen lässt, der ordnend, belebend und schöpferisch ist.« [22]
Im Zwischenbereich von Literatur, Theater und Musik, nämlich dem Radiohörspiel und seinen Ablegern (Walter Ruttmanns Hörfilm »Weekend« aus dem Jahr 1930) glücken Experimente mit der Geräuschmontage bereits früher als in der Musik. Ruttmanns Verwendung des filmtechnischen Lichttonverfahrens zeigt, dass hier offenbar die Ungenauigkeit und Umständlichkeit der Montage mit dem Grammophon (durch Umschalten zwischen den Tonsignalen zweier Schallplatten) ein technisches Hindernis darstellte, wohingegen der Film mit Schere und Klebstoff relativ genau und einfach montiert werden konnte.
Die Collage etabliert sich um 1920 zuerst in der bildenden Kunst, obwohl doch auch das Grammophon schon längst die gezielte akustische Collage möglich gemacht hätte. Auch hier waren es vor allem praktische Nachteile des Grammophons, die diese Entwicklung verhinderten. Dziga Vertov unternahm um 1917, also lange vor seiner Anwendung von Montage- und Collage- bzw. Doppelbelichtungstechniken im Film »Der Mann mit der Kamera« vergleichbare Versuche mit Grammophonaufnahmen, gab sie aber aus Enttäuschung über deren schlechte Handhabbarkeit und Klangqualität auf und wandte sich stattdessen dem Film zu Stefan Amzoll, »›Ich bin das Ohr‹. Zum 100. Geburtstag des Klangpioniers«, in: Neue Zeitschrift für Musik, Januar/Februar 1996, S. 50–53. .
Überraschenderweise tritt die vordergründige Verwendung von Collagetechniken zum ersten Mal unabhängig von technischen Medien in der Musik auf. Charles Ives verarbeitete Eindrücke aus der städtischen Geräuschwelt schon 1906 in demOrchesterstück »Central Park in the Dark« [23] . Hier manifestierte sich eine Tradition der Gleichzeitigkeit musikalischer Stile, Klangelemente und Rhythmen, die sich über Bernd Alois Zimmermann und Heiner Goebbels bis in die gegenwärtige Medienkomposition fortschreibt.
Ebenfalls im Jahr 1906 knüpfte Thaddeus Cahill an die Praxis der seit den 1880er Jahren in vielen Großstädten verbreiteten ›Telefonkonzerte‹an, als er der Welt das »Telharmonium« vorstellte. Diese Entscheidung war vor allem einer wirtschaftlichen Überlegung geschuldet: keine andere Infrastruktur erschloss ähnlich viele potentielle Hörer wie das Telefon und damit die Möglichkeit, die immensen Kosten für das neuartige Instrument zu erbringen. Notgedrungen materialisierte er mit dieser weltweit ersten Maschine, die komplexe Klänge synthetisieren konnte und sogar musikalisch neudenkerische Ansprüche wie die Spielbarkeit in reiner Stimmung und beliebiger neuer Tonskalen vorsah, das Prinzip einer Musik, die mit Hilfe von Medientechnik derart beiläufig in Räume eingespielt werden kann, dass sie als bloßer Hintergrund für andere Wahrnehmungen aufgenommen wird.
Auch Thomas Alva Edison unternahm im Jahr 1915 Versuche, nach einem speziellen Programm ausgewählte Musiken über den Phonographen in Fabrikhallen einzuspielen, um den Lärm zu überdecken und die Moral der Arbeiter gewinnbringend zu heben [24] . Empirische Untersuchungen schienen bald zu belegen, dass Arbeiter bei Hintergrundmusik mehr arbeiten und Käufer mehr kaufen, und folglich war General Owen Squiers 1922 begonnener Vorstoß erfolgreich, den funktionalen Wert von Übertragungsmusik gezielt zu vermarkten, indem er Grammophonmusik via Telefonleitung in Restaurants und Schreibbüros übertrug. Squiers Firma »Muzak« [25] , deren Name zum Synonym für funktionelle Hintergrundmusik schlechthin wurde, kleidet seitdem unzählige Orte aus. Hintergrundmusik erläutert dem Blick in ein Modegeschäft, welche Klientel man dort erwartet, verleiht dem Kerzenschein im Restaurant mehr Ruhe und dem Rotlicht im Milieu mehr Spannung.
Auch der so genannte ›Mood-Song‹, der in den 1950er und 1960er Jahren in unzähligen Ausführungen auf Schallplatte vertrieben wurde, beruhte auf unauffälligen Arrangements beliebter Schlager [26] : Schallplatten wie »Music to Work or Study by«, »Music to watch Girls by«, »Music to Read James Bond by« oder schlicht »Music to Live by« zielten auf die musikalische Auskleidung spezieller Lebenssituationen, die durch ihr visuelles Ambiente auf dem Cover-Foto spezifiziert wurden.
Mit dem seither allgegenwärtigen Phänomen musikalischer Auskleidung der ansonsten primär visuell geprägten Welterfahrung (siehe unten) setzte sich Brian Enos Idee der ›Ambient Music‹ auseinander. [27] Installative Arbeiten wie »Generative Roomscape 1« (1996) behandeln Klang und Bild gleichwertig: Beide sind als atmosphärische Gestaltungen ausgelegt, die sich gegenseitig ergänzen, ohne die Tendenz zur hierarchischen Unterordnung der musikalischen Ebene zu bestätigen.
Im Film kommen Bild und Ton zu einem medientechnischen Konstrukt zusammen. Bewegungen im Bild und des Bildrahmens selbst sowie die Montage dieser Bilder gehen mit gesprochener Sprache, Musik und Geräuschen komplexe Verbindungen ein. Während die Filmmusik schon bald nach der Etablierung des Tonfilms avancierte Techniken der Verstärkung der Narration und der ästhetischen Bildwirkung aufwies [28] , verharrte die Geräuschebene lange Zeit in einer untergeordneten Spiegelungsfunktion der im Bild sichtbaren Ereignisse: »see a dog, hear a dog« lautete die Devise. Erst in den 1970er Jahren begannen Regisseure des ›New Hollywood‹ in den Filmen »Star Wars« (George Lucas, 1977) und »Apocalypse Now« (Francis Ford Coppola, 1979) den Geräuschen eine tragende und ästhetisch eigenständige Rolle zu geben. Geräusche werden dabei vom Sound Designer in aufwändigen Prozessen ›komponiert‹, z.T. sogar frei erfunden [29] . Seitdem haben Bild und Ton im Produktionsvorgang einen ähnlichen Rang, wenn auch das Bild im Bewusstsein des Zuschauers (sic!) nach wie vor die Führungsrolle inne hat. Ziel der dabei angestrebten Verschmelzung der Bild- und Tonebene ist die perfekte Illusion.
In dem Film »Nouvelle Vague« (1990) lässtJean-Luc Godard Ton und Bild immer wieder auseinander fallen und bricht damit das illusionistische Bild-Ton- Verhältnis des Hollywood-Kinos auf. Er überzeichnet Geräusche, macht durch überschnelle Blenden auf den Eingriff des Toningenieurs aufmerksam, lässt das Gespräch der Protagonisten in Hintergrundgeräuschen untergehen und montiert Musik auf irritierende, den sichtbaren emotionalen Inhalten widersprechende Art zum Bild.
Der lineare Soundtrack wird in interaktiven Medien zwangsläufig zu einem dynamischen ›Soundfield‹, einer offenen Struktur. Das Prinzip der linearen Narration des klassischen Films bzw. des fixierten Formverlaufs, das in der abendländischen Musik mit dem Werkbegriff vorherrscht [30] , funktioniert hier nicht mehr. Eine pragmatische Umsetzung dieser Bedingung ist die Autoren-Software »Koan«, die für die dynamische Vertonung der freien Navigation durch Webseiten entwickelt wurde. Auf Basis des »Flash«- Formats realisierte zeitblom einen ähnlich gearteten dynamischen Klanghintergrund für eine Webseite der Freunde guter Musik <>, der den Aktivitätsgrad des Seitenbesuchers spiegelt.
Ähnlich wie beim Soundtrack verhält es sich mit funktionalen akustischen Informationen, der Ausgabe klingender Rückmeldungen auf Nutzeraktionen, die man als ›akustische Benutzeroberfläche‹ bezeichnen kann. Forschungen im Bereich des ›Auditory Display‹ [31] suchen nach eingängigen Modellen zur Audifikation von Rechenprozessen und zur akustischen Orientierungshilfe in großen Datenbeständen, zum Beispiel durch so genannte ›Earcons‹, die ähnlich den visuellen Icons helfen sollen, bestimmte Datentypen und Navigationsmöglichkeiten schnell und allgemeinverständlich zu unterscheiden.
Mit der Entwicklung von Formaten wie »Flash/Shockwave« und »Beatnik« haben sich Prinzipien wie der ›Rollover‹ verbreitet. Im Bereich der Netzmusik [32] entstanden in der Folge künstlerische Projekte wie »electrica«, die auf akustischem Weg signalisieren, was sich hinter einer grafischen Struktur verbirgt. Während solche audiovisuelle Navigation bei klangkünstlerischen Webseiten gut funktionieren kann, ergibt sich in der Alltagspraxis das Problem, dass derTon das Ohr permanent erreicht, während visuelle Reize durch die Blickführung selektiert werden können. Dies bewirkt, dass signalartige Klänge wie der akustische Rollover schnell störend wirken. Zudem sind Earcons offenbar schwer zu entziffern: Produzenten von Radio-Jingles sprechen davon, dass im schnellen Radiogeschäft nur etwa 15 verschiedene Geräuschtypen (Telefonklingeln, Geldklimpern, Klospülung etc.) von den Hörern eindeutig identifiziert werden. Wahrscheinlich liegen die Ursachen für diese geringe akustische Identifikationskompetenz in der Dominanz des Visuellen innerhalb der westlichen Kultur [33] .
Die Dominanz des Bildes lässt sich am Beispiel des Computers zeigen. Der Computer (und damit auch die Schnittstelle zum Netz) ist als Textmedium mit visuellem Interface konzipiert. Seine Zeit begann mit der spartanischen Abbildung von Buchstaben, zu hören war nur das lästige Rauschen der Kühlventilatoren. Die Durchsetzung der grafischen Benutzeroberfläche auf Grundlage der intuitiv zu bedienenden einzelnen Objekte so strukturiert, dass sie untereinander Informationen austauschen. Interaktionen des Benutzers und Kollisionen mit anderen Objekten verändern den Zustand einzelner Objekte und damit des Gesamtsystems. Keines der Objekte kennt alle Zusammenhänge, das heißt, an keinem Punkt im System laufen alle Informationen zusammen. An die autonomen Handlungen des Benutzers wird also ein dynamisches System autonomer Objekte gekoppelt. Die Tradition musikalischer Notation auf einer Fläche ist hier mit dem Verhalten von Organismen und physikalischen Systemen verwoben. Die Verhaltensweisen der Systeme orientieren sich an natürlichen und mechanischen Vorgängen und können daher trotz ihrer Komplexität wie bei den Konzepten der Experimentalisten aufgrund von Alltagserfahrungen durchschaut und sinnvoll bedient werden.
Medienkünstlerische Auseinandersetzungen mit Musik thematisieren immer wieder die Intermedialität des akustischen Erlebens. Ungleichgewichte in derWahrnehmung des medialen Alltags und das hierarchische Verhältnis zwischen Bild und Ton werden dabei in Frage gestellt. Mit der Einführung elektronischer und digitaler Medien haben sich musikalische Produktion, Verbreitung und Rezeption verändert. Technische Medien als gemeinsame Quelle für Bild und Ton regten eine Vielzahl intermedialer Verbindungen an. Dahinter steht immer wieder das Jahrhunderte alte Bedürfnis einer Verschmelzung der Sinneseindrücke zu einem synästhetischen Erlebnis. Neben diesem explizit kunstsynthetischen Ansatz wird aber oft übersehen, dass Musik an sich schon durch seine speziellen Produktions- und Rezeptionsbedingungen intermediale Wesenszüge besitzt. Die musikalische Praxis des 20. Jahrhunderts reflektiert diese Bezüge, betont sie oder stellt sie in Frage, indem das Konzert durch die verschiedensten Formen der Visualisierung angereichert und die gängige Notation durch grafische Symbole und visuell beeinflusste Interaktionsformen abgelöst wird. Intermedialität in der Musik ist also keine Folge der Technisierung, sondern ein in der Musik selbst angelegtes Phänomen, das mit Hilfe der Medien nur besonders effektiv und vielfältig in Form gebracht werden kann.
© Medien Kunst Netz 2004