Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser.
Deutsch

Susanne Ackers
»»Osmose« – Anmerkungen«

Susanne Ackers, »Osmose« Werkkontext, Berlin 2004

Akustische Elemente:
Langsame, weit entfernte und nahe Geräusche, ebenso transparent wie die visuellen Elemente, bestimmen die Ästhetik der akustischen Elemente in »Osmose«. Der Übergang beispielsweise einer Gittereinstellung am Anfang hinüber in eine Lichtung, auf der ein Baum als zentrale Metapher des Wachsens steht, wird akustisch begleitet von einem sensibel orchestrierten Miteinander von Tönen, die an Vögel, Grillen oder Frösche erinnern. Zusammen mit dem Blick auf den Bach, der sich über die Lichtung zieht, scheinen Geräusche, die an das Gluckern von Wasser erinnern, sehr passend. Geräusche, als würde gegen Holz geschlagen, eventuell von einem Specht, begleiten die Annäherung an den Baumstamm. Lang gezogene, einblendende und ausblendende Töne, vielschichtig übereinander gelagert, entsprechen dem visuellen Eindruck. Die Richtung des Blickes, die Positionierung innerhalb des Datenraumes sowie die Geschwindigkeit dienen als Auslöser für Veränderungen in der Sound-Landschaft. Das Grundmaterial der Töne sind die aufgezeichneten Stimmen von Dorota Blaszczak und Rick Bidlack, die von dem Musiker Rid Bidlack elektronisch so verändert wurden, dass die beschriebenen Eindrücke entstehen. Dorota Blaszczak entwarf das Sound Design und führte die Programmierung aus.

Kinästhetische (Eigenwahrnehmung des Körpers) und vestibuläre (Gleichgewichtssinn) Elemente:
Die Navigation durch »Osmose« beruht auf einem von Char Davies konzipierten Interface, welches sie aufgrund einer intensiven Erfahrung beim Tiefseetauchen entwickelte. Es besteht aus einer Weste, die mit einer technischen Vorrichtung zur Messung den Brustkorbumfangs ausgestattet ist. Für die Bewegung im Datenraum gilt: der Betrachter schwebt nach oben, sobald sich die Tendenz zeigt, dass das Lungenvolumen steigt. Verringert sich das Volumen tendenziell, dann sinkt der Betrachter nach unten. Mit diesem Interface wird der Atem als einer lebensnotwendigen Körperfunktion unmittelbar mit der Bewegung im Datenraum verschränkt. Die den Naturgesetzen der Schwerkraft eines mit Luft mehr oder weniger gefüllten Körpers im Element Wasser entnommenen Regeln erzeugen eine körperliche Erfahrung, die sich von der üblicherweise empfundenen Seinsweise in einem mit Luft gefüllten Raum unterscheiden.
Eine Arbeit, die ebenfalls den Atem als Input-Data nutzt, allerdings in Form des tatsächlich ausgeatmeten Luftstoßes, ist »Breath« aus dem Jahre 1992-93 von Ulrike Gabriel.

Produktionsästhetischer Kontext:
Char Davies beendete ihre künstlerische Tätigkeit im Jahre 1987 zunächst, um als Co-Direktorin die Firma »Softimage« mitzugründen. Das Interesse der Künstlerin an einer solchen Software vermittelte sie durch neue künstlerische Arbeiten, wie beispielsweise der Computergrafik »Drowning« (1993), die im Jahre 1993 den Prix Distinction auf der »ars electronica« erhielt, sowie auch durch theoretische Reflexion. Ab Herbst 1993 arbeitete sie an der Konzeptionierung der VR-Arbeit »Osmose«, die im September 1995 erstmals im Rahmen der 6. ISEA in Montréal präsentiert wurde. Die zur Verfügung stehende Ausstattung der Firma »Softimage« sowie die Mitarbeit von John Harrison als Programmierer und Georges Mauro als Grafiker erlaubten einen außergewöhnlich intensiven Arbeitsprozess. Sowohl die Software wie die Hardware wie die Kenntnisse des Teams befanden sich auf dem aktuellsten Stand. Dennoch stellte Char Davies zunächst unlösbar scheinende Ansprüche, wie die Darstellung von transparenten Bildern in Echtzeit. Trotz der vor zehn Jahren im Vergleich zu heute geringen Speicherkapazitäten der Rechner, löste John Harrison das Problem, indem er u. a. die z-Buffer der Software manipulierte und 20.000 Zeilen Code schrieb, um die Bilder in Echtzeit zu kreieren.

Verwendete Technik:
SGI Onyx Infinite Reality Engine2 mit einem R4400 150 Mhz Prozessor, 2 RM6's. plus 128 MB RAM, DAT Laufwerk, 2GB Festplatte, CD-ROM Laufwerk. Ein Macintosh Quadra Computer, der Befehle von einem SGI Computer erhält, kontrolliert verschiedene MIDI Anwendungen, Sound Synthesizer, und Prozessoren. Bild und Ton, ebenso wie die Positionssensoren, sind in einem Head Mounted Display (HMD), der mit einem Polhemus Tracker sowie mit einer bewegungssensitiven Weste verbunden sind. Zur Projektion dient ein Datenbeamer sowie eine digitale Stereoanlage mit Lautsprechern.