»No instrument plays itself or writes its own music.« Per Cederqvist
[1]
»Was sich überhaupt programmieren läßt, das muß berechenbar sein.« Frieder Nake
[2]
»It is understood that the artistic goal of THE SOFTWARE is to express conceptual ideas as software. It is also understood that THE SOFTWARE is partially automated, and its output is a result of it’s process. Despite the process being an integral part of THE SOFTWARE, this does not imply nor grant the status of artwork on the output of THE SOFTWARE. This is the sole responsibility of YOU (the USER).« Signwave Auto-Illustrator LICENSE AGREEMENT (für Version 1.2), § 7.3
A. Zur Ahistorizität der Computerkunstszene
Die Geschichte der Reflexion über den künstlerischen Einsatz von Software und Computer-Hardware beginnt nicht erst mit der transmediale.01, welche aber denprogrammierenden Künstlern als erstes internationales Festival, dessen Ursprung wie im übrigen beinahe alle jüngeren kunsthistorischen Bemühungen um neuere Verfahren apparativ basierter künstlerischer Strategien und Produktionsweisen in der Videotechnik liegt, einen Anstoß zu einer neuen, weitergehenden Beschäftigung mit Software-Programmen von Künstlern gab und in der Ars Electronica 2003 ihre bislang größte Vermittlungsinstanz überhaupt fand. [3] Im klassischen Kunstsystem wird jedoch in der Regel ignoriert, dass der Computer Werkzeug und Bestandteil von Kunst war und ist, und dies beinahe ebenso lange, wie es die Maschine selbst gibt. Eine Aufarbeitung dieser Geschichte, die sich um eine Einbettung in den kunsthistorischen Kontext bemüht, ist nach wie vor ein Desiderat. [4] Diese Perspektive verschiebt sich mit Blick auf die internationale Szene, in welcher es verschiedene Stränge der Computerkunst gibt, die sich passgenau der Entwicklung der technischen Möglichkeiten anschmiegen. Daher sollen im Folgenden zwei Anreize zu einer kunstgeschichtlichen Beschäftigung mit Computerkunst gegeben werden: Zum einen wird die Historizität des Phänomens ansatzweise verdeutlicht. Zum anderen betone ich die Rolle der Beschreibung, um damit einerseits darauf hinzuweisen, dass detaillierte Betrachtung Differenzierung erst ermöglicht, damit sich andererseits erst Vergleichbarkeiten zwischen älteren und jüngeren Arbeiten erschließen und Möglichkeitsräume für ein tiefer gehendes Verstehen der Computerkunst eröffnen. Entgegen des Trends, mit immer neuen ›Kategorien‹ das Kunstsystem auf ein Feld von unterschiedlichen Techniken umzuprägen, schlage ich vor, den eher traditionellen und umfassenden Begriff ›Computerkunst‹ für die Phänomene des Digitalen in den Künsten zu verwenden. Dabei werde ich in einem ersten Teil historiografisch vorgehen und anhand einer losen Erzählung auf bislang vernachlässigte Zusammenhänge hinweisen. In einem zweiten Teil betrachte ich vier Arbeiten aus verschiedenen zeitlichen Phasen, die meines Erachtens besonders beispielhaft für die Geschichte der Computerkunst sind. Um sich dem Phänomen der Computerkunst nähern zu können, bedarf es vorab einer Setzung. Die folgende Definition hegt erst einmal keinen kategorialen oder gattungshaften Anspruch. Ich werdeaber den Begriff der Computerkunst gegenüber dem der Softwarekunst gerade deshalb bevorzugen, weil er ein historisch-integratives Moment impliziert, das Anschlüsse an eine vergleichende Untersuchung von Computerkunst ermöglicht. Mit ihm setze ich jüngste Phänomene, die beispielsweise auf der transmediale.01 zu größerer Popularität gelangten, in eine Familienbeziehung zu Arbeiten aus der Zeit der 1960er und 1970er Jahre, was aus den Selbstzeugnissen und Aufsätzen über Computerkunst der Gegenwart in der Regel nicht ablesbar ist. [5] Diese Kopplung ermöglicht es erst, sich im historischen Blick auf künstlerisches Tun mit dem Computer einer Erkenntnis auch der Kontexte und ihrer Bedeutungen für das und im System der Kunst zu nähern. [6] Entgegen herkömmlicher Praxis werde ich keinen gattungsmäßigen Unterschied zwischen immersiven Kunstwelten, die durch Computer erzeugt werden, und ›Softwarekunst‹-Programmen machen. Diese Spaltung hat in der jüngeren Kunstgeschichte zu einer nicht gerade fruchtbaren Beziehung zwischen interaktiven Environments zu Videokunst geführt, welche mit einem »Gestus des Advents« [7] dem Digitalen als vermeintlich logischer Konsequenz aus der Geschichte des Films die Zukunft vorgeschrieben hat. [8] Ich verstehe also unter Computerkunst dasjenige künstlerische Tun, was ohne Computer nicht wäre und diejenigen Arbeiten, welche ohne den Computer keinen Sinn machten. Dabei sind die Bedeutungssegmente, in denen der Computereinsatz für und innerhalb einer künstlerischen Arbeit auftaucht, je verschieden. [9] Ob es sich nun um ein spezifisches Skript handelt, das auf jedem handelsüblichen Computer laufen kann und diesen für die aktuale Aufführung zwingend benötigt [10] , oder um eine telematische Installation, die aus den Dateneingaben des browsenden Nutzers zuhause über das Internet in fernen Rechnern Kreaturen (z.B. »Life Spacies«) generiert, welche in einen Ausstellungsraum projiziert werden [11] , ohne dass der Eingebende die Reaktionen des Systems verfolgen könnte: Diese beiden Modelle werden durch die Verwendung von Computersystemen und einer Kommunikationsstruktur bestimmt und wären ohne diese Bestandteile nicht denkbar. Damit sind jene Techniken notwendig und sinnkonstitutiv für das Artefakt.
Franke/Nees/Alsleben
Blickt man nun in jüngere, überblicksartige Publikationen zur Geschichte der Kunst des 20. Jahrhunderts, finden sich nur spärliche oder gar keine Informationen über den Computer als Werkzeug zur Generierung von Kunst. [12] Dabei scheint gerade die Frühzeit sehr gut dokumentiert zu sein. Autoren und Künstler haben sich an der Schwelle der 1970er Jahre neben ihrer künstlerischen und wissenschaftlichen Arbeit auch kunsttheoretisch geäußert und – wie im Fall von Herbert W. Franke, Georg Nees oder Kurd Alsleben – teilweise mehrfach die Ideen einer praktischen Ästhetik niedergeschrieben. [13] Wobei die Nähe der Computerkunst zum Kunstsystem in Form von formaler Ähnlichkeit der Arbeiten der Pioniere, die sich auf die kybernetisch geprägte Informationsästhetik beriefen, deutlich wird. Es gab über konkret-konstruktive Tendenzen und die Optical Art oder kinetische Kunst in den klassischen Künsten gleich mehrere Berührungspunkte. Gerade in den 1960er Jahren war es im Rahmen eines allgemeinen Interesses am theoretischen Paradigma der Kybernetik auch in den Künsten zu einer intensiven Auseinandersetzung mit ihren Kerngedanken gekommen. [14] Dabei ist beispielsweise an die Kunst-Maschinen für ein täglich anderes Werk von Victor Vasarely zu denken, aber auch an Arbeiten von Gerhard von Graevenitz, der sich Gedanken über die Rolle des Zufalls in der bildenden Kunst machte. [15] Ebenso Herman de Vries, der sich sowohl künstlerisch als auch theoretisch mit dem Zufall und dem Begriff der Information in seinem Frühwerk auseinander setzte. [16] Gerade in der Implementierung des von Zufallsmomenten als strukturbildende Werkprinzipien gab es spätestens in der Moderne Schnittmengen zwischen Künstlern, die mit traditionellen Materialien arbeiteten, zu Computernutzern. [17] Betrachtet man die berufliche Provenienz der Computerkünstler, so ist auffällig, dass nur wenige, genuin bildende Künstler mit dem Computer arbeiteten.
Manfred Mohr
Manfred Mohr ist einer der bildenden Künstler. Der Jazz-Musiker wurde zum Gold- und Silberschmied ausgebildet und studierte Malerei in Pforzheim. Sein Werk wird daher selbstverständlicher im Kontext klassischer Künste verhandelt. So widmete ihm dasBottroper Josef-Albers-Museum Quadrat, ein Haus, das sich im besonderen Maße um die konkret-konstruktive Kunst verdient gemacht hat, 1998 eine umfangreiche Einzelausstellung mit Arbeiten der 1960er Jahre bis Ende der 1990er Jahre. [18] Mohr berechnet die Bilder zwar, realisiert diese aber in klassischen Techniken wie der Malerei, was sie vereinbarer mit dem klassischen Markt macht. Die ersten Computerkünstler – fern der theoretisch gefärbten Prophezeiungen, wie sie Herbert W. Franke formulierte – adressierten mittels Grafik einen ›klassischen‹ Betrachter, wie die digitale Dichtung durch das Buch einen Leser.
Erwin Steller: Computer und Kunst
Erwin Steller beschreibt und systematisiert 1992 das Verhältnis zwischen »Computer und Kunst«. Der Text ist die Abfassung seiner Vorlesung an der Universität Karlsruhe und er blickt auf die jüngere Kunstgeschichte. Er schreibt die Computerkunst als Folge der großen Strömungen, die zu Beginn des 20. Jahrhunderts die bildende Kunst revolutionierten. [19] Diese werden von ihm aufgegriffen und mit Arbeiten von Computerkünstlern verglichen. Zunächst definiert er mit der Fotografie eine erste »Schnittstelle« zur apparativen Kunst (S.15 ff.). Er spannt den Rahmen von der Frage nach der Kunsthaftigkeit apparativ erzeugter Bilder bis zur Entdeckung der Camera obscura und stellt das Misstrauen den technischen Hilfsmitteln gegenüber mit einer Frage vor: »Kann die […] Objektivierung, ein solcher ›Abklatsch der Wirklichkeit‹, noch Kunst sein? Kann – außer in der Posierung von Personen, im Arrangement eines Stillebens oder im Suchen eines geeigneten Ausschnittes einer Landschaft – überhaupt noch aktiv gestaltet werden?« [20] Eine Untersuchung spezifischer Übereinstimmungen und der ›Erbfolge‹ zwischen den alten, apparativen Künsten und der Computerkunst unternimmt Steller nicht. Es bleibt beim einfachen Vergleich von Behauptungen über die Wertungen, dass Fotografie in der Anfangszeit eine ähnliche Ablehnung erfahren habe wie die Computerkunst. In einem weiteren Kapitel beschreibt Steller die Umbrüche der Kunst im 20. Jahrhunderts hin zu einer zunehmenden Verabschiedung der Gegenständlichkeit im Prozess der Abstraktion einerseits, andererseits in der ›Entdeckung‹ der Konkretion in der Definition nachTheo van Doesburg. [21] Methodisch bindet er die Bildsyntax, wie sie in den theoretischen Künstlerschriften von Kandinsky in Form einer Elementarlehre ausgebreitet wurde, an Grafiken von Computerkünstlern. [22] Ein weiteres Vergleichsmoment sieht Steller in der Optical Art. Systematisierte und mathematisch-formalisierte Bildfindungsprozesse, so seine Auffassung, eigneten sich besonders für eine automatisierte Produktion. [23] Im Grunde ist dies eine ähnliche Haltung, wie sie auch Franke vertritt: Die Apparatur wird aufgrund ihrer immanenten Anlage zur Präzision nobilitiert, aber lediglich als Werkzeug verstanden. [24] Daneben wird sowohl die Rolle des Zufalls als auch die Zeichenhaftigkeit von Kunstwerken thematisiert, die mit dem Computer entstanden. In seinem Kapitel über generative Ästhetik und Informationsästhetik spricht Steller über die theoretischen Begründungen der kybernetisch geprägten Ästhetiken, wie sie vor allem die bereits angesprochenen Künstler verwirklichen wollten. Hier kritisierte er die Absichten der Autoren, Artefakte und ihre Wirkungen als quantifizierbar und damit errechenbar machen zu können, als geschmacksbedingt. [25] Ohne auf die veränderten Kontexte neuerer Kunstströmungen einzugehen, koppelt er Tendenzen der Computersimulation an die Pop Art und andere Realismen, wobei nicht ersichtlich ist, mit welcher Notwendigkeit sich in den zitierten Beispielen von Kunst sprechen ließe. [26] Visualisierung mathematischer Formeln und ihre Verfremdungen spricht der Autor anhand der zu Beginn der 1990er Jahre modischen fraktalen Gleichungen und ihrer Varianten ebenso wie das Anmutungshafte in mathematischen Schwingungen an. In seinem Resümee verlässt er den Boden der Kunst und versucht eine Kritik an der Maschine selbst. Daraus folgt, dass er lediglich den »Dualismus von Hightech und de[n] Computer als bloße[s] Hilfsmittel« kritisieren kann. [27] Mit dem Buch wird immerhin eine systematische Erfassung der Computerkunst unter Berücksichtigung einer allgemeineren Kunstgeschichte versucht. Allerdings werden Positionen wie Myron Krueger, dessen interaktives Environment »Videoplace« mit Videokunst weniger als mit Computerkunst zu tun hat, ignoriert. [28] Der Werkbegriff, den Steller demzufolge implizit tradiert, ist an die Materialität eines Produkts aus derPalette der Medien klassischer, visueller Kunst gebunden. Andere Strategien, die sich – wie Performances – durch Verhaftung in einem definierten Zeitrahmen auszeichnen, subsumierte er in nur einem Absatz unter dem damals aktuellen Begriff des ›Immateriellen‹, den Florian Rötzer kurz vor dem Erscheinen des Buchs in zwei Bänden des Kunstforums untersuchte, welche Steller auch zitiert. [29]
Drei Phasen der Computerkunst
Drei größere Phasen der Computerkunst lassen sich bestimmen. Sie zeigen direkte Abhängigkeiten zum jeweils technisch Machbaren. [30] In einer ersten Phase wurde die Computerkunst rückgekoppelt an praktische Ästhetiken, welche sich aus den zwei Modellen der ungegenständlichen Kunst, Abstraktion und Konkretion, entwickelten. Diese Phase endete ca. in der Mitte der 1970er Jahre. Der Output war Grafik, neben Arbeiten wie zum Beispiel »Videoplace« von Myron Krueger. Als die Rechenleistung stieg und die Industrie sowohl im Maschinenbau als auch im Filmgeschäft die Simulation entdeckte, wurden plötzlich immersive Bildwelten zum Gegenstand apparativer, künstlerischer Erprobung. Eine Tendenz, die prominente Institute, wie das Zentrum für Kunst und Medientechnologie in Karlsruhe oder die Ars Electronica und damit auch die Szene der Medienkunst entscheidend prägte. Durch die Erkenntnis, dass die zeitgenössische Physik die Philosophie als Leitwissenschaft zur Entwicklung von Weltbildern in Frage gestellt hat, gelangten darüber hinaus Modelle wie die Chaostheorie, die mathematisch-kybernetisch interessierten Künstlern wie Karl Gerstner Anregungen zur Erschaffung neuer Bildwelten waren, als Ideengeber in die Kunstszene. [31] In der apparativen Kunst kam es in dieser Zeit auch zu einer Institutionalisierung an den Hochschulen nach dem Beispiel des Center for Advanced Visual (CAVS) am MIT. Frieder Nake resümiert: »Das Bild aus dem Computer hat Konjunktur. Die Bewegung um die Computerkunst in den sechziger Jahren war eine Lappalie gegenüber der Aufmerksamkeit, die ihr seit Mitte der achtziger Jahre entgegengebracht wird. Ausstellungen, Preise, Bücher, Programme, Produkte. Kaum ein Departement oder eine School of Fine Arts in den USA, die nicht ein paar Computer herumstehenhätten.« [32] Die Bildzentriertheit, dieses stetige Beharren auf die Produktion von zweidimensionalen Visualisierungen einerseits und der höchst teure Aufbau von dreidimensionalen Bildermaschinen wie den Caves [33] andererseits haben zu einem Schnitt durch die Computerkunst geführt. Standen die Künstler der 1960er Jahre sehr unter dem Paradigma einer Kunst der Exaktheit, waren sie eher unempfänglich für diejenigen Künste, welche sich eher kommunikativen oder politisierenden Aktionen widmeten. Performatives konnte nicht von gegenstandszentrierten Künsten aufgegriffen werden. Daher ist von einem direkten Einfluss der Künstler und Pioniere der apparativen Künste der Frühzeit in der Szene der Computerkunst der Gegenwart nichts zu erkennen. [34] Ein Beispiel für die Ahistorizität: Im Jahr 2001 wurde im Rahmen des Münchner Make World-Festivals, das von Olia Lialina und Florian Schneider organisiert wurde, Grafik von Herbert W. Franke ausgestellt. Doch wirkte diese Schau lediglich wie ein Aperçu. Besonders zwischen diesen Arbeiten und den teils animierten Gegenwartswerken ließen sich keine Verbindungen knüpfen. Zudem stand das Festival unter dem thematischen Fokus des Aktivsmus. Erst die Kontextualisierung in das Feld des Experten machte Frankes Grafik als Künstler-Ingenieur auch in diesem Feld vermittelbar. [35] Gegenwärtig gibt es zumindest im Internet zwei beachtenswerte Initiativen, die sich dem Code als Werkstoff künstlerischen Schaffens widmen und ganz unterschiedliche Projekte vorstellen. Die prominentere Webseite der beiden ist runme.org. Und da in der Medienkunst in der Regel die Festivalstruktur als Hauptvermittlungsmedium fungiert, wurde nach der Sammlung von zeitgenössischen Arbeiten aus der Computerkunst ein Festival organisiert, dessen Struktur sich durch die jährlich wechselnde Spielstätte von anderen Veranstaltungen unterscheidet. Das zweite Projekt geht auf eine Initiative von Adrian Ward und Alex McLean zurück. Es ist das generative.net. Jedoch sucht man auch hier nach historischen Vorläufern aus der eigenen Zunft vergebens, dies ist im Falle des generative.net umso verwunderlicher, sei doch gerade die angloamerikanische Szene nach Franke eher durch Kontinuität geprägt. [36] Ein weiterer Faktor erschwert das Schreiben der Geschichte der Computerkunst.Denn durch die Ubiquität des Digitalen in der Gegenwart ist zwar die Entwicklung der Computer selbst museumswürdig geworden, nicht jedoch die frühe Computerkunst. Denn anders als es der Weg ins Museum gestattet, um zu einer wie auch immer gearteten Kunsterfahrung zu gelangen, lassen sich durch die Absenz der Techniken und Maschinen sowie der unter Kunsthistorikern seltenen Kompetenz des Lesens von Quellcodes allein die materiellen Artefakte unter Ausblendung der Codierungen betrachten, und dies kann im Fall von Computerkunst zu Verwirrung führen. [37] Erstaunlich an der kunsthistorischen Diskontinuität ist aber weniger die Erkenntnis, dass es bereits seit der Existenz der ersten elektronischen Rechenanlagen immer wieder Nutzer mit künstlerischen Interessen gab, die Computerkunst aber sich längst nicht so breitflächig durchsetzen konnte wie beispielsweise die fast zeitgleich auftauchende Videotechnik beziehungsweise andere Speichermedien wie das Tonband. Grund hierfür ist nicht nur die Komplexität der Maschine und ihre anfangs nur durch Fachpersonal mögliche Bedienung. Die geringe Akzeptanz seitens der Kunstkritik erklärt sich nicht zuletzt durch den eingeschränkten Zugang zur Maschine, der in der Computer-Frühzeit ganz anders als im heutigen PC-Zeitalter reglementiert war. Computer waren in der Regel seltene und äußerst teure Apparate. Rechenanlagen boten Arbeitsplätze für hochgradig arbeitsteilig vorgehende Spezialisten. Sie wurden im Dauerbetrieb und in unternehmenskritischen und forschungsrelevanten Umgebungen gefahren, wo das Ausfallrisiko aus Zeit- und Kostengründen so gering wie möglich gehalten werden musste. Zudem muss an die Größe der ersten Maschinen erinnert werden, die Raum greifende Installationen waren. Die späte Demokratisierung nach der Entwicklung des Personal Computers wie dem Altair 8800 (ca. 1974) oder dem Apple I (1976), die Ende der1970er Jahre mit dem Sinclair ZX 80 (1979) einsetzte und zur Verbreitung des Computers erst durch den Commodore C 64, der ca. 1982 auf den Markt kam [38] , gelangte, verzögerte trotz der frühen Spielkonsolen ein schnelles Zugreifen breiterer Interessenten auf Computerhardware. [39] Zudem zeigte sich, dass ab 1970 die Skepsis an Maschinen und ihrer Rolle für die Gesellschaft wuchs. Der naive Glaube an das technischMachbare als Heilmittel und Stütze für die Defizite menschlichen Daseins wich einer Ernüchterung, die letztlich zu einer Computer- und technikfeindlichen Haltung im politisch-aktivistischen Umfeld führte. [40] In der damals konservativ geprägten akademischen Kunstgeschichte bestand kein Interesse an der Aufarbeitung des Technischen in Relation zur bildenden Kunst der Gegenwart. In der Kunstkritik waren mit der weitgehenden Bekanntheit von Joseph Beuys und Andy Warhol andere Paradigmen wichtig geworden, in die das Produzieren von Computergrafiken, so wie es in der Anfangszeit als Zugeständnis an den Kunstmarkt gemacht wurde, längst nicht mehr passte. [41] Dieter Daniels beschreibt dies anhand des Begriffs der Interaktion: »Die Interaktion von Publikum, Werk und Künstler wird in den 1960er Jahren zum bestimmenden Element neuer Kunstformen jenseits etablierter Kategorien und Institutionen. ›Intermedia‹ lautet das […] Ideal einer Überwindung von Gattungen und Techniken. Happening und Fluxus setzen an die Stelle eines abgeschlossenen Werkes das Angebot an das Publikum, seine Erlebnisse im Umgang mit Kunst wesentlich selbst zu bestimmen. Das Ziel einer Entgrenzung zwischen Künstler und Publikum und die Aufhebung des Unterschieds zwischen Produktion und Rezeption weisen viele Parallelen zur politischen Forderung der 68er-Revolte nach einer Okkupation der Produktionsmittel durch die Konsumenten auf.« [42] Aus diesem Grund konnte die statische Computergrafik, welche den Großteil der Computerkunst der Phasen Eins und Zwei ausmacht, nur uneinheitlich im Kunstsystem Fuß fassen, da Kunst längst soziale Praxen in künstlerisches Handeln zu verwandeln versuchte. Wenn zudem die Technik nicht ermöglichte, was in der analogen Welt mit den Netzwerken der Copy-, Mail- oder Faxart realisiert werden konnte, ist es verstehbar, dass die Computerkunst informationsästhetischer Prägung keine Nachhaltigkeit erzeugte.
B. Die beschreibende Analyse
In der Computerkunst der ersten beiden Phasen klafft zwischen experimentellen und multimedial angelegten Versuchen der amerikanischen Künstler und den eher grafisch orientierten Gestaltern deutscher Provenienz eine konzeptuelle Lücke. Zwei Positionen sollen diese Differenz verdeutlichen. Im Folgenden kontrastiere ichden »Videoplace« von Myron Krueger, den ich der Phase Zwei zuschreibe, mit der Phase-Eins-Arbeit »Schotter« von Georg Nees. [43]
1. »Schotter« von Georg Nees
Georg Nees' Grafik »Schotter« ist ein Hochformat, das sich aus 12 x 22 Quadraten mit gleicher Seitenlänge zusammensetzt, welche in einer der europäischen Leserichtung folgenden Blickweise die Zunahme an Unordnung von oben nach unten zeigt. [44]
Über das Sichtbare definiert sich Ordnung, die nicht mit der Bildordnung zu verwechseln ist, als ein optimaler Zustand, in dem die Quadrate auf einer Waagrechten liegend, eine Reihe bilden, in dem jedes dem nächsten exakt angelegt wird, so dass sich eine gerade Linie aus den oberen und unteren Seiten bildet. Dieser Zustand ist im Bild nicht zu sehen. Per Reihe nimmt der Zustand der Unordnung sukzessiv zum unteren Bildrand hin zu. Die Unordnung bildete das Programm einerseits durch die Drehung jeden Quadrats am Schnittpunkt seiner Diagonalen und andererseits durch die zunehmende Verschiebung auf der Bildfläche.
Die Grafik wirft eine Reihe von Fragen auf, welche die Relation zwischen einem einerseits konstruierten andererseits errechneten Bild betreffen. So muss das Quantum der Erkenntnismöglichkeit durch Anschauung im Vergleich mit einem Werk der klassischen konstruktiven Kunst eingeschätzt werden. [45] Dabei lässt sich mittels Bildbetrachtung die bildintentionale Absicht beziehungsweise die immanente Logik des Bildes rekreieren.
Was ist dann der eigentliche Bildinhalt? Man kann sagen, dass das Bild die Veranschaulichung der Relation zwischen Ordnung und Unordnung zeigt. Dies ergibt sich allerdings aus einem bereits interpretierenden Vorwissen, das zu obiger Beschreibung führt. Dabei wird der eher orthogonale Bereich der Aneinanderreihungen der Quadrate (bis Reihe 6) als Zustand höherer Ordnung gegenüber dem unteren Bereich des Bildes gewertet. Es kann in der Anschauung allerdings nicht exakt erschlossen werden, welchen Prozessen sich die Erscheinungsweise der Zunahme der Unordnung verdankt. Sicher könnte man die Koordinaten und Neigungen der Quadrate messen. Damit ist bereits eine Grenze definiert, die durch Betrachtung nicht überschritten werden kann. Im Gegenteil: Es muss davon ausgegangen werden, dass der Betrachter eher noch am Bildsinn vorbei sieht,beziehungsweise je eigene Bildsinne sehend abschöpft, ohne dass diese kontextuell gestützt werden könnten. Durch additives Sehen ließe sich eine räumliche Wirkung, eine leichte Ausstülpung als optische Täuschung im linken mittleren und rechten unteren Bildbereich sehen. Zieht man nun den Kontext hinzu, dass es sich um die grafische Realisierung eines mathematischen Modells handelt, das mittels einer Formalsprache codiert wurde, stellt sich folgende Frage: Was ist das Bild über eine spezifische Visualisierung von maschinell erzeugtem Zufall hinaus? Dies führt zur eigentlichen Kernfrage: Ist die Darstellung dann ein Bild, ein Diagramm, eine technische Zeichnung also, oder etwas dazwischen? Entsteht zunächst in Folge einer sukzessiven Betrachtung des Bildes von oben nach unten der Eindruck eines Zuwachses an Abweichung von dem Ordnungssystem, das sich wie oben beschreiben lässt, tauchen nach längerer Betrachtung im Bereich der zunehmenden Unordnung Strukturen auf, welche den formalen Kontext der einzelnen Teile allein durch die jeweilige Lage der Teile auf der Fläche zueinander zu neuen, nicht starren, geometrischen Figuren überschreiten. Daraus lässt sich ableiten, dass der Zustand steigender Unordnung bildimmanent Strukturen der Ordnung aufscheinen lässt, ohne sie in eindeutige geometrische Figuren deutlich zu verfestigen. Informationstheoretisch lässt sich dieser Effekt so beschreiben, dass sich im Bereich der Unordnung Superzeichen bilden.
[46] Diese lassen sich in ihrer Qualität als dynamisch und kontingent beschreiben. Der obere Teil ist dagegen statisch. Damit ergibt sich auf einer höheren Interpretationsebene aus dem Betrachtungsergebnis die Erkenntnis, dass in einem Bereich der Unordnung kontingente Ordnungsmomente sichtbar werden. Im Bildbereich höherer Ordnung schließt sich dies aus. Hier ist lediglich eine additive Reihung von Quadraten die wiederum nur zu Quadraten beziehungsweise Rechtecken führen kann, evident. [47] Allerdings bleibt noch die Programmierung, aus der die Grafik schließlich hervorgegangen ist, zu betrachten. Denn die optische Evidenz von simultanen Zuständen der Ordnung ohne Erzeugung von formal abweichenden Superzeichen mit relativ gleitendem Übergang zur Unordnung, die kontingent und in der Anschauungformal abweichende Superzeichen evoziert, deutet auf eine Anlage in der Programmierung hin. Daher müsste die Rolle des programmierten Zufalls in ihren Parametern untersucht werden.
Hierzu schreibt Nees: "Bild 38 (Schotter) wird durch einen Aufruf der Prozedur SERIE erzeugt. Zur Genese der Elementarfigur, die in dem von SERIE gesteuerten Kompositionsprozeß vervielfacht wird, dient die parameterlose Prozedur QUAD. In den Zeilen 4 bis 15 des Generators wird QUAD vereinbart, diese Prozedur zeichnet Quadrate konstanter Seitenlänge, jedoch zufälliger Lage und Winkelstellung. Man erkennt aus den Doppelzeilen 9 und 10, daß die Position des Einzelquadrats vom Zufallsgenerator J1, die Winkellage von J2 beeinflußt wird. Die sukzessive verbreiterte Streuung der relativen Ortskoordinaten P und Q und des Lagewinkels PSI des einzelnen Quadrats wird durch einen Zähler I gesteuert, der bei jedem Aufruf von QUAD weitergeschaltet wird (siehe Zeile 14).« [48] Daran lässt sich feststellen, dass ein Bildsinn, der einen Mehrwert über das bloße Werten der Arbeit als Diagramm einer Formel erzeugt, sich nur ableiten lässt, wenn ein integratives Untersuchungsmodell aus Betrachtung und Untersuchung der rechnerischen Grundlagen angewendet wird.
[49] So belegt dieses Vorgehen das Verhältnis zwischen einer Erfahrung in der Anschauung und dem Wissen um die Abstraktion eines Problems in einem logisch-deterministischen Computerprogramm. [50] Wobei erkannt wird, dass einerseits die einseitige Untersuchung des Quelltextes oder andererseits die schiere Bildbetrachtung allein das Verstehen ausmachen. Denn im Unterschied zu einer Komposition, welche auf traditionellem Weg aus dem visuellen Kalkül des Künstlers in Probereihen oder schlicht durch eine wie auch immer verursachte Bildfindung entstand, zeigt dann die Betrachtung des Quellcodes, dass es sich bei »Schotter« in der vorliegenden Form um eines von n-möglichen grafischen Zuständen des Programms handelt. Dies ist mit Blick auf die Computerkunst das Schlüsselmoment dieser Arbeit. [51]
2. Myron Krueger: »Videoplace«
Myron Kruegers »Videoplace« ist dagegen sowohl in seiner Funktion als auch in seiner Genese ein ›dynamisches‹ Werk, das sich auf den ersten Blick nur schwer mit einer Grafik, wie sie oben betrachtetwurde, vergleichen lässt. Verglichen werden soll auch keineswegs das Optische, sondern der Modus des Einsatzes der Maschine Computer. Es ist ein Work in Progress, an dem der Computerwissenschaftler seit ca. 1974 arbeitet. [52] Kruegers primäres Ziel ist die Entwicklung von ›Oberflächensystemen‹ zur Mensch-Maschine-Kommunikation. Er verfolgt einen Ansatz, der sich an der physischen und kommunikativen Reichweite der Extremitäten und Sinnesorgane des Menschen orientiert. In seinen Environments werden keine Parallelwelten entwickelt, in die der Mensch ›eintaucht‹. Vielmehr wird der Akteur in der Installation nicht durch am Körper zu applizierende Technik eingeschränkt und besitzt volle Bewegungsfreiheit, so dass er, auf die visuellen und akustischen Angebote reagieren kann. In der Regel bestehen die Arbeiten aus einer beobachtenden Kamera, die in Rückkopplungssystemen mit Computern verbunden ist. Diese berechnen einerseits die Bewegungen des Benutzers, andererseits die Reaktionen des Systems auf dieser Datenbasis in Echtzeit. Und an dieser Stelle vermittelt sich ein grundsätzlich anderes Verständnis vom Computer und seiner Eignung als Werkzeug für Künstler. Krueger beschreibt die Motivation für seine Arbeit wie folgt: »Als ich beobachtete, wie die Künstler mit ihren traditionellen Werkzeugen in Beziehung stehen, merkte ich, was sie so Ende der 1960er mit Computern machten. Ich fand, daß sie Kunst in einer recht altehrwürdigen Weise machten. Dies schien mir falsch. Wenn der Computer die Kunst revolutionieren sollte, so musste er neue Kunstformen definieren, die ohne ihn unmöglich wären, nicht einfach nur dabei helfen, traditionelle Arbeiten zu schaffen.« [53] Was zu einer Zeit, in der Nees' Grafik »Schotter« entstand, noch undenkbar schien, wird für Krueger in den 1970er Jahren zum Movens der oben zitierten Umwertung der Vorstellungen über die Kunst mit dem Computer: Reaktionen in ›Echtzeit‹. Die Komplexität der Verschaltung von taktilen und visuellen Sensoriken dient nicht allein der Steuerung und dem Auslösen bestimmter Funktionen. Das System besitzt in der Beschreibung von 1990 zwei Funktionsmodi. In einem entscheidet allein die Maschine, welche Art der Interaktion aus dem Fundus der möglichen Sequenzen ablaufen wird. Im anderen Modus gibt es einenmenschlichen ›Mitspieler‹, einen ›Operator‹, der die Steuerung übernimmt. In diesem Modus wird der Computer zu einem Schaltelement. Im ersten Modus aber wird die Komplexität des menschlichen Verhaltens in dem Environment von der Konstellation der Maschinen bestimmt und interpretiert. Modus zwei ist für Krueger im Jahre 1990 lediglich eine Übergangsphase, bis die Technik soweit entwickelt ist, dass komplexere Weisen des Interagierens allein mittels der Maschine möglich werden.
C. Softwarekunst - Computerkunst
Erleben wir nun also in einer dritten Phase eine Renaissance der Computerkunst als Softwarekunst? [54] Ist es nun wieder die Kunst der Programmierer, welche auf den Festivals künstlerisch-aktivistische Praktiken mit Computer- und Netzkunst rückkoppelt an eine aus der Gegenwart entwickelte Vorstellung des künstlerischen Schaffens auf der Basis von Code? Wieder sind es weniger Impulse aus den Kunstakademien als vielmehr aus anderen Berufsfeldern, wie Software-Entwicklung (Antoine Schmitt), Mediengestaltung und Design (W. Bradford Paley). Dieses Verbinden besitzt seinen archimedischen Punkt in der Bewegung um freie Software, welche den größten Einfluss auf die Szene der gegenwärtigen Künstler-Programmierer ausübt. [55] Damit gehen Debatten um Urheberrechte einher, Werkbegriff, Künstlerrolle und Code mit der Perspektive auf das Rechts- und Kunstsystem. Und allein mit diesen Bezügen besitzt die Computerkunst-Szene heute ein politisch-kritisches Moment, welches zum Hauptthema beispielsweise der Software von Adrian Ward geworden ist. Die an dieser Stelle vorgestellten Arbeiten teilen einen konzeptuellen Aspekt, der verdeutlichen kann, wo die Unterschiede zu den früheren Arbeiten liegen. [56] Beide Arbeiten weisen im Unterschied zu Nees und Kruegers Werken ein hohes Maß an Selbstreferenzialität auf. Der Grad des generativen Anteils stellt sich gerade bei diesen Arbeiten, die nicht einfach auf Grafik erzeugende Pseudozufallsgeneratoren zurückgreifen, in konzeptueller Sicht dar und belegt andere Modi der Verwendung.
1. Alex McLeans »Forkbomb«
»Die ENTER-Taste hat eine Macht erlangt, die den Wortsinn von Poesie, nämlich machen, im Unterschiedzu aller Poesie oder Literatur der Geschichte erstmals einlöst.« Friedrich A. Kittler [57]
Die »Forkbomb«, die Alex McLean im Jahre 2001 in der Skriptsprache Perl [58] schrieb, ist im Wesentlichen ein 13-zeiliges Programm, das den Weg ins Kunstsystem über die transmediale.02 gefunden hat und dort mit einem Preis ausgezeichnet wurde. [59] In der Beschreibung der Funktion und Wirkung des Skripts wird eine gewisse Radikalität ersichtlich, mit welcher die Behauptung verbunden ist, das Stück Software sei Kunst: Letztlich handelt es sich um nichts anderes, als einen unkontrollierten System-Stopp. Der Code bewirkt über Mechanismen, die hier beschrieben werden, dass das System, auf dem der Interpreter [60] das Skript abarbeitet, nach und nach erlahmt. Dies geschieht, indem, ausgehend von einem so genannten ›Prozess‹, der immer wieder verzweigt wird, eine Lawine von identischen Prozessen ausgelöst wird, und zwar so lange, bis – je nach technischer Beschaffenheit des Computers – die Systemressourcen erschöpft sind und Stillstand die Folge ist. Dabei wird über die Ausgabe ein Bitmuster aus Nullen und Einsen ausgegeben: »Das Muster, in dem diese Daten dargestellt werden, bildet zum einen den Code-Algorithmus nach, zum anderen das Betriebssystem, in dem der Code ausgeführt wird. Das Resultat ist ein künstlerischer Abdruck ihres »Systems im Stress«, heißt es dazu auf der Homepage der transmediale – siehe die Mikroanalyse der «Forkbomb».
Das Programm ist effizient programmiert und erfüllt damit die Bedingung für ein ›normales‹ Computerprogramm. In seiner Funktion aber kehrt es das Paradigma des Funktionierens um. Im Prinzip handelt es sich um einen programmierten Tabubruch. Würde man es in produktiven Kontexten einsetzen, gäbe es keine Produktivität mehr, da das System höchst wahrscheinlich immer wieder neu gestartet werden müsste. Insofern handelt es sich um das ausgeschlossene Andere, das durch Normen und andere Kontrollfunktionen gebändigt und als Kunst klassifiziert wird und damit zumindest qua Theorie beherrschbar bleibt. [61] Im digitalen Alltag drängen sich Vergleiche mit einem Virus auf. [62] Durch die Lozierung des Stücks Code in den Kunstkontext ist ein anderes Dispositiv zuständig für Autor und Funktion. Im Regelfall, das zeigen Prozesse gegen Programmierer, die nicht den herrschenden Paradigmen der jeweiligenProgrammiersprachen folgen, sondern diese bewusst zu destruktiven Zwecken benutzen, greift die Justiz als Dispositiv zur Wahrung der Normativität zu. [63] Wenn die Funktionsweise metaphorisch als Virus beschrieben und derart gedeutet wird, bleibt man im Diskurs. Hierzu bedarf es allerdings nur bedingt jener Analyse des Codes, wie sie oben unternommen wurde. Damit zerfällt das Werk in Code / Wirkung und den oben angedeuteten Kontext, ohne dass ein Rückschluss auf eventuell bedeutungstragende Formalismen oder konventionale Sujets möglich wäre. Im positiven Falle widerspräche dies aber der Definition von Computercode, der als eindeutiger jegliche Semantik seiner Bestandteile ausschließt. [64] An einer Stelle jedoch besitzt jede höhere Sprache die Möglichkeit zu einer semantischen Aufladung der Symbole. Dies sind die Variablen, deren Benennung beliebig ist. McLean nun nennt die Kern- Variable des Programms ›strength‹. Da wie beschrieben alle Variablen akkurat zu deklarieren sind, muss davor ein ›my‹ stehen. ›Meine Stärke‹ heißt dies übersetzt. Unterstellt man dem Text ein lyrisches Ich, müsste nun versucht werden, dieser Spur Sinn folgen zu lassen. Dazu sollte auch ›twist‹, ein Wort, das im Kontext der Programmierung ebenfalls willkürlich gewählt werden konnte und den Ankerpunkt für die ›goto‹-Anweisung bildet, betrachtet werden. Doch scheint die Relation von drei semantisch tragfähigen Zeichen in Relation zur formalen Gestaltung des Code eher willkürlich. Die Wahrscheinlichkeit, dass also ein Subtext hinter dem Expliziten steht, ist gering.
2. Adrian Ward: »Auto-Illustrator«
Einen ganz anderen Ansatz verfolgt Adrian Ward, der an Produkte des kommerziellen Softwareproduzenten Adobe angelehnte Programme geschrieben hat, die auf den ersten Blick an herkömmliche Software zur Erstellung und Bearbeitung von Bildern und Zeichnungen denken lassen. »Autoshop« und AutoIllustrator werden von einer Firma namens »Signwave« vertrieben. Bereits die Vorsilbe ›Auto‹ verrät eine partielle Entmündigung des Nutzers. Vorbilder der beiden ist Adobes Standard Bildbearbeitungsprogramm Photoshop beziehungsweise das Vektorgrafikprogramm »Illustrator« von Adobe . Beide Arbeiten zeigen, wie das eingesetzte Werkzeug über die Erscheinung der möglichen Grafik, die man mit den Programmenerstellen kann, herrscht. Im Unterschied zur persiflierten Software, bieten beide Funktionen an, welche die Nutzung beeinflussen. Die Folge: Dem Benutzer wird das Gefühl vermittelt, er verliere jede Kontrollmöglichkeit, mit welcher große Softwarefirmen Menschen der Moderne am ehesten als Kunden adressieren können. Über eine bloße Persiflage hinaus offenbaren und übersteigern sie das Gebaren von Herstellern proprietärer Software. So erlebt auch hier der Nutzer die übliche Gängelei der eingebauten Aufmerksamkeitsmechanismen: Für jedes Update wird eine Internetverbindung geöffnet. Nutzern, die sich nicht registrieren wollen, erscheint regelmäßig die Aufforderung, eine Seriennummer einzugeben. Angemeldete Nutzer wiederum müssen eine ellenlange Kette von Ziffern eingeben, um das Programm freischalten zu können. Noch bevor eine wie auch immer geartete Arbeit mit dem »Auto-Illustrator« beginnen kann, wird der Benutzer zur Zustimmung der Endnutzerlizenz bewegt. Ist dies in der Regel aufgrund der zu rezipierenden Textsorte ›Lizenz‹ ein recht kompliziertes Unterfangen und von Nicht-Juristen in der Tragweite kaum zu verstehen [65] , bringt Ward den Nutzern Lesbares nahe, das Aufmerksamkeit verdient. In diesem Text, der ein Vertrag zwischen dem Hersteller-Künstler und dem Nutzer ist, kommt wie in einem Manifest die Vorstellung und Behauptung des künstlerischen Tuns in der spezifischen Weise Wards zum Vorschein. So wird auch der passive Betrachter in § 2 als ›User‹ behandelt. Mit dem Nutzen, und das beinhaltet auch »other indirect usage or observation«, wäre angezeigt, dass die Lizenz durch den Nutzer akzeptiert sei. In der Lizenz werden unter § 7 diese verschiedenen Zustände des Programms als Kunst noch näher definiert. Dabei wird behauptet, dass ein Stück Software, das als kommerziell deklariert wird und so gehandelt wird, keineswegs künstlerische Gehalte negiere oder ausschließe. Dies wird noch zugespitzt in der Relativierung der Erkenntnisfähigkeit des Nutzers: »Whilst observing that THE SOFTWARE is both an artwork and a commercial product, it is required that YOU understand that OUR decision to deploy a SOFTWARE product constitutes OUR right to express certain artistic agendas. Thus our SOFTWARE product is being used as a MEDIUM to express one or more ideas that may not received by the YOU (an END USER)or YOU (an ART CRITIC).« [66] Zudem wird die Nachbildung, das Reengineering, ohne Verwendung des Originalcodes untersagt. Innerhalb dieses Rahmenwerks kommt etwas zur Sprache, das sich gewöhnlich hinter den Köpfen der Händler von Künsten verbirgt. Rollenzuschreibung ist bekanntermaßen nicht die Sache von statischen Kunstwerken. Dies ist Metakünsten vorbehalten, deren Thema das System der Künste selbst ist. Die adressierte Differenz zwischen einem Endbenutzer und einem Kunstkritiker ist zudem delikat. Indem dieser Text versucht, dieses spezifische Stück Software zu interpretieren, wird dem Interpreten per se vorgehalten, dass er unter unbestimmten Umständen nicht in der Lage sein wird, dem Recht der Künstler auf den Ausdruck einer oder mehrerer Ideen folgen zu können, um jene Bedeutungen zu eruieren, die in irgendeiner Weise implementiert wurden. Angesichts dieser Deklaration und Definition von Kunst und Wirtschaftsgut Software verblasst letztlich der künstlerische ›Nutzwert‹ selbst. Hat man das Programm erst einmal gestartet, so erhält man den Eindruck einer ganz gewöhnlichen Software, wie sie heute Standard ist. Es gibt wie beim parodierten Vorbild eine Werkzeugkiste, Paletten in denen man die Funktionen auswählen und mit Eigenschaften belegen kann. Jedoch merkt der Nutzer relativ schnell, dass diese Software anderen Gesetzen gehorcht, als es Werkzeuge der Industrie vorgeben. In gewisser Weise erinnert dies an die Übereinkunft des Beschauers / Nutzers mit dem Künstler im Sinne Ernst H. Gombrichs, der behauptet, dass »die Illusionen der Kunst nur in Ausnahmefällen Illusionen über unsere tatsächliche Umgebung« sind. [67] Beinahe alle Werkzeuge, die dem Nutzer angeboten werden, verhalten sich je verschieden zu dem, was die Kontrollierbarkeit von zeitgenössischer Produktionssoftware dem Nutzer zu suggerieren versucht. Allerdings haben auch Designer bereits erkannt, dass man sich bei Bildfindungen zurücklehnen und auf die maschinelle Hilfestellung zurückgreifen kann. Daher besagt eine Klausel der Lizenz auch, dass der Nutzer den ›Urheber‹, sprich die Software, in einem gedruckten oder sonst veröffentlichten Werk anzugeben hat. Doch der Kern der Software ist nicht, sich der verschiedenen Zufallsgeneratoren, welche Bilder zerfressen, Wanzen über den Bildschirm jagenoder selbst schreiben, nach Herzenslust zu bedienen. [68] Viel wichtiger ist der Kontext, der in voller Breite künstlerisch subversiv und diskursiv zur Debatte steht. Indem sich die Designer das Werkzeug, sei es auch noch so sperrig, zu eigen machen, geschieht etwas Unerwartetes: Das Produktionsmittel wird mit Kunst infiltriert. [69] Alle Symptome einer durch Urheberrechtsrestriktionen und Nutzerbeschränkungen gegängelten Gemeinschaft von Produzenten digitaler Inhalte werden hier virulent und immer schon bewusst, sofern man sich intensiv auf diese Software einlässt, und das meint auch das Lesen von Lizenzen, README-Dateien und ›Abouts‹ und das Interpretieren der Menüs und Dialogfelder.
D. Abschließend
Diese Software steht am vorläufigen Ende der Entwicklung der Computerkunst, in welcher es aus der Perspektive der Kunstgeschichte keine anderen direkten Bezüge der Protagonisten zueinander gibt, als die Verwendung einer Maschine, deren Abläufe als Schrift »vor und nach jeder Schrift«, gesteuert werden. [70] Ganz ungeachtet aller Outputs. Zu Anfang stand ein Bild, sei es bewegt oder unbewegt, das sich mittels einer Symbolschrift zur Steuerung des Computers programmieren ließ. Am Ende steht bei Adrian Ward Mimikry und nicht Mimesis. Hatten Nees, Nake, Noll und andere ›Pioniere‹ noch mit der Last träger Maschinen zu rechnen, erprobten sie verschiedene Bildfindungsprozesse. Und diese Ergebnisse erlauben unter Einsatz von Betrachtungs- und Beschreibungsmethoden Sinnproduktion. Hier wird die Rolle des Programmierens von Bildern als angewandt deutlich. Verschaltungen und reaktive Systeme sind komplex, wie das Beispiel von Kruegers »Videoplace« gezeigt haben sollte. Hier ist die Rolle des Computers eine gänzlich andere, auch wenn dieser benutzt wird, um Bilder in Echtzeit zu produzieren. Auf welche Weise Computercode Untersuchungsgegenstand wird, sollte die »Forkbomb« zeigen. Es ist prinzipiell möglich, dass Code unter bestimmten Umständen, so in Kommentaren, Variablen oder in der Verwendung von anderen Lösungswegen, Polyvalenzen transportieren kann, obwohl der Zwang des Maschinellen zur Eindeutigkeit die Begrenzung seiner Aussagemöglichkeit als Bedingung für dasFunktionieren immer mit sich trägt.
Adrian Ward schließlich weist auf ein ganzes Bündel von Phänomenen hin, die mit der Kultur um den Computer heute verbunden sind und stellt auf bislang einzigartige Weise diese in einen künstlerisch-subversiven Kontext, der es selbst geschafft hat, aus dem Werk ein Werkzeug werden zu lassen. Damit verändern sich auch die Bedingungen der Rezeption gravierend. Konnte Nees noch mit dem ›kontemplierenden Betrachter‹ rechnen, ändert sich dies bereits bei Krueger, indem der Betrachter Raum-Bild-Erfahrungen macht und zu einer je unterschiedlichen Verhaltensweise in einer Mensch-Maschine-Kommunikationssituation angeregt wird. Die »Forkbomb« produziert zwar als »Ergebnis« einen hochgradig symbolischen Output, der aus einer je unterschiedlichen Folge von Nullen und Einsen besteht, die recht plump auf die mathematischen Platzhalter für die beiden möglichen Zustände der Universalmaschine verweisen. Doch wird auch die ästhetische Grenze infrage gestellt: Das Skript ist veränderbar, der Quelltext wird mitgeliefert. Es lässt sich in beliebigen Kontexten und mit unterschiedlichen Betriebssystemen einsetzen. Diese Transparenz ermöglicht Nutzer-Rezipienten den direkten Zugriff auf das künstlerische Material. Damit steht die Arbeit neben der impliziten und quasi reellen Maschinenparodie auch für eine Kultur der freien Software, die indirekt auch von Ward mit seinem »Auto-Illustrator« gefordert wird. Diese Software skizziert auch die Folgen einer Exklusion des Benutzers: Er steht fragend vor seiner juridischen, systemischen und praktischen Entmündigung, indem ihm weder das Produzierte allein gehört, noch er alle Prozesse je zu durchschauen vermag oder aber durch die Zufallsgeneratoren die Kontrolle über die Software an sie abgeben muss.
Das Moment des Generativen, das unterschwellig angeschrieben wurde, unterliegt in den drei Phasen einer wachsenden Beschränkung. Es bestimmt die Erscheinung des Bildes vollständig und konstituiert sich in dem Bildsinn als konstruktives Mittel zur Vermittlung selbst (Nees). Die moderne Erfahrung von Kontingenz ist Bedingung für das Empfinden von Freiheit in der Installation von Krueger. Auch die »Forkbomb« kann als Zufallsgenerator verstanden werden. Der »Auto-Illustrator« besitzt als Kernfunktion generative Momente. Computerkunst der Gegenwart schafft aber größere Deutungsräume, als das noch in der Frühzeit der Computerkunst der Fallgewesen wäre. Das wesentliche Mittel, um diese Interpretation zu denken, war die Beschreibung der Arbeiten. Damit ist klar, dass Beschreibung auch in der Gattung Computerkunst Differenz und damit Sinn produziert, denn sie stiftet Vergleichbarkeit. Daher macht es Sinn von Computerkunst und nicht von Softwarekunst zu reden. Eine Geschichte der Computerkunst sollte also methodisch integrierend vorgehen, ihre Gegenstände beschreiben, interpretieren und nicht nur kontextualisieren.