Eine interaktive Video-Installation in der das Publikum mit einem vollautomatischen Objekterkennungs-System spielen kann und durch es analysiert und kategorisiert wird.
Auf einer großen Projektion können sich die Besucher der Ausstellung live wie in einem Spiegel sehen. Zusätzlich wird in das Bild die Echtzeitanalyse einer sogenannten künstlichen Intelligenz eingeblendet, die auf maschinelles Sehen spezialisiert ist. Es entsteht eine spielerische Situation in der man seine Neugier befriedigen kann („also so sehen mich die selbstfahrenden Autos??“), und die zum experimentellen Handeln vor der Kamera einlädt.
Die Installation benutzt ein frei erhältliches neuronales Netzwerk. Das hier eingesetzte System wurde mit den in der Industrie üblichen Datensätzen trainiert, und kann mehr als 9000 verschiedene Dinge unterscheiden. Das macht die Live-Analyse unterhaltsam und anschaulich, es gibt z.B. allein für Menschen mehrere hundert Beschreibungen.
Zusätzlich zur Live-Analyse wurde das System so erweitert, dass es eine Bilddatenbank aus allen identifizierten Begriffen konstruiert. Es versucht, das ihm zugrunde liegende Modell der sichtbaren Welt wie in einer Enzyklopädie mit den Dingen zu bebildern, die ihm im Lauf seiner Exposition vor die Kamera kommen. Alle ersten Sichtungen werden dauerhaft als exemplarische Bestandteile dieser „geschlossenen Welt“ gespeichert. Weitere Vorkommnisse werden zwar noch im live-feed angezeigt, aber nicht mehr in der Datenbank festgehalten.
Wie jedes algorithmische System das auf einem (zwangsläufig unvollkommenen) Modell der dinghaften Welt basiert, macht auch dieses Fehler. Einige der Urteile über sein Publikum sind amüsant, andere sind beleidigend. Es ist trotzdem so programmiert worden, dass es augenblickliche Entscheidungen trifft. Einmal erfasst, bleibt ein Eintrag Teil der Datenbank, ohne dass eine Revision oder Einspruch möglich wäre.
Wenn das Publikum das Kunstwerk sehen möchte, muss es sich seinem Urteil aussetzen und die Kontrolle abgeben. Ein wohl bekannter Mechanismus, der heutzutage fast bei allen Internetdiensten so greift: Wenn man partizipieren will, muss man sich überwachen lassen und Handlungsmacht an Algorithmen und Scoring-Systeme abgeben.
Wie bei den Bewertungssystemen des Überwachungskapitalismus ist auch bei diesem neuronalen Netzwerk nicht nachvollziehbar, wie es zu seinen Entscheidungen kommt – die berühmt-berüchtigte Black Box der KI. Und doch ahnt man manchmal, wie es gelaufen sein könnte. Es sind die Fehlinterpretationen, in denen sich die Eigenheiten des Systems offenbaren. In den erkannten Objekten schwingt das Bildmaterial nach, das benutzt wurde, um das Netzwerk zu trainieren.
In diesem Fall was es bis vor Kurzem möglich und erhellend, die entsprechenden Trainingsbilder im ImageNet Datensatz nachzuschlagen, einer Sammlung von über 14 Millionen Bildern aus aller Welt, konzipiert in Kalifornien, handbeschriftet von Amazon Turkers, Niedigstlohnarbeitern aus Ländern rund um den Globus. Inzwischen ist der Datensatz nicht mehr öffentlich einsehbar, eine Reaktion auf die in ihm enthaltenen, ethisch fragwürdigen Kategorisierungen.
Wieder zeigt sich, dass Technologie nicht „neutral“ ist. Algorithmen sind ebenso wenig frei von Vorurteilen und Trugschlüssen, wie die Menschen, die sie entwickelt haben, und nur so fair, wie die Bedingungen, unter denen sie entstanden sind.
Ebenso wird klar, dass rechnergesteuerte Modelle der Welt unsere chaotische, schmutzige, vieldeutige Lebenswirklichkeit nicht angemessen abbilden können. Dass Ingenieure unwidersprochen die Idee formulieren können, es sei angemessen, die Welt in 9000 Begriffen zu beschreiben, ist nur eins von vielen Beispielen für die unzureichende Reflexion der digitalen Werkzeuge: Zuerst wird aus Machbarkeitsgründen grob vereinfacht, aber üblicherweise erweisen sich diese vorübergehenden Lösungen sehr bald als dauerhaft. Dann werden sie wirklichkeitsformend: Das Modell wird mit dem verwechselt, was es repräsentiert.
Nun haben die Beschreibungen, die wir von ihr anfertigen, wohl schon immer die Welt bestimmt, in der wir leben. "Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt", erkannte schon Wittgenstein. Neu ist, dass wir alle nur zu freiwillig und leichtgläubig dem Navi in eine an Erscheinungsformen, Bedeutung und schierem Leben deutlich ärmere Wirklichkeit zu folgen scheinen.
Still aus dem live-feed
schema
World Instance