Künstliche Intelligenz gibt es nicht – Ausstellung im Dortmunder „U“ geißelt grenzenlose Computergläubigkeit

Wenn Biometrie die Menschen bewertet, kann auch Unsinn dabei herauskommen. „Decisive Mirror“ von Sebastian Schmieg, 2019 (Bild: Franz Warnhof/HMKV)

Die „Künstliche Intelligenz“, abgekürzt KI, über die Computer neuester Bauart angeblich verfügen sollen, gibt es nicht. Der Begriff ist schlicht falsch. Computer sind genauso intelligent wie, sagen wir mal, ein Gurkenhobel.

Eigentlich haben wir das ja immer gewußt, obwohl die elektronische Datenverarbeitung, bleiben wir für einen Moment bei diesem altehrwürdigen Begriff, heute in Gestalt attraktiver junger Damen wie Alexa daherkommt, die uns richtig gut zu kennen scheinen und ohne bösen Hintersinn bemüht sind, uns jeden Wunsch zu erfüllen. Da kann man natürlich schon ins Grübeln kommen, ob nicht vielleicht doch mehr dahintersteckt als die systematische Anwendung zugegebenermaßen hochkomplexer Algorithmen. Oder?

Vermessenes aus „Hypernormalisation“ von Aram Bartholl von 2021 (Bild: HMKV)

Neue Perspektive

Erstaunlicher als die (eben nicht) erstaunliche Einsicht, daß Computer dumm wie Brot, jedoch keineswegs harmlos sind, ist vielleicht noch der Ort, an dem Erkenntnis dem Publikum zuteil wird. Der Dortmunder Hartware Medienkunstverein, der mit seiner Ausstellungsfläche im dritten Stock des Dortmunder „U“ residiert, ausgerechnet der, hat sich die computerkritische Perspektive zu eigen gemacht und präsentiert nun „künstliche Intelligenz als Phantasma“ in seiner neuen Ausstellung „House of Mirrors“, was sinnvoll mit „Spiegelkabinett“ übersetzt werden kann. Daß die Ausstellung ausgerechnet hier stattfindet ist deshalb erstaunlich, weil der Medienkunstverein bisher doch ein eher positives Verhältnis zur Computerei zu haben schien, zu den Ergänzungen und Weitungen, die der Einsatz elektronisch betriebener Medien letztlich eben auch der Kunst bringen könnte. Ein wirklich Widerspruch ist dies indes nicht, wir wollen fair bleiben. Eher könnte man vielleicht von einem Perspektivwechsel sprechen, der im ganzen großen Themenkontext sicherlich Sinn macht. Außerdem scheint auch ein wenig „Wokeness“ im Spiel zu sein.

Ein Gestell, viele Smartphones: die Arbeit „– human-driven condition“ von Conrad Weise thematisiert die Situation der vielen (menschlichen) Mikroarbeiter, die in stark fragmentierten Arbeitsprozessen für das Funktionieren der „KI“ sorgen (Foto: HMKV)

Alte Datenmuster

Große Spiegel strukturieren den Raum in dieser hübsch aufgebauten Ausstellung; die meisten werfen lediglich das Bild zurück, manche sind aber auch von einer Seite zu durchschauen, wieder andere sind Teile von Kunstobjekten. Warum die Spiegel? Inke Arns, seit etlichen Jahren die rührige Chefin des Medienkunstvereins, erläutert es. Der Prozeß der Spiegelung, wir formulieren frei, verdeutliche den beschränkten Nutzen des Computereinsatzes in vielen Anwendungsbereichen, bei der Erkennung von Personen zum Beispiel (Zollkontrollen, Fahndung) oder von Situationen („autonomes Fahren“ etc.). Gespiegelt wird, was man dem Spiegel zeigt, algorithmische Raster, biometrische Daten, situative Schemata, Statistik.

Was man nicht zeigt, kann auch nicht gespiegelt werden, heißt für den Computerbetrieb: er reagiert nur beim Wiedererkennen hinterlegter Datensätze. Erkennt er das Geschehen nicht, reagiert er nicht oder falsch. Auch mit allergrößten Datenmengen ist die Computerintelligenz also ein menschengemachtes Bewertungskonstrukt, dem ein gerüttelt Maß Subjektivität eigen sein dürfte und das zwangsläufig „computeraufbereitete Realität mit vergangenen Datenmustern erkennen“ (Arns) soll. Wenn aber heutiges Geschehen an den Mustern von gestern abgeglichen wird, hat das normierenden, mitunter gar disziplinierenden Charakter. Von „automatisierter Statistik“ spricht in diesem Zusammenhang Francis Hunger, der die Ausstellung zusammen mit Marie Lechner kuratiert hat.

Hier geht es um die Wahrnehmungen „autonomer“ Fahrzeuge: „VO“ von Nicolas Gourault (2022) (Bild: Courtesy of Le Fresnoy, Studio national des arts contemporains/HMKV)

Viele Bildschirme, viele Projektionsflächen

So viel zunächst einmal zum Ansatz dieser Schau. Wie aber nun macht man aus technischen, soziologischen, politischen, psychologischen Einsichten Kunst? So ganz einfach ist das nicht, denn anders als alles Mechanische ist Elektronisches zunächst einmal sehr unsinnlich. Letztlich, und so auch hier, läuft es darauf hinaus, daß viel Botschaft über Bildschirme und Projektionsflächen läuft, denen (so gut es eben ging) ein paar Requisiten beigegeben wurden. Einige schöne Raumsituationen gibt es gleichwohl, wie das von einem gemütlichen Sofa beherrschte Zimmer Lauren Lee McCarthys, in dem diese eine Woche lang die Funktion von Amazons virtueller Assistentin Alexa übernahm. Das war 2017 und streckenweise recht lustig, wie die Dokumentation zeigt, die auf dem Bildschirm läuft.

Sinnfrei

Ein Großteil der Arbeiten thematisiert Teilaspekte der „KI“. Gleich am Eingang scannt Sebastian Schmiegs „Decisive Mirror“ (2019) Gesichter der Besucher und berechnet dann Sinnfreies: „Zu 42 Prozent noch am Leben“, „zu 65 Prozent imaginär“, „zu 17 Prozent einer von ihnen“ und so weiter. Projiziert werden die Daten auf einen Spiegel, und schon in dieser ersten Installation erahnt man die Respektlosigkeit dessen, was folgen wird.

Neues Gesicht aus dem Computer: „The Zizi Show, Deepfake drag Artist close up“ (2020) von Jake Elwes (Bild: Courtesy of the artist, VG Bild-Kunst/HMKV)

Wunsch und Wirklichkeit

Doch wir beginnen nachdenklich. In der zentral gelegenen Rotunde vergleichen Pierre Cassou-Noguès, Stéphane Degoutin und Gwenola Wagon in ihrer üppigen Videoarbeit „Welcome to Erewhon“ (2019) Wunsch und Wirklichkeit des technischen Fortschritts über Jahrhunderte hinweg. Ausgangspunkt ihrer Betrachtungen ist das Buch „Erewhon; Or, Over the Range“, das ein gewisser Samuel Butler 1872 veröffentlichte und das die Übernahme der Macht durch die Maschinen thematisierte, die sich schneller und effektiver weiterentwickelt hatten als die Menschen. Schließlich zerstörten die Menschen die Maschinen und bauten keine neuen mehr. „Erewhon“ ist übrigens ein Anagramm von nowhere, nirgendwo. Weiterhin gibt es hier auf den Bildschirmen computergesteuerte Haushaltsmaschinen des 21. Jahrhunderts zu sehen, Saug- und Wischroboter etwa, von denen noch keine große Bedrohung auszugehen scheint. Auch eine Performance ist hier dokumentiert, die zeigt, zu welchen Albernheiten eine Bürogemeinschaft fähig ist, wenn die Computer all ihre Arbeit übernommen haben. Es gibt der Aspekte etliche mehr. Eingestimmt und neugierig wandern wir weiter.

Kuh oder Sofa

Simone C Niquilles raumgreifend angelegte Videoinstallation „Sorting Song“ (2021) führt auf großer Leinwand bildmächtig das Dilemma eines überforderten Erkennungsprogramms vor, das den zu bestimmenden Gegenstand mal als Kuh, mal als Sofa identifiziert und abbildet. Anna Ridlers „Laws Of Ordered Form“ (seit 2020) befaßt sich mit elektronischem Bilderkennen und –benennen in enzyklopädischen Dimensionen und vergleicht dies mit traditionellen, nach Stichworten strukturierten Formen der Archivierung. Die „Mikroarbeiter“, Männer wie Frauen natürlich, haben ihren Platz in der Ausstellung, jene vielen tausend Menschen, die isoliert zu Hause und unter oft miserablen Konditionen in der ganzen Welt als „Datenreiniger“ oder „Klickarbeiter“ händisch all das machen, was die „KI“ nicht hinbekommt. Die Italienerin Elisa Giardina Papa, die selber als Datenreinigerin für Unternehmen arbeitete, und der Kölner Conrad Weise erinnern in ihren Arbeiten an sie.

Kein Alter Meister, sondern ein Bild aus der Arbeit „Laws of Ordered Form“ von Anna Ridler (2020), in der es um Bilderkennung geht. (Bild: HMKV)

Diskriminierung

Überhaupt: die Zukurzgekommenen, die Diskriminierten, die rassistisch Ausgegrenzten. Etliche Arbeiten beleuchten diskriminierende Aspekte der Algorithmen – die Diskriminierung dunkler Hautfarbe beispielsweise in Gesichtserkennungs-programmen, die Diskriminierung von ausländischen Akzenten oder „Unterschichtsprache“ in Spracherkennungsprogrammen. „KI“ ist nicht woke, im Gegenteil. Unübersehbar ist es das Anliegen wenn schon nicht dieser Ausstellung, so doch sicherlich etlicher Arbeiten, die diskriminierenden Eigenschaften von „KI“ vor allen im Überwachungswesen herauszuarbeiten. Und dagegen ist auch nichts zu sagen.

Ein weit gefaßter Kunstbegriff

Eher schon könnte man in Nachdenklichkeit verfallen über den hier doch sehr, sehr weit gefaßten Kunstbegriff. In vielen Arbeiten ist schwerlich mehr zu erkennen als das Zitat eines „KI“-typischen Problemfelds. Ein gewisses Unwohlsein hinsichtlich der künstlerischen Valeurs scheinen auch etliche der 21 Teilnehmer zu empfinden, die als Berufsbezeichnung in ihre Biographien zusätzlich „Forscher“ hineingeschrieben haben. Auf jeden Fall jedoch funktioniert diese insgesamt sehr schöne, kompakte, schlüssige Ausstellung durch die Summe der Exponate. Anders ausgedrückt: Wer sich für das Themenfeld interessiert, sollte hingehen. Gut geeignet auch für technikaffine Besucher.

    • „House of Mirrors: Künstliche Intelligenz als Phantasma“
    • HMKV Hartware Medienkunstverein
    • im Dortmunder U, Ebene 3
    • Leonie-Reygers-Terrasse
    • Bis 31 Juli.
    • Geöffnet Di-Mi 11-18 Uhr, Do-Fr 11-20 Uhr, Sa-So 11-18 Uhr
    • Eintritt frei
    • www.hmkv.de

__________________________________

Eine teilweise ähnlich gelagerte Ausstellung zur „KI“ läuft seit November 2021 und noch bis zum 9. August 2022 in der Dortmunder DASA (Deutsche Arbeitswelt Ausstellung). Hier ein Link zu unserem DASA-Bericht.

 




Technik der Gesichtserkennung – trotz Masken ziemlich treffsicher

Aufsetzen? Zum Schutz vor Corona sicherlich! Aber gegen avancierte Gesichtserkennung hilft die Maske wenig. (Foto: BB)

Von Zeit zu Zeit lade ich Fotos in eine Cloud hoch. Die Betreiber dieser Cloud setzen – je nachdem, ob man diese Einstellung wählt – eine Gesichtserkennung ins Werk. Daran knüpfen sich Fragen und Bedenken, zumindest nach hiesigem Datenschutz-Verständnis.

Es werden im Fall des Falles also Hunderte, Tausende oder Zigtausende von Fotos nach abgebildeten Personen vorsortiert, die man sodann mit Namen versehen kann. Schon dabei beschleicht einen ein mulmiges Gefühl, denn wer weiß, wo solche (und sei’s nur mit Vornamen) zugeordneten Dateien dann anlanden und wozu sie verwendet werden können. Fehlt nur noch der Fingerabdruck. Aber den liefern viele Leute bei Anmeldevorgängen auf ihren Smartphones, wenn sie sich nicht auch dort per Gesichtserkennung einloggen. Wenn dies alles nun zusammengeführt würde? Gespenstisch.

Das Programm kennt deine Freundschaften am besten

Zuweilen „vertut“ sich die Gesichtserkennung der Cloud noch und registriert ein und dieselbe Person als verschiedene Menschen. In solchen Fällen könnte man dem Programm auf die Sprünge helfen und diverse „Bilderstapel“ miteinander kombinieren – damit quasi zusammenwächst, was zusammen gehört. Auch das ist nicht unproblematisch, hilft man auf diese Weise doch, das Programm immer mehr zu verbessern und zu präzisieren, bis es „deine“ Leute fast so gut erkennt wie du selbst.

Eines Tages wirst du überflüssig sein und sie werden dir sagen, wer deine guten Freundschaften und wer die weniger guten sind. Zuerst vielleicht noch wohlmeinend, später zunehmend harsch und herrisch? Wer weiß. Bereits jetzt werden die Personen in einer Art Hitliste nach Bilderhäufigkeit geordnet. Sind diejenigen, die da ganz obenan stehen, also wirklich die wichtigsten Menschen? Oder haben sie sich nur besonders oft und penetrant vor die Kamera gedrängt?

Vollends stupend finde ich eine Fähigkeit der Cloud, die jetzt erst so recht zum Tragen kommt: Die Gesichtserkennung, einmal auf bestimmte Menschen „geeicht“, lässt sich auch durch Masken kaum in die Irre führen. Offenbar reichen mitunter schon Frisur bzw. Haaransatz, die Form der Stirn, vor allem die Augen und möglicherweise auch der Kleidungsstil oder wiederkehrende Kleidungsstücke aus, um jemanden recht eindeutig zu kennzeichnen. Hierin ist das Programm vielleicht sogar schon genauer als man selbst, der man jetzt bei Begegnungen gelegentlich ein paar Sekunden lang rätselt, welches bekannte Gesicht sich hinter einer Schutzmaske verbirgt.

Speziell in Asien vorangetrieben

Höchstwahrscheinlich ist dieses Feature in Asien vorangetrieben worden, wo viele Menschen seit jeher Alltagsmasken tragen. Ob die Sache in den USA in weitaus besseren Händen ist, steht dahin. In China freilich wird soziales Verhalten ungleich mehr unter Kontrolle gebracht und in erwünschte Richtungen gelenkt. Ungezählte Kameras, versehen mit avancierten Möglichkeiten der Gesichts- und Bewegungserkennung, erfassen weite Teile des (halb)öffentlichen Lebens, mit anderen digitalen Techniken regieren Autokraten jeder Couleur bis ins Private hinein. Virale Ausbreitungen mag sie verhindern oder mindern, doch gegen derlei Kontrollmechanismen hilft auch keine Maske mehr.

Und noch eins: Neuerdings sparen sich viele Medien die früher übliche Verpixelung, sofern die Abgebildeten Masken tragen. Sie haben ihre rechtliche Rechnung anscheinend ohne Rücksicht auf die fortgeschrittenen Fähigkeiten der Gesichtserkennung gemacht.