Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

KI-Kunst Wer Big Data nicht über den Weg traut

Künstler bedienen sich generativer Intelligenz, schaffen mit ihr Bilder von unserer Zeit und reflektieren gleichzeitig die Ambivalenz der Technik.
04.05.2023 - 06:57 Uhr Kommentieren
In dem stereoskopischen Video schaut die Betrachterin durch eine AR-Brille Marlene Dietrich bei einem Selbstgespräch zu. Was echt ist und was falsch, lässt sich kaum mehr unterscheiden. Quelle: VG Bild-Kunst, Bonn 2023
Bianca Kennedy und Swan Kollektive „MD“

In dem stereoskopischen Video schaut die Betrachterin durch eine AR-Brille Marlene Dietrich bei einem Selbstgespräch zu. Was echt ist und was falsch, lässt sich kaum mehr unterscheiden.

(Foto: VG Bild-Kunst, Bonn 2023)

Stuttgart Eine kluge Ausstellung fragt nach, welche Auswirkungen die immer perfektere Vorhersage unserer Entscheidungen durch selbstlernende Künstliche Intelligenz (KI) auf unsere individuelle Selbstbestimmung und die Gesellschaft als ganze hat. „Shift. KI und eine zukünftige Gemeinschaft“ haben Kuratorinnen aus Stuttgart und Herford gemeinsam konzipiert.

Ihre Leitfragen sind: Wie verhält sich KI zu Konzepten von Vernunft, Freiheit und Verantwortung? Kann KI die Welt humaner machen?

Die Bio-Hackerin und Künstlerin Heather Dewey-Hagborg etwa antwortet darauf in „Probably Chelsea“ mit einem eher düsteren Bild. Sie hat mit ihrer Installation die Fehler herausgearbeitet, die bei algorithmischer Phänotypisierung entstehen können. Als Beispiel dient ihr DNA-Material der amerikanischen Whistleblowerin Chelsea Manning, die 2010 Militärgeheimnisse aus Irak und Afghanistan an WikiLeaks weiterleitete und deswegen inhaftiert wurde.

Die Ausstellungsbesucherin sieht sich 30 Porträt-Masken gegenüber, die extrem unterschiedlich sind. Sie gehen in ihrer phänotypischen Varianz weit über die Umwandlung vom Soldaten Bradley Edward Manning in die Frau Chelsea Manning hinaus. Vertrauen in die Richtigkeit von Big Data-Analysen kommt da kaum auf.

Auf hybride Lebensformen fokussieren auch Bianca Kennedy und Swan Kollektive. In dem stereoskopischen Video „MD“ schaut die Betrachterin durch eine AR-Brille Marlene Dietrich bei einem Selbstgespräch zu. Angegriffen vom Leben und den sie ausgrenzenden Nazis singt die Blondine „Ich weiß nicht, wohin ich gehöre“. Was echt ist in dem Video und was falsch, lässt sich kaum mehr unterscheiden. Erst als die Diva es ablehnt, mittels KI aufzuerstehen, wird klar, dass es sich um ein gefaktes Deep Fake von Marlene Dietrich handelt. Es reflektiert, was möglich wäre mit einer auf einer Auktion ersteigerten Haarsträhne der Schauspielerin.

Die Künstlerin hat am Beispiel von DNA-Material der amerikanischen Whistleblowerin Chelsea Manning die Fehler herausgearbeitet, die bei algorithmischer Phänotypisierung entstehen können. Quelle: Kunstmuseum Stuttgart
Heather Dewey-Hagborg „Probably Chelsea“

Die Künstlerin hat am Beispiel von DNA-Material der amerikanischen Whistleblowerin Chelsea Manning die Fehler herausgearbeitet, die bei algorithmischer Phänotypisierung entstehen können.

(Foto: Kunstmuseum Stuttgart)

Die neun in „Shift“ präsentierten Künstlerinnen und Künstler sind nah an der neuesten Forschung dran. Sie schaffen Installationen mit Bakterien, Schleimpilzen und Froschlaich an der Schnittstelle von Natur und Hightech. Nicht alles überzeugt ästhetisch, nicht alles funktioniert technisch.

Das Kollektiv knowbotiq macht die Besucher zu Zeugen der Überwachung von Angestellten bei Amazon. Doch bei unserem Besuch blieben einige Bildschirme grau in „AMAZONIAN FLESH – how to hang in trees during strike?“.

Das Alter Ego von Louisa Clement, eine lebensgroße robotisierte Puppe, die per Bot mit dem Besucher englisch kommunizieren soll, bewegt den Kopf – antwortet aber nicht. Es ist ein Aufseher, der den enttäuschten Besucherinnen und Besuchern erklärt, die Sofware in „Repräsentantinnen“ reagiere ständig auf die Geräusche benachbarter Arbeiten. Sie leide an Reizüberflutung. Schade, da muss Clement noch mal nachprogrammieren.

Absolut überzeugend sind dagegen das Einkanal-Video „SocialSim“ und die drei-Kanal-Projektion „Dancing Mania /Rebellion“ von Hito Steyerl. Computer Generated Imagery (CGI) ist eines der vielen High-Tech-Stilmittel, derer sich Hito Steyerl bedient für ihre eindringlichen Filme.

Die Künstlerin geht von Daten zu Polizeigewalt in Frankreich und Deutschland aus, verwandelt diese und lässt Avatare in Polizeiuniform zu elektronischer Musik ekstatisch tanzen. Der Veitstanz der Polizisten, die aussehen wie einem Computerspiel entsprungen, und deren Racial Profiling sind in rasant geschnittenen Sequenzen eingebettet in Verschwörungstheorien, die Suche nach Leonardos überteuertem Gemälde „Salvator Mundi“ und Kunstmarktkritik. Eine starke Analyse unserer Gegenwart, spielerisch und humorvoll präsentiert, verführerisch immersiv und mitreißend in der Musik. Doch getragen von der Haltung einer Künstlerin, die den Simulationsmodellen von Big Data zur Berechnung menschlicher Handlungen nicht über den Weg traut.

„Shift“ wird bis 21. Mai im Kunstmuseum Stuttgart gezeigt, ab 17.6.-15.10. im Marta Herford. Der Katalog im Wienand Verlag kostet 30 Euro im Handel.

Mehr: Millionen-Hype um NFTs: Warum Galerien an digitale Kunst auf der Blockchain glauben

Startseite
Mehr zu: KI-Kunst - Wer Big Data nicht über den Weg traut
0 Kommentare zu "KI-Kunst: Wer Big Data nicht über den Weg traut"

Das Kommentieren dieses Artikels wurde deaktiviert.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%