de en

unmodern talking: One in a Million


Spätestens mit dem Skandal um Cambridge Analytica haben Algorithmen im kollektiven Bewusstsein ihr abstraktes Dasein im virtuellen Raum verlassen und als machtvolle, materielle, körperliche und wahrhaftige Realität spürbar geworden. Es spielt keine Rolle, wer sich auf sozialen Plattformen bewegte, wer aktiv content bereitstellte, wer „nur“ konsumierte, wer überhaupt gerade mal eine Email-Adresse hat oder wer dem Internet noch gar nicht aktiv begegnet ist – alle mussten sich der Realität stellen, in der Donald Trump Präsident der Vereinigten Staaten war, in der Großbritannien aus der EU ausstieg, in der mehr als 100 politische Kampagnen auf fünf Kontinenten manipuliert und Menschen gezielt fehlgeleitet wurden. Mehr als Vehikel harmlos erscheinender „alternative facts“, wurden Algorithmen hier zu gewaltvollen Propagandamaschinen. Wie konnte das dem ach so demokratischen Westen durch die Lappen gehen? Und zwar gerade im ach so demokratischen Raum des Internets?

Im Oktober letzten Jahres fand im Karlsruher ZKM die Konferenz „Herrschaft der Algorithmen“ statt. In diesem Rahmen hielt die Gründerin und ausführende Direktorin der Ethical Tech Society, Lorena Jaume-Palasi, ihren Vortrag mit dem Titel „Soziale Diskriminierung in algorithmischen Systemen“ und setzt sich mit der sozialen Beschaffenheit dieser Künstlicher Intelligenzen auseinander. Dabei betont sie gleich zu Beginn, dass die „künstliche Intelligenz“ als solche nichts anderes als ein kulturelles Konstrukt ist, das tief in westlich-kapitalistische Vorstellungen von Intelligenz im Allgemeinen blicken lässt – das intelligente Handeln der KI ist kein autonomes Denken, sondern ein absichtsloser Automatisierungsprozess; genau hier soll auch die Chance zur Assistenz in der sozialen und wirtschaftlichen Interaktion mit dem Menschen liegen.

Das ist schon einmal ein Kernpunkt ihres Vortrages: Algorithmen mögen zwar wie ein Stück Technik erscheinen, sind aber de facto soziotechnische Systeme. Das heißt, sie interagieren mit Menschen, Kollektiven und Gesellschaften. Und darin liegt auch das Potenzial, denn ihre Expertise liegt in einem Bereich, in dem Menschen grundsätzlich nicht gut ausgestattet sind: der Probabilistik. Während Algorithmen darauf ausgelegt sind, Wahrscheinlichkeiten zu berechnen, sind Menschen, so Jaume-Palasi, sehr gut darin, Dinge zu kontextualisieren. Das versteht wiederum die KI nicht und so schließt sich der Kreis.

Allerdings besteht eine Diskrepanz zwischen der Wahrnehmung dessen, was Algorithmen leisten und dem, was sie tatsächlich machen. Die stark auf das Individuum ausgerichtete westliche Demokratie steht hier in einem Widerspruch zur auf der Erfassung von Kollektiven erzogenen KI. Denn was als individualisierte „Peronalisierung“ verkauft (und inzwischen auch vielerorts gefürchtet) wird ist eine „semantische Täuschung“; in der Interaktion mit der KI erhalte ich keineswegs eine individualisierte, sondern eine standardisierte Information. Ein Algorithmus kennt das Individuum nicht, es kennt nur den Durchschnitt, die Muster, die Mehrheit, die Wiederholung und fasst auf diese Weise viele Einzelne in mikrogranulare Kollektive zusammen. (Genau so wurden im Übrigen von Cambridge Analytica jene paar Prozent sogenannter „swing-Voters“ in „swing-states“ identifiziert und gezielt mit republikanischer Propaganda bombardiert. Das hat für den Sieg ohne „popular vote“ gereicht.)

Die Krux am Durchschnitt ist jedoch, dass es für ihn oftmals keine Realpräsenz gibt: Welche Frau٭ in Deutschland hat schon 1,57 Kinder? Deshalb ist es wichtig zu verstehen, was ein Durchschnitt im jeweiligen Kontext bedeutet. Algorithmen und Künstliche Intelligenz sind letztlich ein Stück Kultur, „eine andere Sprache, mit der die Menschen die Welt kartographieren“. Es verwundert also nicht, dass alle Biases, Vorurteile und Diskriminierungen auch im virtuellen Raum reproduziert werden. Verschleiert wird dies im eklatanten Missverstehen von Algorithmen als Katalysatoren objektiver Wahrheit, die ohne Kontext existieren können. Wie im Raum abseits des Internets, ist diese Vorstellung ein Phantasma.

Wie aber kann die soziale Diskriminierung in algorithmischen Systemen erfasst und rechtlich eingeordnet werden? Das Pochen auf die Grundrechte, so Jaume-Palasi, greift nicht, da sie sich als Individualrechte verstehen, wir es aber hier mit einer kollektivistischen Technologie zu tun haben. „Wir haben eine Technologie, die das Individuum nicht kennt und eine normative Ordnung, die nur das Individuelle kennt.” Genau diese Lücke wird in der Debatte um die soziale Verantwortung von KI immer weiter amplifiziert. Überprüft man die Technologie nur darauf, inwiefern sie die Grundrechte (also ein der Individualtheorie verschriebenes Rechtssystem) widerspiegeln, verfehlt man das Thema – und die mögliche Chance eines diskriminierungsfreien Raums – total.

Lorena Jaume-Palasi reiht sich in die lange Reige feministischer, postkolonialer, antirassistischer Denker٭innen ein, wenn sie einmal mehr für Kontext plädiert. Nicht auf Grundrechte soll KI daher überprüft werden, sondern auf soziale, auf kontextuelle Werte. Grundsätze, die als Maßstäbe der Raumordnung auch unseren demokratischen Zusammenschlüssen im analogen Raum vertraut sind, die aber weiterentwickelt und neu hinterfragt werden müssen. Dabei benennt Jaume-Palasi sieben an der Zahl:

1. Vielfalt

2. Nachhaltigkeit

3. Fairer Zugang zu Daseinsvorsorge

4. Polyzentrismus

5. Stabile ökonomische, kulturelle, soziale (etc.) Strukturen

6. Sicherheit

7. Sozialer Zusammenhalt

Dazu können wir nur sagen: ja, bitte. Und: Jaume-Palasi for President.

https://rhizome.hfbk.net/p/264219


Digitale Lehre an der HFBK

Wie die Hochschule die Besonderheiten der künstlerischen Lehre mit den Möglichkeiten des Digitalen verbindet.

Aktuelle Beiträge auf rhizome.hfbk.net

rhizome.hfbk.net ist das soziale Netzwerk der HFBK. Es eröffnet ein digitales Forum für Austausch und Diskussion, in dem Studierende, Lehrende, Gastautor*innen, Kunstkritiker*innen und die interessierte Öffentlichkeit für ein breites Spektrum an Inhalten und Sichtweisen sorgen. Hier finden sich Ausstellungsbesprechungen, eine regelmäßige Kunstpresseschau, literarische Texte sowie Berichte von Vorträgen und Symposien.

Absolvent*innenstudie der HFBK

Kunst studieren – und was kommt danach? Die Klischeebilder halten sich standhaft: Wer Kunst studiert hat, wird entweder Taxifahrer, arbeitet in einer Bar oder heiratet reich. Aber wirklich von der Kunst leben könnten nur die wenigsten – erst Recht in Zeiten globaler Krisen. Die HFBK Hamburg wollte es genauer wissen und hat bei der Fakultät der Wirtschafts- und Sozialwissenschaften der Universität Hamburg eine breit angelegte Befragung ihrer Absolventinnen und Absolventen der letzten 15 Jahre in Auftrag gegeben.

Jahresausstellung 2020 an der HFBK Hamburg

Zur Jahresausstellung der HFBK Hamburg präsentieren rund 800 Studierende drei Tage lang ein breites Spektrum künstlerischer Arbeiten: von Film und Fotografie über Performance, Skulptur und Malerei bis hin zu Raum- und Soundinstallationen sowie Designentwürfen. Besucherinnen und Besucher sind herzlich eingeladen, sich ein Bild von den aktuellen Produktionen der Hochschule.

Wie politisch ist Social Design?

Social Design, so der oft formulierte eigene Anspruch, will gesellschaftliche Missstände thematisieren und im Idealfall verändern. Deshalb versteht es sich als gesellschaftskritisch – und optimiert gleichzeitig das Bestehende. Was also ist die politische Dimension von Social Design – ist es Motor zur Veränderung oder trägt es zur Stabilisierung und Normalisierung bestehender Ungerechtigkeiten bei?