Clemens Apprich/Wendy Hui Kyong Chun/Florian Cramer/Hito Steyerl: Pattern Discrimination.

Lüneburg: Meson Press 2018. ISBN: 978-1-5179-0645-0. DOI:10.14619/1457. 124 S., Preis: € 24,50 bzw. open access.

  • Ulrike Wirth

Abstract

"We live in mythical times but without knowing that we do." (Wendy Hui Kyong Chun, S. 59.)

"Clearly the rise of search engines has fostered the proliferation and predominance of keywords and terms. At the same time it has changed the very nature of keywords, since now any word and pattern can become 'key'. Even further, it has transformed the very process of learning, since search presumes that a) with the right phrase, any question can be answered and b) that the answers lie within the database. The truth, in other words, is 'in there'." (Vorwort zur Reihe, S. vii-viii.)

Die Wahrheit ist irgendwo da draußen drinnen. (Ein Mulder-Bot)

Welche Vorstellung von Freundschaft/Nachbarschaft macht die Netzwerkforschung operabel? Was haben algorithmische Mustererkennung und Sternbilder gemeinsam? Leben wir bereits in der Singularität? Gibt es einen produktiven Moment der Paranoia? Diese rhetorischen Fragen sollen die Stoßrichtung des schmalen, aber dichten Bandes Pattern Discrimination umreißen. Die vier eng verzahnten Beiträge von Clemens Apprich, Wendy Hui Kyong Chun, Florian Cramer und Hito Steyerl kreisen dabei vorrangig um "biases" in der algorithmisierten Verarbeitung riesiger Datenmengen und somit um das Spannungsverhältnis des Begriffs 'diskriminieren' als Terminus technicus in der Informatik – im Sinne von auseinanderhalten, unterscheiden – und in seiner politischen Bedeutung als Ungleichbehandlung oder Ausschluss bestimmter Personengruppen nach soziologischen Kategorien (vorrangig 'Race', Gender, Klasse, Sexualität). Das Verhältnis lässt sich zu keinem Zeitpunkt der einzelnen Prozessschritte der Datenanalyse nach einer Seite hin auflösen. Somit geht es ganz grundlegend um die Verstrickungen von Ideologie und Technik. Diese Problemstellung an sich ist für eine Medienwissenschaft, so sie weder sozial- noch technikdeterministisch sondern sozio-technisch argumentiert, nicht neu. "What is new, though, is the fragmentation of largely stable knowledge sources into an atomized world of updates, comments, opinions, rumors, and gossip. In order to be able to filter information from this constant stream of data, we rely on algorithms, helping us bring order into our new media life" (S. 103). Die Datafizierung bzw. Mathematisierung der Welt; die Quantifizierung und Entdeckung neuer Korrelationen macht uns also abhängig von rechenbasierter Informationsverarbeitung. Die Autor*innen unterscheiden zwischen Daten, Information und Wissen/Erkenntnis. Daten sind sowohl Rohmaterial (obgleich immer schon präfiguriert) und Hintergrundrauschen, aus welchem Informationen mittels quantitativer Methoden auf Basis von Mustererkennung ('Pattern Recognition') erst gewonnen bzw. extrapoliert werden müssen. Daten begegnen uns ebenfalls als unvorstellbare Totalität der Beziehungen bei Steyerl und Chun und als das Lacan'sche Reale bei Apprich. Alle vier Beiträge durchziehen auf unterschiedlichen Ebenen Fragen der Subjektivierung.

Den Anfang macht Hito Steyerl. In "A sea of data: Pattern Recognition and Corporate Animism (Forked Version)" widmet sie sich der Bedeutung der Mustererkennung für die Datenanalyse staatlicher und privatwirtschaftlicher Kontrollinstanzen und Institutionen. Dabei entfaltet sie ihre Problematisierung entlang zweier politischer Fabeln.

Louis Althussers Polizist, dessen simple sprachliche Geste "Hey, du!" das basale Modell sozialer Kontrolle darstellt, wäre an den digitalen Verkehrskreuzungen, die von ca. 414 Billionen Bits pro Sekunde passiert werden, schlicht verloren: "On top of that he has to figure out whether they [Anm.: Bits] are sent by a spam bot, a trader, a porn website, a solar flare, Daesh, your mum, or what" (S. 1). Aber dieser Polizist aus einer vergangenen Zeit operiert längst nicht mehr allein, noch soll durch seinen Zuruf ein einzelnes Subjekt identifiziert und subjektiviert werden. Die sich veränderte Problemlage für Geheimdienste wie die NSA illustriert folgender Hilferuf: "Developers, please help! We're drowning (not waving) in a sea of data – with data, data everywhere, but not a drop of information" (S. 2). Hier kommt die Musterkennung zum Einsatz, im Kern geht es also darum, Signal (information) von Rauschen (excessive data) zu unterscheiden indem große Datenmengen analysiert werden um zuvor unbekannte, interessante Muster zu extrahieren (vgl. S. 2). Dass die Unterscheidung von Signal und Rauschen nicht bloß eine quantitative Verarbeitung, sondern immer auch eine qualitative Bewertung erfordert und somit hoch politisch ist, macht Steyerl mit Bezugnahme auf Jacques Rancière deutlich. Im antiken Griechenland wurde quasi ein politischer spam filter eingesetzt, der die Äußerungen männlicher, reicher Bürger als Rede (Information) definierte und jene von Frauen, Kindern und Sklaven als wirres Gebrabbel (Rauschen) (vgl. S. 3). Diese kategorische Filter- bzw. Reinigungsarbeit produziert Anomalien. Dirty data, fehlerhafte oder auch unbrauchbare Eingabedaten, bilden bei Steyerl daher auch das Eingeschlossene-Ausgeschlossene ab – das, was mit einer bestimmten Weltsicht nicht vereinbar ist, z. B. "rich brown teenagers" (vgl. S. 5). Analog zur Antike, die sich an Sternbildern orientierte, navigieren wir das Datenmeer ebenfalls mit Hilfe von ideellen Modellen und Mustern und orientieren uns an Ähnlichkeiten und Wahrscheinlichkeiten.

Steyerl plädiert nun nicht dafür, von jeglichen Kontrollmechanismen abzusehen, schlägt aber vor das gewaltige Datenmeer schlicht als "mess of human relations" zu akzeptieren (S. 19).

Florian Cramer widmet sich dem blinden Fleck der Datenanalyse als Determinismus eines Set-Ups, das nur scheinbar rein quantitativ-analytisch vorgeht. Sein Eingeschlossenes-Ausgeschlossenes ist die Hermeneutik, die Verdunkelung der Rolle qualitativ-subjektiver Interpretation für die Datenanalyse. "Crapularity Hermeneutics: Interpretation as the Blind Spot of Analytics, Artificial Intelligence, and Other Algorithmic Producers of the Postapocalyptic Present" stellt eine pointiert-polemische wie tiefgehende Analyse der Abgründe der digitalen Gegenwart dar. Cramer findet strukturelle Analogien für Big Data im Orakel von Delphi, standen doch die Priester ebenfalls vor der Frage, wie sie aus dem Strom aus (trancebasiertem) Kauderwelsch Sinn machen sollten (vgl. S. 23). Das Set-Up für Wahrsagerei im digitalen Zeitalter kennt keine Sprechakte bzw. Narrative mehr, die kritischer Exegese und semantischer Interpretation bedürfen, sondern Datensets, die mittels algorithmisierter "Analytics", also quantitativ-syntaktischen Operationen, enträtselt werden müssen (vgl. S. 24). Strukturell gesehen haben wir es jedoch immer noch mit Hermeneutik zu tun. Denn die Grenzen des Wissens bzw. der Interpretation legt der Algorithmus fest und somit liegt das epistemologische Kernproblem eigentlich eine Ebene tiefer, nämlich grundlegend in "using mathematics to process meaning" (vgl. S. 37). Folgerichtig sollten wir angesichts der Hoffnungen und Befürchtungen, die Künstliche Intelligenz (K. I.) weckt, die Perspektive ändern und nicht von einer eschatologisch-technischen 'Singularity' sondern der 'Crapularity' (Justin Pickard) sprechen, um der Fehleranfälligkeit und den Grenzen von K. I. Ausdruck zu verleihen (vgl. S. 40). Die Singularität versteht Cramer – wie auch Steyerl – dagegen als 'singularity of the market' und liest das Sillicon Valley als Chiffre für die Kulturindustrie des 21. Jahrhunderts, "with analytics of user-generated-content rather than content production as its (multibillion dollar) business model" (S. 35). Cramer spricht sich gegen eine offene Gesellschaft aus, die auf Gleichgewicht und Optimierung setzt und sich dabei vor dem Hintergrund gewaltiger Ausschlüsse errichtet. Behauptete Alternativlosigkeit, nichts Neues aber jede Menge Updates – die Gefahren für die Demokratie bringt er folgendermaßen auf den Punkt: "populist fascism against Big Data fascism" (S. 52).

Wendy Hui Kyong Chun analysiert in "Queering Homophily" die Axiome der Netzwerkforschung und argumentiert, dass wir uns mit Identitätspolitik beschäftigen müssen, da Algorithmen reduktiv identitätslogisch operieren und Segregation ahistorisieren und verstetigen. Gleich und gleich gesellt sich gern – bei Chun nimmt der Kalenderspruch bedrohliche Züge an, liegt doch Homophilie, also die Liebe zum Ähnlichen, im Herzen des Bauplans von Netzwerken. Historisch bedingte Ungleichheiten, institutionelle Zwänge, Rassismus – Konflikte werden verdeckt und Diskriminierung naturalisiert, indem Hass in individuelle "Vorlieben" übersetzt und somit blackboxing mit der Vergangenheit betrieben wird (S. 75). Filterblasen und Echokammern sind das notwendige Resultat, wenn Prosumernetzwerke als homophile Nachbarschaften errichtet und Konsens, Komfort und Balance prämiert werden (ebd.). Dabei kartieren und verflachen Netzwerke realweltliche Phänomene, in dem sie zwei qualitative Ebenen von Verbundenheit, zwei zuvor diskontinuierliche Skalen verknüpfen: Strukturen auf Makro- und Verhalten auf Mikroebene (vgl. 70f). Dadurch entsteht eine 'grammar of action' (Phil Agre), jede individuelle Handlung, jedes individuelle Verhalten ist immer Teil eines größeren Musters oder Symptoms (vgl. S. 69). Wir werden somit konstant mit anderen verglichen und intersektional erfasst mit dem Ziel, prognostische Aussagen zu treffen. Dabei diskriminieren Algorithmen eben nicht nach essentialistischen Kategorien wie 'race/gender/class', da sie nicht auf Basis von Eigenschaften sondern von Handlungen und Verhaltensmustern operieren: "These algorithms, in other words, do not need to track racial or other differences, because these factors are already embedded in 'less crude' categories designed to predict industriousness, reliability, homicidal tendencies, et cetera" (S. 74/S. 65). Die Pointe ist entsprechend fies: Einerseits zwingen uns unsere digitalen Verhältnisse die Auseinandersetzung mit Identitätspolitik quasi auf, andererseits verrutschen uns die Angriffsflächen für Herrschaftskritik. Chun plädiert dafür, sich die Netzwerkanalyse zu eigen zu machen, um neue Hypothesen und Axiome zu kreieren und fragt beispielsweise, wie sich die Infrastruktur der Netzwerke ändern würde, wenn nicht Konsens, sondern Konflikt und größtmögliche Differenz konstitutiv wären.

Clemens Apprich skizziert die Zielsetzungen und Argumente des Bandes im Vorwort und fasst diese mit "Data Paranoia: How to Make Sense of Pattern Discrimination" erneut zusammen. Paranoia war bereits bei Steyerl Thema, oder vielmehr eines deren Symptome: Apophenia, die Fähigkeit, Muster wahrzunehmen, auch wenn keine vorhanden sind, etwa Gesichter in Wolken. So lege etwa Googles Deep Dream Generator das Imaginäre unserer digitalen Erfassungssysteme und die Funktionsweise der Musterkennung neuronaler Netzwerke offen, die aus den Tiefen des Datenmeers nur jene Chimären heraufziehen können, die sie zuvor trainiert wurden zu erkennen (vgl. S. 9). Bei Apprich stellt Paranoia zum einen ein objektivierbares Phänomen jeglicher Medienbeobachtung dar. Je komplexer die Vermittlung, desto grundlegender der Verdacht, schließlich können wir immer nur die symbolische Oberfläche wahrnehmen und der submediale Raum bleibt strukturell verborgen (vgl. S. 104). Zum anderen ist Paranoia aber auch ein spezifisches Phänomen unseres aktuellen Medienwechsels – "from mass media to social media logic" (S. 116.) . Schließlich hat die Entstehung unterschiedlicher Teil-Öffentlichkeiten durch Social-Media Plattformen zum Verlust der Möglichkeit der Bezugnahme auf eine gemeinsame symbolische Ordnung geführt.
Auch Chun fragte zuvor, über welchen Wahrheitsbegriff wir angesichts der flachen Ontologie unserer Netzwerke, die keine Kausalzusammenhänge aufdecken, sondern bloß Korrelationen hervorbringen und quantifizieren, heute verfügen (vgl. S. 67). Aber hat die Postmoderne von der Wahrheit ohnehin nichts mehr wissen wollen? Apprich hält dem eigenen rhetorischen Einwand entgegen, dass wir eine gemeinsame Übereinkunft dessen, was wahr oder falsch ist benötigen, um überhaupt etwas wie objektive Realität – also eine Wirklichkeit, basierend auf intersubjektiv verhandelten Normen und Regeln – zu konstituieren (vgl. S. 108). Paranoia im Kontext dieses Medienwechsels stellt also einen Versuch einer Wiederaneignung der Welt dar, eine entfesselte Sinnproduktion "at a time where data simply outnumbers facts" (S. 106f). Mit Big Data hätten wir eine völlig neue Dimension von Wahrsagerei erreicht bzw. sind in ein neues Zeitalter der Interpretation eingetreten, denn "data by definition can be interpreted in this or that way" (S. 108).

Wie an mehreren Stellen angemerkt, geht es den Autor*innen vorrangig darum, den ideologischen Horizont von Big Data aufzuzeigen und somit den Digital Humanities ihr dringlichstes Forschungsgebiet zuzuweisen. In den einzelnen Beiträgen wird so auch keine defätistische Haltung eingenommen, sondern immanente Kritik geübt. Nahezu friktionsfrei aufeinander aufbauend, werden Kernargumente öfters wiederholt; Steyerl und Cramer fokussieren primär auf Datenverarbeitung, Chun und Apprich verstärkt auf Netzwerkforschung, stets steht jedoch die Verknüpfung epistemologischer und demokratiepolitischer Fragen im Vordergrund. Die auffällige Bezugnahme auf die griechische Mythologie erinnert dabei nicht nur daran, dass ältere geisteswissenschaftliche Disziplinen hilfreiche Analysewerkzeuge für die Auseinandersetzung mit Big Data und unseren digitalen Kulturen bereithalten. Die Analogieschlüsse legen umgekehrt die Vermutung nahe, sich ebenfalls (wieder) in einem mythischen Zeitalter zu befinden, da "alghorithmic computation no longer intellegible to the human mind" sei (S. 101). Pattern Discrimination kann als Versuch gelesen werden, kritische Theorie auf die Netzwerkforschung anzuwenden sowie im erweiterten Sinn eine Ideologiekritik des Plattformkapitalismus zu formulieren.

Autor/innen-Biografie

Ulrike Wirth

Studium der Theater-, Film- und Medienwissenschaft an der Universität Wien (2007-2015). 2012-2015 Tutorin und Studienassistentin am Institut für Theater-, Film- und Medienwissenschaft (tfm). Lektorats- und Redaktionsarbeit beim Studierendenmagazin SYN – Magazin für Theater-, Film- und Medienwissenschaft. Gründungsmitglied des filmkuratorischen Vereins Diskollektiv (www.diskollektiv.com), Lehrtätigkeit am tfm-Institut im WS2017/2018, WS2018/2019, WS2019/2020.

Publikationen:

Ulrike Wirth: "Beziehungsweise (R)Revolution. Children of (X-)Men". In: Put the X in PolitiX: Machtkritik und Allianzdenken mit den X-Men-Filmen. Hg. v. Drehli Robnik. Berlin: 2019 , S. 13–30.

—: "Filming fish and fishing film: Leviathan. Ein posthumanes Experiment im Ordnen der Dinge?". In: Wissenschaft. Theater. Film. Medien Vol.2, Maske und Kothurn Heft 1. Hg. v. Annette Storr. 2018. S. 123–132.

—: "Filming fish and Fishing Film: (Filmische) Experimentalanordnungen bei Jean Epstein und Karen Barad". In: ffk Journal (Film- und Fernsehwissenschaftliches Kolloquium) Nr. 2, 2017. http://ffk-journal.de/?journal=ffk-journal, veröffentlicht: 14.05.2017.

Veröffentlicht
2020-05-25
Zitationsvorschlag
Wirth, U. (2020). Clemens Apprich/Wendy Hui Kyong Chun/Florian Cramer/Hito Steyerl: Pattern Discrimination. [rezens.Tfm], (2020/1). https://doi.org/10.25365/rezens-2020-1-13
Ausgabe
Rubrik
Medien

Am häufigsten gelesenen Artikel dieser/dieses Autor/in