Direkt zum Seiteninhalt springen

Ausblick

Urbane Proteste im digitalen Zeitalter

Die in dieser Studie versammelten Auseinandersetzungen mit dem »Phänomen Protest« veranschaulichen, wie die Digitalisierung das Protestieren verändert hat. Besonders deutlich wird dies im Vergleich von Claudia Zillas und Philipp Wesches Analyse eines Protests aus der Zeit vor der gesellschaftlichen Etablierung digitaler Medien mit den restlichen fünf Protesten, die alle nach der Gründung der einschlägigen digitalen Plattformen stattfanden. Zwar zeigen sich im Design der Proteste vergleichbare Ele­mente wie zum Beispiel die Besetzung von Straßen oder öffentlichen Räumen, doch die mittlerweile selbstverständliche und weit verbreitete Nutzung digitaler Medien ist ein Beleg dafür, dass sich in den urbanen Protesten der letzten Jahre neue Formen der politischen Artikulation und Aktion durchgesetzt haben.

>> Video: Schlussfolgerungen

Der Zusammenhang von urbanen Räumen, Protesten und Weltpolitik kann ohne den Faktor des Digitalen nicht mehr betrachtet werden. Neben der Wechselwirkung zwischen physischen und digitalen Protestaktionen machen der millionenfache Gebrauch und die universelle Verbreitung digitaler Medien deutlich, wie das Digitale die traditionellen Räume des Politischen immer mehr durchwirkt. Daraus ergibt sich eine ganze Reihe von Herausforderungen für politische Entscheidungsträger und Entscheidungsträgerinnen. Zunächst ist es aufgrund der Parallelität von digitalen und traditionellen politischen Räumen schwierig, in Zeiten des Protests klare Grenzen zwischen verschiedenen Ebenen zu ziehen. Das Ineinandergreifen von mehreren »scales« (z.B. während eines Protests) macht es schwer, die unterschiedlichen politischen Räume zu hierarchisieren. Es scheint vielmehr das Charakteristikum von aktuellen Protestformen zu sein, dass diese Grenzziehungen obsolet werden. Dieser Trend wird zusätzlich dadurch verstärkt, dass die Zahl der Akteure und Akteurinnen, die aufgrund der Nutzung digitaler Medien politisch aktiv werden können, immer weiter wächst. Protestierende sind zum Beispiel Konsumenten und Konsumentinnen und zugleich Produzenten und Produzentinnen von Informationen, meist ohne die Filterfunktion traditioneller Medien. Social-Media-Plattformen ermöglichen es zudem weiteren Akteursgruppen, am Diskurs teilzunehmen, von der »normalen« Bürgerschaft über Interessensverbände, die Polizei, Journalistinnen und Journalisten bis hin zu (Lokal-)Politikern bzw. Politikerinnen, die oftmals in mehrere Räume gleichzeitig politisch hineinwirken. Einerseits bilden sich so neue gestaltbare digitale Kommunikationsräume heraus, die prinzipiell allen Internetnutzern und -nutzerinnen (inklusive politischen Entscheidungsträgern) offenstehen und transnationale Öffentlichkeiten hervor­bringen. Andererseits ist so aber auch jede Information und jedes Ereignis sofort »öffentlich«. Digitale Medien erzeugen somit auch einen Druck in Richtung einer ständigen und instantanen Präsenz.[1] Daher ist es äußerst wichtig, Verfahren, Methoden und Plattformen zu entwickeln, um die Myriaden von digitalen Äußerungen zu bündeln, zu erforschen und zu bewerten und damit zu verhindern, dass die emergierenden öffentlichen Diskurse in eine marktschreierische Aufmerksamkeitsökonomie kippen.[2]

Dies lenkt den Blick auf die Architektur von Social-Media-Plattformen. Auch wenn soziale Medien erst durch die von Nutzern und Nutzerinnen erstellten Inhalte Gestalt annehmen, das heißt in ihrem Gebrauch entstehen[3], liegen diesen Plattformen bestimmte software-architektonische Vorgaben zugrunde. Diese bestimmen die Art und Weise des Zugangs, die Kriterien der Vernetzung und die Möglichkeiten des Austauschs. Ob nur 140 Zeichen Text gepostet werden können oder die gesamte Bandbreite digitaler Medienformate genutzt werden kann, hängt ebenso von firmenseitigen Konfigurationen ab, wie die Entscheidung darüber, welche Daten erhoben und wie sie korreliert werden. Da sich Social-Media-Plattformen, anders als öffentliche (und besetzbare) Plätze in Städten, derzeit ausschließlich in privater Hand transnational agierender Unternehmen befinden[4], bleiben die architektonischen Vorgaben digitaler Infrastruktur für die Nutzerinnen und Nutzer weitestgehend intransparent und damit unverfügbar – auch dann, wenn sie im Protest zur Herausbildung digitaler Kommunikationsräume genutzt werden. Somit stellt sich die Frage nach der Ausgestaltung dieser neuen Form privatisierter Öffentlichkeit: Die offenen Fragen betreffen nicht nur Aspekte des Datenschutzes, der politischen Regulierung und der nationalen Jurisdiktion in Kon­fliktfällen, sondern auch die Kontrolle bestimmter Algorithmen, mit denen Plattformen arbeiten. Diese sorgen beispielsweise dafür, dass Nutzerinnen und Nutzer vor allem Inhalte dargeboten bekommen, die den eigenen Präferenzen entsprechen. Dadurch könnte sich der Kommunikationsraum statt zu einer Sphäre des Austauschs zu einem problematisch einseitigen Echoraum entwickeln.[5]

In diesem Zusammenhang muss darauf hingewiesen werden, dass die Firmen, die ihre Plattformen bereitstellen, nicht nur bestimmte Hausregeln für die Nutzung festlegen, sondern Inhalte, die gegen diese Hausregeln verstoßen, durch sogenannte „commercial content moderation“ von Personen überprüfen lassen, um über eine Sperrung zu entscheiden. Sarah T. Roberts erforschte diese meist nach Südasien outgesourcte oder als „microwork“ vergütete Arbeit, die in der täglichen Begutachtung pornographischer, rassistischer und gewaltverherrlichender Inhalte besteht, um die Social-Media-Plattformen für ihre Nutzer und Nutzerinnen »sauber« zu halten. Anders als man vermuten mag, ist die Löschung von Inhalten also nicht vollständig automatisierbar, sondern auch das Ergebnis niedrig bezahlter „Handarbeit“ mit teilweise drastischen psychischen Belastungen für die jeweiligen Content-Moderato­ren und -Moderatorinnen.[6] Daran anknüpfend stellt sich auch die Problematik, in welchem Maße der Staat Kompetenzen der Rechtsdurchsetzung abtritt, wenn die Aufgabe der Strafverfolgung von Falschnachrichten und Hassreden auf private Unternehmen übertragen wird, die ihre Plattformen nach eigenen Kriterien moderieren werden.[7] Andererseits muss auch der Eingriff von Staaten oder staatsnahen Akteuren und Akteurinnen in die digitalen Sphären kritisch reflektiert werden. Dieser reicht potentiell von der Blockade einzelner Webseiten über die Erstellung propagandistischer Inhalte und automatisierter Social-Media-Pro­file (social bots) zur Beeinflussung von Netzdebatten[8] bis zur Überwachung der Internetkommunikation. Gerade weil sich die Möglichkeiten der poli­tischen Artikulation erweitert haben, ist die freiheitliche und gerechte Ausgestaltung dieser neuen Räume der Öffentlichkeit selbst von besonderer politischer Dringlichkeit.

Jan Beuerbach

Wissenschaftlicher Mitarbeiter, Uni Leipzig
(bis 12/2015 an der SWP)
Autor

Nadine Godehardt

Forschungsgruppe Asien
Projektkoordinatorin, Herausgeberin

  1. 1 Vgl. Byung-Chul Han, Im Schwarm. Ansichten des Digitalen, 2. Aufl., Berlin 2014, S. 29–30: „Wird alles sofort öffentlich, so wird die Politik unausweichlich kurzatmig, kurzfristig und verdünnt sich zur Geschwätzigkeit. Die totale Transparenz zwingt der politischen Kommunikation eine Zeitlichkeit auf, die eine langsame, langfristige Planung unmöglich macht. Es ist nicht mehr möglich, Dinge reifen zu lassen.“
  2. 2 Vgl. Jürgen Habermas, „Hat die Demokratie noch eine epistemische Dimension? Empirische Forschung und normative Theorie“, in: ders., Ach, Europa. Kleine politische Schriften XI, Frankfurt a. M. 2008, S. 138–191 (162).
  3. 3 Vgl. Stefan Münker, Emergenz digitaler Öffentlichkeiten. Die Sozialen Medien im Web 2.0, Frankfurt a.M. 2009, S. 27.
  4. 4 Vgl. die Kritik von Walter Siebel, der in Bezug auf die Geschäftsmodelle derzeitiger Social-Media-Plattformen vom „Gegenteil eines öffentlichen Raums“ spricht, Walter Siebel, Die Kultur der Stadt, Berlin 2015, S. 90–96 (93).
  5. 5 Vgl. Michela Del Vicario et al., „The Spreading of Misinformation Online“, in: Proceedings of the National Academy of Sciences of the United States of America, 113 (2016) 3, S. 554–559. Denkbar ist in diesem Zusammenhang zum Beispiel auch, dass Daten, die im Netz frei verfügbar sind und die Anwender und Anwenderinnen zum größten Teil freiwillig mitteilen, verwendet werden, um einen Algorithmus zu entwickeln, der vor­hersagt, welche Informationen Nutzerinnen und Nutzer sehen möchten, damit sie einen spezifischen Protest unterstützen.
  6. 6 Vgl. Sarah T. Roberts, “Commercial Content Moderation: Digital Laborers’ Dirty Work“, in: Safiya Umoja Noble/Brendesha Tynes, The Intersectional Internet. Race, Sex, Class and Culture Online, New York 2016, S. 147–160; sowie ihren Vortrag auf der Re:Publica 2016, „Behind the Screen: The People and Politics of Commercial Content Moderation“, 5.2.2016, <https://re-publica.de/16/session/behind-screen-people-and-politics-commercial-content-moderation> (Zugriff am 12.7.2017).
  7. 7 Dies ist einer der Kritikpunkte des Bündnisses „Deklaration für die Meinungsfreiheit“ aus Internetverbänden, Journalistenverbänden, Verbänden der IT-Branche und Nichtregierungsorganisationen (NGOs), die sich in Reaktion auf das Netzwerkdurchsetzungsgesetz (NetzDG) zu einer gemeinsamen Stellungnahme zusammengefunden haben, vgl. <http://deklaration-fuer-meinungsfreiheit.de/> (Zugriff am 12.7.2017).
  8. 8 Vgl. Samuel C. Woolley, „Automating Power: Social Bot Interference in Global Politics“, in: First Monday, 21 (April 2016) 4. Social-Bot-Netze zu nutzen, ist auch Interessengruppen möglich, denen keine direkte Staatsnähe nachzuweisen ist. Besonders brisant ist, wenn mit diesem Instrument in öffentliche Debatten anderer Länder eingegriffen wird, wie es zuletzt im französischen Wahlkampf durch Akteure (mit Unterstützung von Bot-Netzen) aus der rechtsextremen Szene der USA geschehen ist; vgl. dazu die Analyse des Digital Forensic Research Lab, „Hashtag Campaign: #MacronLeaks. Alt-right Attacks Macron in Last Ditch Effort to Sway French Election“, 5.5.2017, <https://medium.com/dfrlab/hashtag-campaign-macronleaks-4a3fb870c4e8> (Zugriff am 15.5.2017).