Internetdienstanbieter sind nicht neutral
So unbeteiligt an den Inhalten, die sie verbreiten, wie die Internet-Oligopolisten das gerne selbst darstellen, sind die Internetdienstanbieter aber keineswegs. Die Kontrolle über den Informationsfluss liegt nicht bei den Urhebern von Inhalten, sondern bei den Betreibern sozialer Netzwerke. Jeannette Hofmann, Demokratie im Datenkapitalismus, WZB Mitteilungen Heft 155 S. 14ff. (15) Verborgen bleibt, dass die angebotenen Inhalte, sei es aufgrund der Empfehlungen von Freunden, aber vor allem aufgrund von Sortier- und Suchalgorithmen der Internetdienstleister gesteuert werden. Die Algorithmen kategorisieren, filtern und hierarchisieren etwa bei Facebook rund 500.000 Kommentare pro Minute Jeanette Hofmann, a.a .O. S. 15 Algorithmen sind – vereinfacht gesagt – Computerrechenprogramme mit denen gesammelte Daten nach einem bestimmten Schema ausgewertet werden. Von den Internet-Dienst-Anbietern wird nachverfolgt (z.B. über die Suchhistorie im Netz oder über das Klickverhalten), welche Netzinhalte für den Nutzer wichtig sind oder häufig gesucht werden. Aus dieser Datenspur wird berechnet und automatisch vorausgesagt („predictive analytics“) und dem Benutzer angeboten, welche Informationen für ihn gleichfalls noch interessant sein könnten, weil sie mit seinem bisherigen Such- und Nutzungsverhalten übereinstimmen. Diese Programme zeigen den Usern das, was sie ohnehin suchen oder denken – egal was tatsächlich in der Welt vor sich geht.
„Unser Ziel ist es, mit dem Newsfeed die perfekte personalisierte Zeitung für jede Person auf der Welt zu schaffen„, sagte Facebook-Gründer Zuckerberg schon 2014, wohl ohne zu begreifen, welches Problem für den Erhalt von Meinungsvielfalt er damit beschrieb. Nachweisbar ist, dass – wenn Facebook an seinen Algorithmen dreht – das massiven Einfluss auf den Netzwerkverkehr bei den Inhalteanbietern hat. Facebook könne Portale „hochjazzen“, aber gleichsam auch in die Bedeutungslosigkeit herunter pegeln, schreibt Adrian Lobe (Süddeutsche Zeitung v. 14.11.2018 ).
Die Such-, Filter- oder Empfehlungs-Algorithmen (die sog. „Trending Topics“) der Online-Vermittler gelten bislang als Betriebsgeheimnisse. Vergebens hat bislang die Politik auf eine Offenlegung der Grundprinzipien der Such- und Empfehlungsalgorithmen gedrängt (Medien-und Kommunikationsbericht der Bundesregierung 2018, S. 35).
Ulrich Fichtner schreibt im Spiegel zurecht: „Angesichts der Bedeutung, die Google, YouTube, Facebook, Twitter und Apple mittlerweile für unser Leben haben, grenzt es an Wahnsinn, dass wir über diese Firmen außer schicken Werbeoberflächen so gut wie nichts wissen. Wie sucht die Google Suchmaschine, wie findet sie und nach welchen Kriterien sortiert sie die Ergebnisse? Wer wählt welche Facebook-Posts? Wie entsteht ein Twitter-Trend? Welchen Kriterien folgt der Mitteilungsstrom auf den Apple-iPhones?“ Spiegel 01/2017, S. 19ff.
Der Streit um die „Filterblase“
Ob und inwieweit es durch die Internetkommunikation einen neuen „Strukturwandel der Öffentlichkeit“ (Jürgen Habermas, 1962) gibt oder nicht, ist derzeit in der öffentlichen Debatte und in der Wissenschaft noch heftig umstritten.
Die amerikanische Mathematikerin Cathy O`Neil, die lange über Algorithmen geforscht hat, schreibt: „Soziale Medien zeigen ihren Usern Inhalte an, die diese mögen – also verstärken sich die immer gleichen Ansichten.“ (Siehe auch Cathy O`Neil in der taz vom 8.11.2016, S. 7; dazu auch Torsten Riecke u.a., Die Macht der Algorithmen). „Amazon hält uns in Clustern gleichgesinnter Käufer gefangen, Google in Gruppen gleichartigen Sucher und Facebook von gleichgesinnten Bürgern,“ schreibt das Ehrenmitglied des Chaos Computer Clubs Peter Glaser.
Der Harvard-Jurist und Verhaltensforscher Cass Sunstein hat für solche Phänomene schon 2001 den Begriff „Echokammer“ eingeführt und der Internetaktivist Eli Pariser hat 2011 die Beobachtung, dass die Internetnutzer bei der Suche im Internet vor allem „Freunden“ folgen und durch die verborgenen Algorithmen der Suchmaschinen „Follower“ bestimmter Netzinhalte werden, als „Filterblase“ beschrieben (The Filter Bubble: What The Internet IS Hiding From You, New York 2011).
Wenn algorithmische Systeme menschliche Interaktionen auswerten, machten sie sich gleichzeitig die geäußerten Vorurteile zu Eigen und verstärkten diese. dahna boyd, Die verborgene Macht der Algorithmen, in Blätter für deutsche und internationale Politik, 8/2018 S. 80ff. (89) An die Stelle unseres persönlichen Urteilsvermögens träten datengespeiste Prognosen und Vorschläge. Der Einfluss von undurchschaubaren Algorithmen für die Trefferlisten der Suchmaschinen und die Auswahl der Botschaften in den Internetdienste seien zu neuen „Gatekeepern“, also Torwächtern für öffentlichkeitsrelevante Informationen geworden, sie ersetzten geradezu die redaktionelle Denkarbeit, Facebook blende vierfünftel der Inhalte aus und vermittle eine eigene Realität, schreibt Stefan Schulz. a.a.O S. 44 In den letzten 10 Jahren seien neue Massenmedien entstanden, die zwar keine Redaktionen mehr hätten, aber mittels ihrer Produktmanager, ihrer Softwareentwickler und mit Inhalten, die algorithmisch von anderen Medien übernommen werden, eine eigene Öffentlichkeit schafften. Stefan Schulz a.a.O. S. 251
Auch die Bundesregierung schreibt in ihrem Medien- und Kommunikationsbericht 2018 (S.30): „Neben Internetzugangsdiensten haben weitere elektronische Informations-und Kommunikationsdienste, sogenannte Informationsintermediäre, für unsere alltägliche Kommunikation und damit auch dafür, wie „Öffentlichkeit“ hergestellt wird, eine zentrale Bedeutung erlangt…In ihre Nutzungsumgebungen werden einzelne Inhalte oft nicht mehr in einer vom Inhalteanbieter festgelegten Zusammenstellung wie bei einer Zeitungsausgabe, einem Rundfunkprogramm oder einem Musikalbum präsentiert, sondern es werden einzelne Stücke oder Beiträge „entbündelt“ über „Timelines“ oder „Channel“ zugänglich gemacht. Die Auswahl der Inhalte für den einzelnen Nutzer wird dabei automatisch auf seine Eigenschaften und Vorlieben abgestimmt (personalisiert) und folgt nicht mehr einer vom Anbieter festgelegten Logik wie etwa dem Ablaufplan eines Fernsehprogramms.“ Medien- und Kommunikationsbericht 2018 Das Bundesverfassungsgericht hat in seinem Urteil vom 18. Juli 2018 zum Rundfunkbeitrag auf die Gefahr hingewiesen, „dass – auch mit Hilfe von Algorithmen – Inhalte gezielt auf Interessen und Neigungen der Nutzerinnen und Nutzer zugeschnitten werden, was wiederum zur Verstärkung gleichgerichteter Meinungen führt“ (BVerfG, Urteil des Ersten Senats – 1 BvR 1675/16 – Rnr. 79).
Brian Acton, der Gründer des Kurznachrichtendienstes »Whatsapp«, schreibt in seinem jüngsten Buch „Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst“, dass Konzerne wie Facebook, Google oder Twitter »Manipulations-Imperien« seien, die Menschen wie Hunde in Käfigen hielten und mit virtuellen Reizen bestimmte Verhaltensweisen auslösten. Ein System, das auf totaler Überwachung und einem „perversen“ Geschäftsmodell gegründet sei (Nora Sonnabend Handelsblatt v. 21.03.2018).
Der Experte für Psychometrie an der Stanford Universität Michal Kosinski meint zwar, dass in „Filter Bubbles“ zu leben, „unser natürlicher Zustand“ und nicht schuld von Facebook sei. Aber es könnten heute sehr genaue Aussagen über jemand getroffen werden, wenn man mit Hilfe von Algorithmen die Datenspuren im Internet verfolge (taz v. 17.12. 2016).
Empirische Nachweise der Filterblasen-These seien bisher allerdings dünn gesät, so stellt das z.B. Rainer Stadler, Mitglied des Schweizer Presserats, in einer Übersicht in der Neuen Züricher Zeitung dar (NZZ vom 12.1.2019).
Hermann Rotermund, Fellow am Center for Advanced Internet Studies in Bochum, vertritt die These, dass der Medienkonsum generell keinen nachweisbaren Einfluss auf die Meinungsbildung im Sinne der Erzeugung oder Konvertierung von Einstellungen habe, sondern allenfalls eine Verstärkung bereits vorhandener Meinungen bewirke. Die Filterblasen-These beruhe nur auf Hypothesen, die nicht empirisch erhärtet seien. Auch bei der Wirkung von Fake-News handle es sich im Wesentlichen um die Verstärkung bereits vorhandener Einstellungen und Vorurteile (Weißes Rauschen). Zu einem ähnlichen Ergebnis kommt auch das Reuters Institut an der Oxford Universität (Reuters Institute, February 2018 Factsheet),
Die Personalisierung bei der Recherche von Nachrichten mit Google News ließ die Bayerische Landeszentrale für neue Medien anlässlich der Bundestagswahl 2017 in einer Studie untersuchen und kommt in einer Momentaufnahme zu dem Befund, dass „die von Google im Rahmen der organischen Suche ausgerollten Schlagzeilen…insgesamt von etablierten Medienhäusern, insbesondere aus dem Printbereich, dominiert“ würden, also nicht von Sozialen Medien. Tobias D. Krafft, Michael Gamer, Katharina A. Zweig, Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschine. Simon Hegelich (Hochschule für Politik München) wies in einer Expertenanhörung des Bundestagsausschuss Digitale Agenda hingegen darauf hin, dass sich der Forschungsstand sehr schnell ändere. So habe das Ausmaß an Desinformationskampagnen habe bei der Bundestagswahl im Jahr 2017 quantitativ höher gelegen als gedacht. „Es sind koordinierte Kampagnen, in denen über unterschiedliche Strategien versucht wird, Verunsicherung zu schüren oder das Vertrauen in demokratische Institutionen zu unterminieren„. Für belastbare Aussagen zu einem Kausaleinfluss mangele es allerdings an Studien. Heute im Bundestag Nr. 407, vom 11.04.2019
Die widerstreitenden Positionen ähneln dem seit Jahren geführten Streit über den Einfluss von Gewaltdarstellungen in den Medien auf die Gewaltbereitschaft von Menschen (Helmut Lukesch, Institut für Experimentelle PsychologieUniversität Regensburg) vor allem von jungen Leuten. An der Medienwirkungsforschung wird allerdings vielfach kritisiert, dass die empirischen Sozialforscher häufig dazu neigten, etwas, was sie nicht nachweisen können, als nicht existent zu erklären, obwohl die unmittelbare Anschauung mannigfache Indizien liefert.
Die „Schweigespirale“ wird durchbrochen
Meine langjährige Beobachtung als Mitherausgeber des ziemlich verbreiteten Blogs „NachDenkSeiten“ hat mich zunehmend besorgt gemacht, dass „Soziale Medien“, aber auch Blogs zumindest eine Tendenz zur Aufspaltung der öffentlichen Meinung aufweisen, indem sie den diskursiven und pluralen öffentlichen Meinungsaustausch in eine Vielzahl von voneinander abgeschlossenen „persönlichen Öffentlichkeiten“ oder in „Gegenöffentlichkeiten“ – man könnte manchmal sogar von Sekten sprechen – auseinander dividieren. Die „NachDenkSeiten“ erklären den „Aufbau (einer) Gegenöffentlichkeit“ sogar als ausdrückliches Ziel.
Der Kampf um Meinungsmacht ist mit dem Internet jedenfalls unübersichtlicher geworden. Denn unbestreitbar ist, dass es nie zuvor so einfach war, an eine so große Fülle von Medieninhalten weltweit und jederzeit zu gelangen, dass es aber auch nie zuvor so unübersichtlich war, gesicherte Informationen vorzufinden. Es sei nicht ausgeschlossen, dass sich damit auch das Gefühl einer gut informierten Orientierungslosigkeit einstelle, meint der Politikwissenschaftler Ulrich Sarcinelli (Ulrich Sarcinelli, SWR2 Wissen v. 17.02.).
Der professionelle Journalismus bzw. die klassischen Massenmedien haben jedenfalls ihr faktisches Monopol auf die öffentliche Darstellung und Deutung von gesellschaftlichen, wirtschaftlichen und politischen Entwicklungen zu einem beachtlichen Teil verloren.
Selbst die Kritiker der „Filterblasen“-These räumen ein, dass durch personalisierte Nachrichtenströme zumindest eine Verstärkung vorhandener Meinungen bzw. eine Verfestigung von Vorurteilen bewirkt werden könne. Grundlegend dafür ist die menschliche Psyche, speziell die „selektive Wahrnehmung“. Der Nutzer gerät tendenziell unter den Einfluss eines „Bestätigungsfehlers“ (confirmation bias) Bernd Holznagel, Demokratieauftrag des öffentlich-rechtlichen Rundfunks, in: Der Auftrag: Demokratie, Public Value Studie des ORF, 2018, S. 5ff., S. 15 – vereinfacht gesagt, dass man solche Informationen besonders aufmerksam aufnimmt, die das eigene Vorurteil stützen. Dieses psychologische Phänomen wird verstärkt durch die Auswertung menschlicher Interaktionen im Internet mittels algorithmischer Systeme, die sich die geäußerten Vorurteile zu Eigen machen und verstärken können.
Durch die sozialen Netzwerke sind die Möglichkeiten der Vernetzung und des Austauschs zwischen Individuen, die sonst nicht oder nur sehr schwer miteinander in Kontakt gekommen wären, ohne Aufwand immens gestiegen. Der „Stammtisch“ – einstmals auf wenige anwesende Zecher begrenzt – kann sich im Netz wie eine Epidemie tausendfach „viral“ und mit Lichtgeschwindigkeit verbreiten und bleibt – was gleichfalls eine neue Qualität ist – (ohne Gegenwehr) dauerhaft dokumentiert.
„Wenn du vor dem Internetzeitalter andere Ansichten oder Interessen als die Leute in deiner Nachbarschaft hattest, war es schwieriger, eine Community zu finden, die deine Interessen teilt. Jetzt kannst du dich mit jedem vernetzen und deine Stimme erheben“ schreibt Facebook-Gründer Zuckerberg. Adrian Lobe merkt dazu kritisch an, dass sich im Denken Zuckerbergs ein Anti-Institutionalismus und eine Ablehnung von Pluralismus erkennen lasse (Adrian Lobe, Süddeutsche Zeitung v. 26.02.2019).
Die von der ehemaligen Chefin des Instituts für Demoskopie in Allensbach, Elisabeth Noelle-Neumann, entwickelte Theorie einer „Schweigespirale“, wonach Menschen sich mit ihrer Meinung eher zurückhalten, wenn diese einem vorherrschenden Meinungsklima widerspricht, Elisabeth Noelle-Neumann, Die Theorie der Schweigespirale wird durch die technische Distanz des Internets durchbrochen. „Im Vergleich zum Dorftratsch verstärkt sich im Internet die asymmetrische Kommunikation“ meint die Medienpädagogin Sabine Schiffer. WDR Funkhausgespräche, leider aufgrund des Depublikationsgebots nicht mehr abrufbar Der Einzelne kann schnell zu der Überzeugung kommen, dass seine Sicht der Dinge mit der Bevölkerungsmehrheit übereinstimmt (Looking-Glass-Effekt). Bernd Holznagel, Demokratieauftrag des öffentlich-rechtlichen Rundfunks, in: Der Auftrag: Demokratie, Public Value Studie des ORF, 2018, S. 5ff.,. S. 17.
Inhaltliche Auseinandersetzungen finden auf Facebook oder Twitter kaum statt (Matthias König/Wolfgang König, OBS-Studie: Twitter-Euphorie unbegründet – und mehr Mythos als Realität). Mit maximal 280 Zeichen, wie beim Kurznachrichtendienst Twitter, kann man nicht ausführlich analysieren oder einen hintergründigen Austausch von Gedanken pflegen. Zudem gilt das Prinzip „tl;dr“ – das steht im Internet-Slang für „too long; didn’t read“ (übersetzt: zu lang, habe ich nicht gelesen).
„Social Media macht dich zum Arschloch“, meint der New Yorker Internetpionier Jaron Lanier (Anja Kümmel, Der Tagesspiegel 22.07.2018). Und Robert Habeck begründet seinen Abschied von Twitter und Facebook nur in etwas gepflegteren Worten: Der aggressive Ton im Internet habe ihn „desorientiert“ und auf ihn „abgefärbt“ (Salonkolumnisten v. 08.01.2019).
Selbst Facebook-Chef Mark Zuckerberg macht sich in seinem 2017 „To our Community“ gerichteten Manifest Building Global Community inzwischen Gedanken darüber, wie es gelingen könne, unterschiedliche Sichtweisen so aufzubereiten, dass die Menschen wieder miteinander in einen Dialog kommen und andere Meinungen akzeptieren, statt sich in ihrer eigenen Gedankenwelt abzukapseln (Daniel Baumann, Weltpolitik? gefällt mir, Frankfurter Rundschau v. 18.02.2017).
Zumindest bei zahlenmäßig durchaus beachtlich großen gesellschaftlichen Gruppen, die sich in Opposition zu der in den klassischen Medien veröffentlichten Meinung oder zum sog. Meinungs-Mainstream verstehen (Florian Schmidt, Göttinger Institut für Demokratieforschung) sowie bei Menschen, die eine vom öffentlichen Diskurs abweichende, stark ideologisch begründete Überzeugung haben (Birgit Stark, Hrsg. v.d. Landesanstalt für Medien NRW) lassen sich (homogenisierende) „Echokammer“-Effekte beobachten. Das gilt nicht nur für Anhänger von Verschwörungstheorien, sondern auch z.B. für Vertreter der Impfschaden-Theorien, die auf den Plattformen ihre Verbreitung gefunden haben.
Der Bielefelder Konflikt- und Gewaltforscher Wilhelm Heitmeyer schreibt: „Inzwischen haben wir es mit zahlreichen, ganz unterschiedlichen Öffentlichkeiten zu tun, die sich in den sogenannten „Filterblasen“ abspielen in homogenen Gruppen, in der nicht Auseinandersetzungen über kontroverse Themen stattfinden, sondern zumeist Selbstbestätigungen und Aufschaukelungen entscheidend sind. Die dort stabilisierten Positionen, die nicht selten durch mit hoher Verbreitung verbundenen Verschwörungstheorien einhergehen, haben zu dieser Verschiebung von Normalitätsstandards beigetragen. Das bedeutet auch, das neue „Realitäten“ des Sagbaren entstanden sind, die in die reale Welt in Verwandtschaften, Freundschaften, Sportvereinen, Kirchengemeinden, Arbeitsplätzen etc. transportiert werden und dort ihre verbreitende Wirkung entfalten, wenn die entsprechenden Personen den Eindruck haben, ihre Positionen seien nicht Teil einer Minderheiten-Meinung, sondern Teil einer Mehrheitsmeinung. Dann funktioniert ein Mechanismus, dass alles das, was als normal wahrgenommen wird, zu einem bestimmten Zeitpunkt nicht mehr problematisiert werden kann.“ Wilhelm Heitmeyer „Auf diese Weise zerstört sich eine liberale Demokratie“(L.I.S.A. Wissenschaftsprotal Gerda Henkel Stiftung S. 3).
Wer sich im Netz umschaut, findet eine kaum noch überschaubare Zahl von durchaus reichweitenstarken sektiererischen, verschwörungstheoretischen, propagandistischen, vor allem aber auch rechtspopulistischen bis rechtsextremen Blogs und Internetauftritten. Social-Media-Dienste sind sogar die hauptsächlichen Mittel zur Verbreitung rechtsextremer Propaganda geworden. Rechtsextremismus im Netz (Bericht 2017. jugendschutz.net). Das ist ein ganz offensichtliches Indiz dafür, dass die Internetkommunikation bei beachtlichen Bevölkerungsteilen die Entstehung politischer Parallelwelten und eine negative Abgrenzung zum Meinungs-Mainstream befördert. In der Neuen Mitte-Studie der Friedrich-Ebert-Stiftung heißt es: „Durch webbasierte Kommunikation ist das Ausmaß der möglichen Manipulation und Erzeugung von …Mythen eine noch weitaus größere Gefahr geworden als früher. Bewusste Falschnachrichten (Fake News oder auch klassisch Lügen), die teilweise Kommunikationsblasen und neue Glaubensgemeinschaften kreieren, werden in parallelen Wahrheitswelten erzeugt und binden Teile der Mitte an neue Glaubensgemeinschaften, die sich in Distanz zum »System« setzen, weil sie »dem System« Lüge und Manipulation unterstellt.“ Andreas Zick, Beate Küpper, Wilhelm Berghan, Verlorene Mitte, Feindselige Zustände, Hrsg. v. d. Friedrich-Ebert-Stiftung, 2019 (leider nicht mehr im Netz)
„Damit ändert sich der demokratische Prozess und das, was wir unter Öffentlichkeit verstehen – sie fragmentiert und schafft sich ab“, sagt die Mathematikerin Cathy O`Neil (Ingo Arzt, taz 8. 11. 2016). An die Stelle politischer Debatte tritt die Selbstbestätigung von Gleichgesinnten. Es entwickeln sich „homogenisierte Teilöffentlichkeiten“ mit unterschiedlichen Wahrheitsansprüchen (Jasmin Siri, Pluralismus statt Zensur: Konferenz im Bundestag über Online-Hass).
Der Soziologe Dirk Baecker ist der Ansicht, dass es – anders als der Sozialphilosoph Jürgen Habermas das noch angenommen habe – eine einzige Öffentlichkeit, die eine ganze Gesellschaft zusammenhalte, nicht mehr geben könne. An ihre Stelle trete längst eine Vielzahl von politischen, ökonomischen, ästhetischen und religiösen Öffentlichkeiten (Zusammenleben mit nervösen Medien, Deutschlandfunk Kultur).
Man muss nicht gleich alarmistisch – wie der Tübinger Medienwissenschaftler Bernhard Pörksen – von einem „Dialog- und Kommunikationsinfarkt“ (Spiegel Essay v. 05.01.2015) oder von einer „Erregungsdemokratie“ (Deutschlandfunk Kultur) sprechen und schon gar nicht muss man, wie die Internetkritikerin Yvonne Hofstetter, gleich das „Ende der Demokratie“ an die Wand malen, aber beobachtbar ist, dass das Netz Gesinnungsgemeinschaften fördert und relevante gesellschaftliche Gruppen in eine Art selbstverstärkenden Meinungsstrudel geraten können. „Nicht die Digitalisierung der Demokratie, sondern die Demokratisierung des Digitalen ist die drängendste Aufgabe„, warnt Bundespräsident Steinmeier in seiner Rede auf der diesjährigen re:publica in Berlin. Zum Thema Digitale Demkratie siehe auch Christian Fuchs, in der Public Value Studie des ORF, Der Auftrag: Demokratie, 2018, S. 94ff.
Dass es in Zeiten der gesellschaftlichen Polarisierung genügt, im Kampf um politische Macht eine verhältnismäßig kleine Zahl der Bürgerschaft umzustimmen, um ein erwünschtes Resultat zu erzielen, räumen auch die Kritiker der Echo-Kammer-These ein. Stadler NZZ a.a.O.
Das, was das Ideal einer demokratische Kultur ausmacht, nämlich eine an Tatsachen und rationalen Argumenten orientierte öffentliche Debatte, der offene und täuschungsfreie Austausch von Argumenten, die Verbreitung einer möglichst großen Vielfalt von Meinungen und einer „kritischen Diskussion in der Öffentlichkeit“ (Habermas) zur Förderung von vernunftgeleitetem politischem Handeln, wird jedenfalls von einem großen Teil der Sozialen Medien nicht gefördert.
Bildquelle: Pixabay, geralt, Pixabay License
Den vollständigen Beitrag (Teil 1-4) auf einer Seite lesen
DIGITALISIERUNG DER DEMOKRATIE ODER DIE DEMOKRATISIERUNG DES DIGITALEN? :
KANN DAS INTERNET DIE KLASSISCHEN MEDIEN ERGÄNZEN ODER GAR ERSETZEN? TEIL 1
DIGITALISIERUNG DER DEMOKRATIE ODER DIE DEMOKRATISIERUNG DES DIGITALEN? :
KANN DAS INTERNET DIE KLASSISCHEN MEDIEN ERGÄNZEN ODER GAR ERSETZEN? TEIL 3
DIGITALISIERUNG DER DEMOKRATIE ODER DIE DEMOKRATISIERUNG DES DIGITALEN? :
KANN DAS INTERNET DIE KLASSISCHEN MEDIEN ERGÄNZEN ODER GAR ERSETZEN? TEIL 4
'DIGITALISIERUNG DER DEMOKRATIE ODER DIE DEMOKRATISIERUNG DES DIGITALEN?: KANN DAS INTERNET DIE KLASSISCHEN MEDIEN ERGÄNZEN ODER GAR ERSETZEN? TEIL 2' hat keine Kommentare
Als erste/r kommentieren