MediaPolicyLab Grafik-aufRot-05
MediaPolicyLab Grafik-aufRot-06

Prof. Dr. Frank Pasquale über Meinungsvielfalt und Intermediäre

Die Keynote des amerikanischen Wissenschaftlers Prof. Dr. Frank Pasquale war eines der Highlights der re:publica und Media Convention Berlin 2017. In seinem Talk spricht er über die vergangenen Hoffnungen einer digitalen Öffentlichkeit und Probleme algorithmischer Entscheidungssysteme.

 

Im Rahmen unseres Expertenworkshops vom 5. bis 7. Mai 2017 nahe Berlin befragten wir Prof. Dr. Frank Pasquale zu Informationsintermediären und ihrem Einfluss auf die Medienvielfalt sowie die damit verbundenen Herausforderungen, Entwicklungen und Probleme.

Prof. Dr. Frank Pasquale, Jurist und Professor an der University of Maryland in den USA ist unter anderem Autor des als Meilenstein in der Debatte angesehenen Buches The Black Box Society: The Secret Algorithms that Control Money and Information.

Seine Standpunkte dazu hat er in folgendem Statement festgehalten:

Statement zum Workshop Medienpluralismus in Blankensee 2017, Frank Pasquale

1. Was sind für Sie die wichtigsten Entwicklungen und Herausforderungen hinsichtlich des Einflusses von Informationsintermediären auf den Medienpluralismus?

Zentrale Informationsintermediäre sind profitgesteuert, und ihre Methoden für Auswahl und Darstellung von Newsfeeds und Suchmaschinenergebnissen sind geheim.[1] In einer Welt stabiler und marktbeherrschender Medienunternehmen waren große soziale Netzwerke und Suchmaschinen in einem gewissen Machtgleichgewicht mit den Eigentümern und Urhebern der Inhalte, die sie auswählten und darstellten.[2] Allerdings legt der rückläufige Trend der Medieneinnahmen eine neue Endphase offen: Online-Intermediäre als digitale Flaschenhälse oder Engpässe, mit immer mehr Macht über Art und Qualität von Nachrichten- und Nicht-Nachrichtenmedien, die beim Einzelnen ankommen.[3]

Hätten Google und Facebook klar und öffentlich anerkannte ideologische Programme, könnten Anwender diese einschätzen und sich entsprechend mit Skepsis gegenüber eigennützigen Ansichten „impfen“.[4] Die Plattformen sind allerdings vielmehr als Werkzeuge zu verstehen, die sich schnell für die Zwecke von Suchmaschinenoptimierern, gut organisierten Extremisten und sonstigen Gruppen am Rande der politischen Seriosität oder wissenschaftlichen Gültigkeit manipulieren lassen. Entsprechend hätte eine Suche nach „Hillarys Gesundheit“ im Oktober 2016 diverse irreführende Videos und Artikel ergeben, die grundlos postulierten, die Präsidentschaftskandidatin der US-Demokraten litte an Parkinson. Google-Suchergebnisse formten laut Berichten den Rassismus von Dylann Roof mit, der 2015 neun Menschen in einer historisch schwarzen Kirche im US-amerikanischen South Carolina ermordete. Roof sagte, als er „Verbrechen von Schwarzen an Weißen“ („black on white crime“) gegoogelt hätte, sei die erste Webseite, an die er verwiesen wurde, das „Council of Conservative Citizens“ gewesen, wobei es sich um eine Organisation handelt, die für sogenannte „White Supremacy“ steht, also weiße Vorherrschaft. „Von da an war ich nicht mehr derselbe“, sagte er. Auf diesem Wege lässt sich in einem mittlerweile automatisierten öffentlichen Raum auch eine Unterstützerschaft für Klimaskeptiker, Frauenfeinde, Ethno-Nationalisten und Terroristen einfach entwickeln und heranziehen.[5]

2. Was für einen Einfluss haben algorithmenbasierte Entscheidungsprozesse bei Intermediären auf Medienpluralismus – besonders mit Blick auf Nachrichtenangebote? 

Große Online-Intermediäre bauen eine gute Art von Medienpluralismus ab und neigen dazu, eine sehr zerstörerische Art von Vielfalt zu fördern. Online-„Viralität“ wird zum Erfolgsmaßstab, und das begünstigt Material, dem einige Aufmerksamkeit zugekommen ist, oder welches zum personalisierten Profil einer Unteröffentlichkeit zu passen scheint, ganz gleich, ob es wahrheitsgetreu oder ansatzweise anständig ist.[6] Das verringert Vielfalt, da Profitüberlegungen über die demokratisierenden Funktionen des öffentlichen Diskurses erhoben werden. Allerdings fördern dieselben Intermediäre eine sehr verstörende Art von Vielfalt, indem sie die Interessen der haltlosesten und gefährlichsten Propagandisten voranbringen. Politische Strömungen dieser Art sind besonders talentiert, wenn es darum geht, Medien zu schaffen, die Wechselwähler mit geringem Informationsanspruch beeinflussen und überzeugen – genau die Menschen, die mit höchster Wahrscheinlichkeit Wahlen entscheiden.

3. Was sind die größten Probleme, Risiken und Herausforderungen, die mit dem Einfluss der algorithmenbasierten Entscheidungsprozesse von Intermediären verbunden sind?

Es ist zu erwarten, dass Unternehmen, die Unmengen von Informationen ordnen möchten, ihre Methoden geheim halten – sei es auch nur, um Kontroversen zu verhindern und Nachahmungen der Konkurrenz zu vereiteln. So klug diese Verschwiegenheit als Geschäftsstrategie sein mag, so vernichtend ist sie für unsere Fähigkeit, die soziale Welt, die das Silicon Valley erschafft, tatsächlich zu verstehen. Überdies schafft die Undurchsichtigkeit wie ein moderner Ring des Gyges weitreichende Möglichkeiten, wettbewerbsfeindliches, diskriminierendes und schlicht fahrlässiges Verhalten in einen Schleier technischer Unergründlichkeit zu hüllen.

Massive Suchvorgänge sind derart komplex und so stark geschützt von tatsächlicher und rechtlicher Geheimhaltung, dass es nahezu immer unmöglich ist, alle Signale zu identifizieren, die einen bestimmten Ergebnissatz auslösen. So hat sich ein wiederkehrendes Muster herausgebildet: Eine Instanz beschwert sich über die Praktiken eines großen Internetunternehmens, das Unternehmen behauptet, Kritiker verstünden nicht, wie seine Algorithmen Inhalt sortieren und einordnen, und verwirrte Zuschauer dürfen sich in der Presse durch rivalisierende Geschichten wühlen. Silicon-Valley-Journalisten neigen dazu, bei ihren Inserenten gelegentlich ein Auge zuzudrücken, und nationalen Medien kommen die Mysterien der Inhaltsanordnung im Sinne ihrer eigenen Formeln für ausgewogene Berichterstattung wunderbar zupass. Niemand weiß genau, was passiert, wenn ein Konflikt entsteht, und so balancieren sich rivalisierende Darstellungen zu einem „objektiven“ Gleichgewicht aus.

Überdies führt Personalisierung dazu, dass Inserenten traditionelle und sogar weniger traditionelle Veröffentlichungen zugunsten großer Internetplattformen aufgeben. Warum? Weil niemand sonst die Granularität oder die Ausdehnung ihrer Daten erreichen kann. Das Ergebnis ist eine angehende Revolution darin, wer es sich leisten kann, weiter zu veröffentlichen, begleitet von Besorgnis über die Konzentration medialer Durchschlagkraft in immer weniger Händen.

4. Welche möglichen Antworten auf diese Probleme, Risiken und Herausforderungen sehen Sie als vielversprechend an?

a. Kennzeichnung, Überwachung und Erklärung hassgetriebener Suchergebnisse.

2004 wurde eine den Holocaust leugnende Site mit Namen „Jewwatch“ von Antisemiten in die Top-10 der Suchergebnisse für den Suchbegriff „Jew“ (Jude) gepusht. Ironischerweise kann es sein, dass einige Menschen, die darüber entsetzt waren, dazu beigetragen haben, indem sie die Site verlinkten, um sie zu kritisieren. Je mehr Verlinkungen eine Site hat, desto mehr Prominenz weist ihr der Algorithmus von Google in den Suchergebnissen zu.

Google reagierte auf die Beschwerden mit einer Seitenüberschrift, die lautete „Eine Erklärung unserer Suchergebnisse“. Die Seitenüberschrift verwies auf eine Webseite mit einer Erklärung dafür, warum die anstößige Site derart hoch in den entsprechenden Rankings angesiedelt war, wodurch sich Google von den Ergebnissen distanzierte. Diese Kennzeichnung erscheint allerdings mittlerweile nicht mehr. Gesetzgeber in Europa und anderen Ländern sollten erwägen, Kennzeichnungen dieser Art in Fällen offensichtlicher Hassrede erforderlich zu machen. Um zu verhindern, dass Extremismus Einzug in den Mainstream hält, könnten Kennzeichnungen auf Erklärungen zu Geschichte und Daseinszweck von Gruppen mit harmlosen Namen wie „Council of Conservative Citizens“ verweisen.[7]

Gibt es hier Bedenken hinsichtlich der Meinungsfreiheit? Eigentlich nicht. Verbesserte Kennzeichnungen von Nahrungs- und Arzneimitteln sind genauer Prüfung hinsichtlich des 1. Zusatzartikels in den USA auch entgangen, warum sollte das bei Informationen an sich anders sein? Wie Jura-Professor Mark Patterson gezeigt hat, sind viele unserer wichtigsten Handelsplätze Märkte für Information: Suchmaschinen bieten selbst keine Produkte oder Dienstleistungen an, sondern Informationen zu Produkten und Dienstleistungen, was sehr wohl entscheidend dazu beitragen kann, welche Unternehmen und Gruppen scheitern und welche erfolgreich sind.[8] Wenn hier keine Regulierung stattfindet, können Menschen sehr leicht durch die Manipulation seitens derer, die sich die beste Suchmaschinenoptimierung leisten können, mit unzuverlässigen und voreingenommenen Quellen allein gelassen werden.

b. Auditprotokolle der Daten, die in die Algorithmussysteme eingespeist werden.

Außerdem müssen wir der Sache auf den Grund gehen, wie einige rassistische oder antisemitische Gruppen und Personen Suchen manipulieren. Wir sollten unveränderliche Auditprotokolle über die Daten einfordern, die in die Algorithmussysteme eingespeist werden. Maschinelles lernen, Predictive Analytics oder Algorithmen können so komplex sein, dass ein Mensch sie nicht nachvollziehen kann – Datenprotokolle allerdings nicht.

Einige einfache Reformen könnten die Fähigkeit von Instanzen außerhalb von Google und Facebook, zu bestimmen, ob und wie die Ergebnisse und Newsfeeds der Unternehmen manipuliert werden, maßgeblich steigern. Nur selten existiert ein ausreichendes Profitmotiv für Unternehmen selbst, diesen Schritt zu gehen – motivierte Nichtregierungsorganisationen jedoch können sie dabei unterstützen, die öffentliche Sphäre besser zu schützen.

c. Sperrung bestimmter Inhalte.

Für Fälle, in denen die Berechnungslogik hinter Suchergebnissen tatsächlich zu komplex ist, um sie durch konventionelle Darstellungen oder Gleichungen für Menschen verständlich zu machen, gibt es einen weiteren regulierenden Ansatz: eine Einschränkung der Informationsarten, die zur Verfügung gestellt werden können.

Obgleich ein solcher Ansatz in den USA verfassungsrechtliche Bedenken auslösen würde, haben Staaten wie Frankreich oder Deutschland bestimmte Nazi-Sites und Symbole gänzlich verboten. Politische Entscheidungsträger sollten überdies die Gesetzgebung hinsichtlich „Anstiftung zum Völkermord“ genau studieren, um Richtlinien für die Zensur von Hassrede zu entwickeln, bei der eine klare Gefahr besteht, systematische Ermordungen oder Gewalt gegen gefährdete Gruppen auszulösen.

Ein kleiner Preis für einen öffentlichen Raum, der weniger von Hass geprägt ist. Wenn solche Maßnahmen nicht ergriffen werden, müssen wir mit Social-Media-gesteuerten Panikwellen über unliebsame Minderheiten rechnen, die zu Gewalthandlungen führen.

d. Zulassung externer Anmerkungen für diffamierende Beiträge und Einstellung von mehr Menschen zur Auswertung von Beschwerden.

In den USA und anderen Ländern könnten Anmerkungen in einem gewissen Rahmen – Gegendarstellungen – in bestimmten Fällen der Diffamierung von Personen oder Gruppen zugelassen werden. Google beharrt darauf, dass die Autonomie seiner Algorithmen nicht durch menschliche Einschätzung verfälscht werden soll. Doch sogar Vorschläge für Schreibweisen sind abhängig von menschlicher Einschätzung, und tatsächlich wurde dieses Feature von Google nicht nur mittels Algorithmen entwickelt, sondern auch durch mühsames, wiederholtes Wechselspiel zwischen Computerwissenschaftlern und menschlichen Betatestern, die ihre Zufriedenheit mit diversen Ergebniskonfigurationen rückmelden.

e. Begrenzung des Ausbeutungsspielraums für Online-Intermediäre.

Mit Hinblick auf sämtliche negativen Auswirkungen, die von Online-Intermediären verursacht werden, sollten politische Entscheidungsträger die Profite beschränken, die von diesen im Verhältnis zu den Einnahmen der Eigentümer der Inhalte erzielt werden können, von deren Arbeit sie abhängig sind. Im Kontext der Gesundheitsversorgung in den USA können Privatversicherer nur einen bestimmten Prozentsatz von Entgelten einbehalten (üblicherweise 15 bis 20 %) – der Rest ist an Gesundheitsversorger abzuführen, beispielsweise Krankenhäuser, Ärzte oder pharmazeutische Unternehmen. Derartige Regeln hindern den Intermediär daran, ein Übermaß der Ausgaben in einem Sektor zu beanspruchen – eine klar bestehende Gefahr in monopolistischen Internetzusammenhängen. Regierungen könnten die Höhe der Profite begrenzen, die Suchmaschinen und soziale Netzwerke als Intermediäre machen und die Abführung eines Anteils ihrer Einnahmen an Urheber von Inhalten wie Zeitungen und Medienunternehmen verpflichtend machen.[9]

f. Verbergen von schädlichen Inhalten, die nicht von öffentlichem Interesse sind.

In Sachen Suchergebnisse für Namen von Personen haben viele Länder Google offensiv gezwungen, bei der Übermittlung von Informationen umsichtiger zu sein. Der Gerichtshof der Europäischen Union ermöglicht Europäern, das Entfernen gewisser Suchergebnisse zu verlangen, die Informationen offenlegen, welche „unzureichend, irrelevant, nicht mehr relevant oder überzogen“ sind, sofern kein größeres öffentliches Interesse daran besteht, die Information per Suche des Namens des Datensubjekts auffinden zu können.[10]

Derartige Entfernungen sind ein Kompromiss zwischen Informationsanarchie und Zensur. Informationen verschwinden nicht aus dem Internet (sie sind in der Originalquelle auffindbar), werden jedoch daran gehindert, das Bild der geschädigten Person zu dominieren. So wird eine Art von Unklarheit erzeugt, die verhindert, dass ein einzelner Vorfall Suchergebnisse zum Namen einer Person auf unbestimmte Zeit dominiert. Beispielsweise konnte eine Frau in Spanien, deren Ehemann vor 20 Jahren ermordet worden war, Google erfolgreich dazu zwingen, Nachrichten zu diesem Mord aus den Suchergebnissen zu ihrem Namen zu entfernen. Diese Art öffentlicher Verantwortung ist ein erster Schritt in Richtung von Suchergebnissen und Newsfeeds sozialer Netzwerke, die gesellschaftliche Werte und Datenschutz widerspiegeln.

-------------------------------------------------------------------------------------------------------------------

[1] Frank Pasquale, THE BLACK BOX SOCIETY: THE SECRET ALGORITHMS BEHIND MONEY AND INFORMATION (Harvard University Press, 2015). Kapitel 3 betrachtet Suchmaschinen und soziale Netzwerke genauer.
[2] [2] Frank Pasquale, Beyond Competition and Innovation: The Need for Qualified Transparency in Internet Intermediaries, 104 Nw. U. L. REV. 105 (2010).
[3] Oren Bracha und Frank Pasquale, Federal Search Commission? Access, Fairness, and Accountability in the Law of Search, 93 CORNELL L. REV. 1149 (2008) (mit Oren Bracha); Frank Pasquale, Internet Nondiscrimination Principles: Commercial Ethics for Carriers and Search Engines, 2008 U. CHI. LEG. F. 263 (2008) (Arbeit auf Einladung des Symposiums Law in a Networked World). Es ist außerdem zu beachten, dass das Problem der Filterblase nicht darin besteht, dass links Wählende der Weltanschauung rechts Wählender ausgesetzt werden müssen und umgekehrt, sondern in fehlender Autonomie und mangelndem Verständnis dessen, wie die persönliche Medienumgebung gestaltet wird.
[4] Frank Pasquale, Restoring Transparency to Automated Authority, 9 J. TELECOMM. & HIGH TECH. L. (2010).
[5] Frank Pasquale, Duped by the Automated Public Sphere, unter http://discoversociety.org/2017/01/03/duped-by-the-automated-public-sphere/.
[6] Frank Pasquale, Rankings, Reductionism, and Responsibility, 54 CLEV. ST. L. REV. 115 (2006).
[7] Frank Pasquale, Platform Neutrality, 17 THEORETICAL INQUIRIES IN LAW 487 (2016); Asterisk Revisited: Debating a Right of Reply on Search Results, 3 J. BUS. & TECH. L. 61 (2008). 
[8] Patterson, Antitrust Law in the New Economy (2016).
[9] Ich habe dieses Modell hier auf Kabelanbieter angewendet: http://madisonian.net/2010/01/04/a-content-loss-ratiofor-cable-companies/; siehe auch Jaron Lanier, Who Owns the Future; Vili Lehdonvirta, https://www.oii.ox.ac.uk/blog/could-data-pay-for-global-development-introducing-datafinancing-for-global-good/.
[10] Frank Pasquale, Reforming the Law of Reputation, 47 LOYOLA L. REV. 515 (2016).

Erschienen am: 03.01.2018

<< Zurück zur Übersicht

Cookies ermöglichen eine bestmögliche Bereitstellung unseres Online-Angebots. Mit der Nutzung der Internetseite www.mabb.de erklären Sie sich damit einverstanden, dass Cookies verwendet werden.