MediaPolicyLab Grafik-aufRot-05
MediaPolicyLab Grafik-aufRot-06

Wie neutral sind Suchmaschinen und soziale Medien?

Ein Interview mit Prof. Richard Rogers über die Kritik an digitalen Plattformen

 

Professor Rogers, sind Suchmaschinen und Social Media Plattformen neutral? Worin bestehen mögliche Verzerrungen der Suchergebnisse?

Richard Rogers: Seit zwanzig Jahren wird zunehmend Kritik an Suchmaschinen und auch an Social Media Plattformen geäußert. Zuerst dominierten erkenntnistheoretische Überlegungen, welche Quellen bevorzugt Informationen liefern dürfen (und welche verborgen werden). Später kamen Bedenken hinzu, wie kulturelle Gruppen dargestellt werden. Ab den späten 1990er-Jahren wurden Suchmaschinen dafür kritisiert, dass sie die Grenzen zwischen redaktionellen und werberischen Inhalten verwischten. Im Fall der ehemals populären Suchmaschine Alta Vista wurden Werbeanzeigen im Design echter Suchergebnisse angezeigt, später füllte Google die Top-Ergebnisse mit eigenen Inhalten. Das Anti-Trust-Verfahren gegen Google in 2010 zeigte, dass die Vergleichsergebnisse von Google Shopping stets höher platziert waren als die von konkurrierenden Preisvergleichsseiten. Kritisiert wird dabei die „Gerechtigkeit von Suchmaschinen“ bzw. eine ungerechte Handelsumgebung.

Was bedeutet Gerechtigkeit, wenn Sie über Suchmaschinen sprechen?

Richard Rogers: Wenn die Logik von Rankings hinterfragt wird, geht es um die Kultur der Algorithmen und um das, was sie bevorzugen. Sollten es renommierte Quellen sein oder eigene Präferenzen? Der Begriff „Filterblase“ wurde als Kritik an der „unsichtbaren Redaktion des Internets durch Algorithmen“ (Pariser, 2011) und auch an der Ranking-Kultur als Ganzes geprägt. In ihm drückte sich die Anerkennung der „Ungerechtigkeit“ des Rankings aus. Bestimmte Seiten wurden bei Anfragen höher gerankt als andere, da sie von anderen Seiten verlinkt und dadurch als relevant anerkannt wurden. Diese wiederum hatten auch viele Links, so wurde Etabliertes bevorzugt. Ein angeblich universelles Quellenranking definierte eine neue Form der Online-Prominenz basierend auf Links, Aktualität, Langlebigkeit und anderen Signalen. Das Ergebnis waren „Googlearchien“ (Hindman, 2003), welche die Suchergebnisse dominierten.

Google will laut eigener Aussage die besten Ergebnisse für seine Nutzenden liefern. Welche Rolle spielt Personalisierung dabei?

Richard Rogers: In den 2000er-Jahren gingen Google und andere Suchmaschinen als Reaktion auf die Kritik dazu über, Ergebnisse zu personalisieren. Begonnen wurde mit der sprachlichen und geografischen Ebene, darauf folgte die individuelle Ebene. Das Projekt #Datenspende, das die Personalisierung von Google-Ergebnissen durch individuelle Faktoren untersucht, stellte fest, dass nur ein geringer Anteil der Ergebnisse personalisiert sind. Zu ähnlichen Schlüssen kommen andere empirische Studien (Krafft und Zweig, 2018; Feuz et al., 2011). Personalisierung auf sprachlicher und geografischer Ebene ist dagegen weit verbreitet. Bedingt wird dies durch die Standardeinstellungen von Suchmaschinen, automatisch „lokale“ (oder seit Kurzem „regionale“) Ergebnisse in eigener Sprache auszugeben. Eine weitere Rolle spielen standortbezogene Services von Maps. Nutzer werden aufgefordert, sie zu aktivieren, da die Dienste sonst weniger effektiv sind.

Auf den Punkt gebracht machte Personalisierung die Suchmaschine weniger kritisierbar in Bezug darauf, bestimmte Quellen höher einzustufen als andere. Durch Personalisierung wird der Nutzer zum Mitverfasser der Ergebnisse. Dadurch wurde die Schuld verteilt und Suchmaschinen aus der Verantwortung entlassen (Rogers 2009). Wir beobachten gerade eine „algorithmische Konzentration“, bei der große Plattformen ähnliche Algorithmen auf Grundlage der Personalisierung verwenden. Tatsächlich wurde ein weitergehender Branchentrend ausgelöst: Social Media Plattformen personalisieren ebenso wie Streaming-Services (z. B. Spotify und Netflix) oder Bewertungsplattformen für Geschäftsbetriebe (z. B. Yelp).

Immer häufiger werden Stimmen laut, die den Suchmaschinen und Social Media Plattformen Diskriminierung vorwerfen. Wie kommt es dazu?

Richard Rogers: Viele aktuelle Arbeiten zeigen, wie Suchmaschinen und Plattformen automatisch anstößige Verbindungen herstellen. Bei Google-Suchen nach afroamerikanischen Namen bekam man Serviceanzeigen für strafrechtliche Hintergrundchecks angezeigt (Sweeney, 2013). Die Google-Funktion für automatische Vorschläge zeigt Vorurteile gegen Minderheiten (Noble, 2018). Frühere Forschung belegte Preislenkung und Diskriminierung auf erfolgreichen E-Commerce-Seiten (beispielsweise Orbitz für Flugbuchungen) ausgehend von der Nutzung bestimmter Browser. Dabei wurden Safari-Nutzern für dieselben Flüge höhere Preise angezeigt (Hannak et al., 2014).

Hier geht es um die „Befangenheit von Suchmaschinen“ oder darum, wie automatisiertes Lernen aus unstrukturierten Webdaten gesellschaftliche Vorurteile sichtbar macht und weiter verstärkt. Anders gesagt: Algorithmen machen gesellschaftliche Strukturen transparent, sind jedoch selbst nicht transparent. Ausgehend davon kamen Lernkorpora auf den Prüfstand. Korpora, die dazu verwendet werden, einer Suchmaschine etwas beizubringen, „naturalisieren“ Diskriminierung. Das wirft die Frage nach dem Einsatz alternativer Korpora auf, die zu sozial nützlicheren Empfehlungen führen würden.

Begünstigen algorithmisch Systeme die Verbreitung von Desinformation?

Richard Rogers: Die Debatte um die Verbreitung von Fake News zeigt, wie bestimmte „web-native“ Methoden manche Inhalte sichtbarer machen können -  z.B. russische Einflusskampagnen auf Facebook oder „Mikroberühmtheiten“ der „Alt-Right“ auf YouTube und Twitter. Die Plattformen berichteten zunächst nur über geringe Fallzahlen. Jüngere Erkenntnisse deuten allerdings auf Millionen von „Fakes“ und unzulässigen Facebookseiten hin, die täglich gelöscht werden. Nach der Affäre um Cambridge Analytica legte Facebook jedoch öffentlich verfügbare Datenquellen für Wissenschaftler still. Die Verbreitung von „Fake News“ kann so nur schwer nachvollzogen werden.

Wie kann die Verbreitung von Desinformation durch algorithmischen Systeme erforscht werden? Was halten Sie z.B. von der Initiative „Social Science One“, an der sich Facebook beteiligt?

Richard Rogers: Bei „Social Science One“ werden Wissenschaftlern nach Überprüfung durch Anwälte von Facebook Datensätze zur Verfügung gestellt. Der erste Datensatz, der veröffentlicht wurde, enthielt sämtliche URLs, die im Zeitraum von einem Jahr auf Facebook gepostet wurden. Mit ihnen sollte Desinformation untersucht werden, besonders in Bezug auf Wahlen. Ein nobles Ziel angesichts des Debakels um Fake-News. Allerdings gibt es bislang keine Pläne dazu, die URLs mit den Facebook-Seiten zu verknüpfen, von denen sie in Umlauf gebracht wurden. Dadurch ist es unmöglich, abzuschätzen, wo auf Facebook besonders besorgniserregende Quellen gepostet wurden.

Transparenz ist eine häufige Forderung, wenn es um die Sichtbarkeit von Inhalten auf Suchmaschinen und Social Media geht – konkret die Transparenz von Such- und Empfehlungsalgorithmen.
Wie kann die Arbeitsweise der Algorithmen transparent gemacht werden?

Richard Rogers: Auf der Ebene der Schnittstelle gab es erste Ansätze von Google, die Auswirkungen von Algorithmen offenzulegen. Als die ersten personalisierten Ergebnisse im März 2010 eingeführt wurden, konnte man tatsächlich „Personalisierung anzeigen“ aktivieren. Dadurch wurden personalisierte Ergebnisse kenntlich gemacht und auch die Anzeige nicht personalisierter Ergebnisse war möglich. Solche Kommunikationsmethoden könnten als Alternative oder Zusatz zu „Präferenzen“ dienen, wo Nutzer beispielsweise entscheiden, was am Frontend veröffentlicht wird, ohne zu wissen, welche Informationen am Backend preisgegeben werden (z. B. an Werbekunden).

Auch Audits für Algorithmen wurden als Mittel vorgestellt, um Suchmaschinen und Plattformen verstärkt zur Verantwortung zu ziehen. Mithilfe von „Testnutzern“, Data Scraping sowie direkten Zugang zu den Algorithmen selbst soll geprüft werden, „ob Algorithmen zu schädigender Diskriminierung anhand von Klasse, Rasse, Geschlecht, Geographie oder sonstigen Eigenschaften führen“ (Sandvig et al., 2014: 6). Die ersten beiden Vorschläge verstoßen gegen Nutzungsbedingungen. Gegen den dritten Vorschlag wird eingewandt, dass Algorithmen mit Geschäftsmodellen verbunden sind und Sorge besteht, dass Transparenz zu verfälschten oder optimierten Ergebnissen führen könnte. Dennoch ist es vorstellbar, eine „API für APIs“ mit Testnutzern und vorgespeicherten Anfragen zu konstruieren, die Social Media im Lauf der Zeit kollektiv überwachen, Ergebnisse sammeln und sie gegenüberstellen.

Anstelle von Transparenz reden Sie auch über Beobachtbarkeit von Algorithmen, also über die Möglichkeit, die Auswirkungen von algorithmischen Systemen einzuschätzen, ohne die Arbeitsweise der Algorithmen selbst im Detail zu kennen.
Wie kann uns Beobachtbarkeit als Ansatz helfen, die Arbeit der Algorithmen besser zu verstehen?

Richard Rogers: Zuerst will ich festhalten, dass die Diagnoseverfahren, die eine Beobachtbarkeit anstreben, keine Rekonstruktion von Algorithmen (reverse engineering) oder ein Eingreifen in Handelsgeheimnisse bedeuten. Das diagnostische Sondieren von Algorithmen per Schnittstelle und unter realen Bedingungen würde die Untersuchung von Hierarchien der „Wahrheit“ durch eine Kritik bevorzugter Quellen ermöglichen. Es wäre möglich, marktbezogene (Un-)Gerechtigkeit, Gruppendiskriminierung und sonstige schädliche Inhalte zu untersuchen, indem die Sichtbarkeit von Unternehmen und Produkten verglichen wird, indem rassenbezogene und andere Verknüpfungen zwischen Anfragen und Werbeanzeigen aufgezeigt werden oder indem die Verbreitung von Schimpfwörtern oder Hassrede ermittelt wird. Man könnte außerdem aufzeigen, wie bestimmte Stimmen (Alt-Right und Fake News) web-native Formate ausnutzen.

Besonders die Facebook-Initiative „Social Science One“, aber auch andere, vergleichbare Systeme für Datenzugang, tendieren dazu, die Forschung in eine eher unkritische Richtung zu lenken. Für den Zweck der Beobachtbarkeit wären Werkzeuge besser geeignet, mit denen die Kulturen von Bevorzugung, Ranking und Empfehlungen beobachtet und dokumentiert werden können.

Prof. Dr. Richard Rogers ist Leiter des Lehrstuhls für Neue Medien und Digitale Kultur an der Universität Amsterdam. Zudem ist er Direktor der Govcom.org Stiftung und der Digital Methods Initiative. Seine Forschungsschwerpunkte sind digitale Forschungsdesigns, Infotools und Webkulturen.

Bild: Sebastiaan ter Burg auf Flickr, cc-by-2.0 (Ausschnitt)

Zitierte Quellen

Feuz, Martin, Matthew Fuller und Felix Stalder (2011). “Personal Web searching in the age of semantic capitalism: Diagnosing the mechanisms of personalisation,” First Monday. 16(2), http://ojphi.org/ojs/index.php/fm/article/view/3344.

Hannak, Aniko, Gary Soeller, David Lazer, Alan Mislove und Christo Wilson (2014). “Measuring Price Discrimination and Steering on E-commerce Web Sites,” Proceedings of the 2014 Conference on Internet Measurement Conference, November 5-7, 2014, Vancouver, BC, Canada.

Hindman, Matthew, Kostas Tsioutsiouliklis und Judy A. Johnson (2003). “Googlearchy: How a Few Heavily‐Linked Sites Dominate Politics on the Web,” Paper presented at the annual meeting of the Midwest Political Science Association.

Krafft, Tobias D. und Katharina A. Zweig (2018). “Wie Gesellschaft algorithmischen Entscheidungen auf den Zahn fühlen kann,” in Mohabbat Kar, Resa, Basanta Thapa und Peter Parycek (Hrsg.), (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft. Berlin: Fraunhofer-Institut für Offene Kommunikationssysteme, Kompetenzzentrum Öffentliche IT, 471-492.

Noble, Safiya Umoja (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: New York University Press.

Pariser, Eli (2011). The Filter Bubble. New York: Penguin.

Rogers, Richard (2009). “The Googlization Question: Towards the Inculpable Engine?” in Stalder, Felix und Konrad Becker (Hrsg.), Deep Search: The Politics of the Search beyond Google. Edison, NJ: Transaction Publishers, 173–184.

Sandvig, Christian, Kevin Hamilton, Karrie Karahalios, und Cedric Langbort (2014). “Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms,” Paper presented at Annual Meeting of the International Communication Association, Seattle, WA.

Sweeney, Latanya (2013). “Discrimination in Online Ad Delivery,” Communications of the ACM. 56(5): 44–54.

Erschienen am: 15.11.2019

<< Zurück zur Übersicht

Cookies ermöglichen eine bestmögliche Bereitstellung unseres Online-Angebots. Mit der Nutzung der Internetseite www.mabb.de erklären Sie sich damit einverstanden, dass Cookies verwendet werden.