MediaPolicyLab Grafik-aufRot-05
MediaPolicyLab Grafik-aufRot-06

#digidemos 2017: Kongress zu Digitalisierung und Demokratie

Auf der letztjährigen #digidemos, einem Kongress zu Digitalisierung und Demokratie, ging es am 20. Juni in Berlin insbesondere um die Aspekte Demokratie, Öffentlichkeit und Arbeit in einer digitalisierten Gesellschaft. Auch neue Formen der gesellschaftlichen Verständigung und Teilhabe wurden von über 50 Referentinnen und Referenten auf neun parallelen Fachforen unter Anwesenheit von 400 Teilnehmerinnen und Teilnehmern thematisiert.

© Gerngross Glowinski Fotografen

Ein Programmpunkt der von der Friedrich-Ebert-Stiftung organisierten Veranstaltung bildete das Panel „Algorithmisierte Öffentlichkeit und Werte“, zu dem Nele Heise (wissenschaftliche Mitarbeiterin am Institut für Journalistik und Kommunikationswissenschaften an der Universität Hamburg), Dr. Anja Zimmer (Direktorin der Medienanstalt Berlin-Brandenburg) und Peter Welcherling (Journalist) eingeladen wurden. Moderiert wurde das Panel von der freien Journalistin, Autorin und Redakteurin Christine Watty.

Die Diskussion hatte die algorithmisierte Öffentlichkeit zum Gegenstand, in der künstliche Intelligenz sowohl unsere Entscheidungsfindung als auch Medienvielfalt und redaktionelle Standards (mit-)bestimmt. Gemeinsam gingen die Panelteilnehmer der Frage nach, welche Werte unsere Gesellschaft Öffentlichkeit zugrunde legen will und welche Reaktionen damit im digitalen Zeitalter einhergehen müssen.

Die komplette Paneldiskussion mit Frau Heise, Frau Dr. Zimmer und Herrn Welcherling auf der #digidemos 2017 zum Thema „Algorithmisierte Öffentlichkeit“ sehen Sie hier:

 

In diesem Zusammenhang hat Frau Dr. Anja Zimmer einen Aufsatz zur „automatisierten Öffentlichkeit“ verfasst:

Die automatisierte Öffentlichkeit: Warum wir Medienvielfalt neu denken müssen.

Medienvielfalt ist für eine lebendige politische Öffentlichkeit unabdingbar, sie ist ohne kritischen Journalismus und Medien, die sich publizistischen Wettbewerb liefern, nicht denkbar. Journalistische Angebote brauchen eine sichere Finanzierungsgrundlage und Auffindbarkeit. Wie wir dies auch in Zukunft erhalten, wird eine der wichtigsten Fragen für die Medienregulierung sein. Gesetzgeber, Medienanstalten und Wissenschaft müssen dazu gemeinsam neue Ansätze entwickeln.

Öffentlichkeit ändert sich in der digitalen Gesellschaft rasant: Das Web 2.0 war für viele Menschen Synonym für die dezentrale, offene und partizipative Kultur des Internets. Eine neue, möglicherweise demokratische Öffentlichkeit war die Hoffnung. Heute müssen wir uns stattdessen mit grundlegenden Fragen und Herausforderungen an die Gesellschaft, die Politik und die Regulierung auseinandersetzen. Zahlreiche Debatten beschäftigen sich mit der Frage, was wir gegen die Zunahme von „Hate Speech“ tun können oder wie wir mit „Fake News“ umgehen sollen. Kontrovers diskutiert wird zudem, wer eigentlich bestimmt oder bestimmen sollte, was Nutzerinnen und Nutzer im Internet zu sehen und zu hören bekommen, welche Informationsangebote ihnen gemacht werden.

Ein Begriff steht dabei mitten im Raum: Algorithmen. Und die Frage, welche Rolle sie im Zusammenhang der Meinungsbildung und Meinungsvielfalt einnehmen. Denn algorithmische Entscheidungssysteme übernehmen in unserem Alltag inzwischen unterschiedliche Funktionen: Von Mechanismen des Finanzmarkts und selbstfahrenden Autos bis hin zur Partnerwahl – wir leben zunehmend in einer automatisierten Öffentlichkeit, in der Algorithmen unsere Entscheidungen und eben unsere Meinung beeinflussen können. Wie genau Unternehmen wie Facebook, Twitter oder Google – sogenannte Informationsintermediäre – Algorithmen einsetzen, bleibt in ihren Geschäftsgeheimnissen verborgen. Und das ist auch in gewisser Weise verständlich, denn es ist ihr Kapital. Intermediäre sammeln persönliche Daten der Nutzerinnen und Nutzer, akkumulieren die Daten und analysieren sie auf Basis zugrunde liegender Algorithmen. Diese Algorithmen verbessern sich fortlaufend anhand der Datenströme. Außerdem entwickeln sie sich durch künstliche Intelligenz selbst weiter und können so eine Komplexität erreichen, die nach eigenen Aussagen selbst innerhalb der IT-Konzerne mitunter überrascht.

All das verändert unser Leben nicht nur auf individueller Ebene, sondern auch im gesellschaftlichen Zusammenspiel, z. B. wenn unser persönliches Handeln durch Algorithmen inspiriert, bewertet oder vorselektiert wird. Und wie so oft stehen Medien und Mediennutzung im Fokus dieser Entwicklungen.

Intermediäre treffen keine redaktionellen Entscheidungen… beeinflussen können sie dennoch

Zweifelsfrei entsteht durch das Angebot der Informationsintermediäre quantitativ mehr Vielfalt durch neue journalistische Angebote, durch User Generated Content und Informationsaustausch in eigenen Netzwerken. Und ohne algorithmische Entscheidungssysteme könnten wir die Flut an Informationen nicht bewältigen, wäre Vielfalt nicht denkbar. Informationsintermediäre beeinflussen aber auch, welche Themen wir wahrnehmen, welche Reichweite Informationen erhalten und welche Medien in unserem Kommunikationsmix noch vorkommen.

Das stellt neue Herausforderungen an die Vielfaltssicherung. Umso mehr, da die Unternehmen, die im Internet als Mittler zwischen Inhalteanbieter und Nutzer fungieren, in der Regel über eine beachtliche Marktmacht verfügen, die durch Netzwerk- und Lock-in-Effekte sowie den Zugriff auf enorme Datenmengen noch vergrößert wird.

Und auch, wenn die Intermediäre keine redaktionellen Entscheidungen treffen und eben nicht an die Stelle etablierter Medienhäuser treten, so sind sie längst keine neutralen Technikplattformen mehr: Durch ihre technische Funktionsweise und unternehmerischen Eigeninteressen nehmen sie einen Einfluss auf die Mediennutzung und damit auf die Meinungsbildung der Nutzerinnen und Nutzer.

Zwar spricht derzeit nichts für eine gezielte politische Beeinflussung der Öffentlichkeit durch Informationsintermediäre, dies wäre ihrem Geschäftsmodell auch wenig dienlich. Um möglichst große Gewinne zu erzielen, brauchen sie aber Aufmerksamkeit – neben Daten die Währung in der digitalen Marktwirtschaft. Dazu müssen Nutzer möglichst lange auf ihren Plattformen gehalten werden. Gut ist dementsprechend, was Nutzern gefällt, besser noch, was sie interagieren lässt. Entsprechende Inhalte können durch algorithmische Personalisierung gewinnbringend platziert werden. Ob das nun hochwertige journalistische Angebote sind oder Fake News, spielt dabei bisher keine große Rolle.

Eine derzeit in weiten Teilen noch ungeklärte Frage ist, wie sich der Medienkonsum entwickelt, wie genau sich das auf einzelne Menschen, verschiedene Gruppen oder ganze Gesellschaften auswirkt. Erste Studien zeigen, dass junge Menschen Informationsintermediäre zunehmend als wichtige oder sogar einzige Quelle für Nachrichten nutzen. Gleichzeitig zeigt sich in sozialen Netzwerken Potenzial für eine verstärkte Polarisierung, durch die sich z. B. die Wahrnehmung des Meinungsklimas verändert und Medienhypes verstärkt werden können. Entsprechende Effekte sind in manchen Bevölkerungsgruppen deutlicher nachweisbar als in anderen.

Und auch wenn das Informationsrepertoire in Deutschland aktuell noch breit ist, dürfen die Gefahren für die Meinungsbildung nicht unterschätzt werden. Reicht es tatsächlich aus, Meinungsvielfalt eher statisch und linear zu definieren oder kommt es vielleicht stärker auf die tatsächliche Nutzung an? Solche Fragen müssen bald beantwortet werden, denn der Schutz der Meinungsvielfalt kann nur im Vorfeld erfolgen. Ist sie einmal beschädigt, kann sie kaum wiederhergestellt werden. Deswegen ist es so wichtig, jetzt zu handeln.

Gemeinsam neue Ansätze entwickeln – Ideen für eine moderne Regulierung

Wir sind uns einig: Algorithmen sind aus unserer Informationslandschaft längst nicht mehr wegzudenken. Sie haben viele positive Eigenschaften und unterstützen uns bei der Nutzung von Medien dabei, die Informationsflut zu überblicken. Ziel kann also nicht ihre Abschaffung sein. Wir müssen uns darüber Gedanken machen, welche Prinzipien in einer freiheitlichen, demokratischen und rechtsstaatlichen Gesellschaft für algorithmische Entscheidungsmacht gelten sollen. Wie können wir Medien- und Meinungsvielfalt erhalten, wie die Autonomie des Individuums im Umgang mit Algorithmen stärken? Auf diese Fragen gibt es keine einfachen Antworten, aber erste Ansatzpunkte:

Zunächst bedarf es einer gezielten Transparenz. Dabei kann es nicht darum gehen, dass Such- und Empfehlungsfunktionen ihre Algorithmen offenlegen, da sie dann ihre Aufgabe nicht mehr erfüllen könnten. Plattformen müssten aber zumindest über ihre eigene Rolle Transparenz schaffen, indem sie z. B. in einer Selbstdeklaration ihre Werte und Leitprinzipien veröffentlichen. Sie können dann an ihren eigenen Aussagen gemessen werden. Genauso wichtig ist, dass Wissenschaft und Medienaufsicht Einblick in Daten erhalten, um z. B. die Kriterien und Mechanismen von algorithmischen Entscheidungsinstanzen, die unsere Medienvielfalt beeinflussen, nachvollziehen zu können. Denn Erkenntnisse sind immer nur so gut, wie die Datenlage es zulässt. Daran mangelt es derzeit gravierend.

Einigkeit besteht zudem, Diskriminierungsfreiheit zu sichern. Was aber heißt das genau? In Zeiten zunehmender Personalisierung verlangt dies nach neuen Konzepten. Man wird sich leicht darauf verständigen können, dass marktstarke Anbieter ihre eigenen Produkte nicht bevorzugen dürfen. Doch welche Bedeutung kommt z. B. dem Kontext zu? Müssen bei reinen Serviceinformationen andere Relevanzkriterien gelten? Welchen Rang haben journalistische Angebote? Braucht es dazu besonderer Regeln der Auffindbarkeit? Können wir dafür geteilte Wertvorstellungen definieren? Hierüber müssen wir eine gesellschaftliche Debatte führen und Benchmarks entwickeln.

Möglicherweise muss auch die Regulierung künftig stärker technische Mittel einsetzen. So könnte die Wahlfreiheit der Nutzer gestärkt werden, wenn ihnen selbst die Entscheidung überlassen wäre, welche Selektionswerkzeuge sie einsetzen, um Nachrichten zu erhalten oder mit anderen zu interagieren. Auf marktstarken Plattformen bedürfte es dazu z. B. Datenportabilität und offener Schnittstellen für Wettbewerber oder Open-Source-Projekte. Und vielleicht heißt es dann irgendwann „Bring your own algorithm“…

Der Aufsatz steht Ihnen als PDF-Download zur Verfügung:

Erschienen am: 13.12.2017

<< Zurück zur Übersicht

Cookies ermöglichen eine bestmögliche Bereitstellung unseres Online-Angebots. Mit der Nutzung der Internetseite www.mabb.de erklären Sie sich damit einverstanden, dass Cookies verwendet werden.