Algorithmen - Wir übernehmen keine Haftung

Algorithmen bestimmen den Journalismus immer mehr. Subsumiert wird das dann unter dem Begriff Datenjournalismus. Wer aber trägt im Sinne des Presserechts die Verantwortung für jene Informationen, die aus Daten generiert werden?

Algorithmen bestimmen zunehmend die Berichterstattung. dpa/picture alliance
Anzeige

Autoreninfo

Dr. Peter Ludes ist Professor für Massenkommunikation an der Jacobs University in Bremen. Er ist Mitbegründer der Initiative Nachrichtenaufklärung. 

So erreichen Sie Peter Ludes:

Anzeige

Im digitalen Journalismus, wie wir ihn heute kennen, sind immer mehr unsichtbare Hebel in Betrieb. Es geht um Algorithmen. Das sind Computerprogramme, die mit ihren Berechnungsergebnissen unsere Wahrnehmung verändern können. Sie erfassen, archivieren und werten berechenbare Muster in großen Datenbeständen aus – und setzen so neue Prioritäten. Nicht algorithmisch erfassbare Wahrnehmungsbereiche werden „ausgeblendet“, weil sie (noch) nicht berechenbar sind. Informatiker „modellieren“ also soziale Beziehungen, obwohl sie für Journalismus oder zivilbürgerliche Praxis oft keine besondere Expertise haben. 

Das „netzwerk recherche“ diskutierte diese Entwicklungen bereits 2015 auf seiner Jahrestagung und wird sie auch 2016 problematisieren. In deutschen Tageszeitungen erscheinen seit einigen Jahren hierzu Artikel. Andrian Kreye beschrieb Algorithmen in der Süddeutschen Zeitung als neue Weltsprache: „Wenn aber Algorithmen in der Welt der Maschinen die Sprache der Entscheidungen bilden, tut eine Gesellschaft gut daran, sich mit ihr zu beschäftigten.“

Niemand trägt die Verantwortung

Eigentumsverhältnisse, gesetzliche Kontrollen und technische Ausstattung bestimmen die Entwicklung von Algorithmen. Wie viele Arbeitskräfte in welchen Labors zusammenwirken und wie kompetent die Informatiker sind, wie viel Zeit und Rechenkapazität ihnen zur Verfügung steht, in welchem Rahmen und Kontext sie forschen, das prägt ihre Erkenntnisse und deren Verwertung.

Unklar ist, wer hier verantwortlich ist. Bei den traditionellen Medien gibt es eine Verantwortungspflicht im Presserecht. Diese Pflicht wird aber verdunkelt, wenn multinationale Unternehmen ihre Erkenntnisse als „Betriebsgeheimnisse“ deklarieren. Pflichten zur Transparenz der Herkunft und Zuverlässigkeit von Informationen werden für die immer wichtiger werdende Algorithmisierung von Informationen verletzt. Allerdings könnten die Datengrundlagen entsprechend überprüft werden – in Kooperation von Informatikern mit anderen Experten. 

Massiver Wettbewerbsvorteil für Suchmaschinenanbieter

Traditionelle Medienunternehmen – aber auch z.B. die Herstellung und der Vertrieb von Arznei- oder Nahrungsmitteln – werden weitaus stärker kontrolliert als die Entwicklung und der Einsatz von Algorithmen. Dieser öffentliche Kontrollverlust ist ein weiterer (illegitimer) Wettbewerbsvorteil globaler Suchmaschinen oder Social Media gegenüber den Massenmedien. Sie können sich so exorbitante Unternehmensgewinne sichern –  Steuerflucht oder die Unterdrückung von Konkurrenz durch Google und Konsorten noch gar nicht eingerechnet.

Die unzureichende Produkthaftung aber ist gesamtgesellschaftlich verantwortungslos. Multinationale Weltunternehmen oder Geheimdienste finanzieren historisch neuartige Institute für Künstliche Intelligenz. In diesen Instituten werden für Profit- und Überwachungszwecke nützliche Algorithmen erarbeitet. Sie bleiben wegen der Höhe und Komplexität der Investitionen in große Forschungslabors jenseits der Überprüfbarkeit durch die wesentlich weniger geförderten Informatiker an öffentlich kontrollierbaren Forschungsinstituten. Das ist problematisch, denn:    

Erstens, sind Algorithmen geprägt durch Klassifikationen und Rangordnungen in den zur Verfügung stehenden Datensets. Indem man sie auf berechenbare Dimensionen reduziert, ohne die übernommenen Kategorien kritisch zu hinterfragen, kann die Verantwortung an Forschungsteams und deren Auftraggeber nur noch schwer zugeordnet werden. So erhielten Frauen in den USA bereits schlechter bezahlte Stellenangebote von Googles Ad Network: Wenn Frauen erkennbar häufiger auf solche Anzeigen klicken, wird das als Muster erkannt und algorithmisch verfestigt.

Fragwürdige Wahlcomputer

Zweitens, bei Wahlmaschinen, die bereits in mehreren Ländern, vor allem den USA und Brasilien eingesetzt werden, gewinnt die Algorithmisierung eine weitere gefährliche Dimension. Das wurde in Deutschland schon vor einigen Jahren kontrovers diskutiert und das Bundesverfassungsgericht entschied einige strittige Punkte. Project Censored betont für die USA: In der Präsidentschaftswahl 2016 werden circa 80 Prozent der Stimmen über veraltete elektronische Wahlmaschinen abgegeben, die durch Software privater Unternehmen programmiert werden. So heißt es im September 2015 in einer Untersuchung des Brennan Center for Justice an der NYU School of Law. Das bedeutet, dass es keine Papierunterlagen mehr gibt und es entfallen damit Möglichkeiten, die Zählung der Stimmen nach traditionellen Maßstäben genau zu überprüfen.

Und ein weiteres Beispiel von Project Censored: Googles Suchalgorithmen für wahlrelevante Informationen können Wahlentscheidungen bisher unentschiedener Wähler beeinflussen, zu 25 Prozent oder mehr. Robert Epstein führte eine entsprechende Untersuchung durch. Ergebnis: Manipulationen durch Suchmaschinen gefährden das US-amerikanische demokratische System möglicherweise bereits seit vielen Jahren. Denn jede zweite Präsidentschaftswahl wurde mit Abständen von unter 7.6 Prozent gewonnen, die Wahl von 2012 mit einem Abstand von nur 3.9 Prozent.

Drittens, Informationen aus Agenturen, Unternehmen, Verbänden, von Regierungen und Parteien, aus PR und SM erregen bereits durch ihre Identifikation, Klassifikation und Zugänglichkeit journalistische Aufmerksamkeit. Bei Abfragen steuert die Rangordnung auch die Berücksichtigung und damit Berichterstattung in schwer durchschaubarer Weise: Im April 2016 erschien ein Artikel in den „Proceedings of the National Academy of Sciences of the United States of America“, der berichtete, wie dramatisch der Einfluss der Rangordnungen von Suchergebnissen auf Konsumentscheidungen und allgemeine Verhaltensweisen sei. US-amerikanische und kanadische Unternehmen gäben mehr als 20 Milliarden US-Dollar jährlich aus, um ihre Produkte an die Spitze von Suchmaschinenresultaten zu bringen. Hochrangierende Links führten zu mehr Klicks und mehr Aufmerksamkeit. Eine neuere Untersuchung von etwa 300 Millionen Klicks bei einer Suchmaschine ergab, dass 91,5 Prozent dieser Klicks auf die erste Seite der Suchergebnisse gingen, davon 32,5 Prozent auf das oberste und 17,6 Prozent das zweitplatzierte Ergebnis.

Algorithmen kaum journalistisch hinterfragt

Diese Entwicklungen bleiben oft im Dunkelfeld journalistischer Aufmerksamkeit. Im Journalismus gibt es nur sehr wenige Experten, die hierzu kompetente Recherchen durchführen könnten und an entsprechende „Betriebsgeheimnisse“ herankommen würden. Die kritischen Teilöffentlichkeiten besonders kompetenter Informatikspezialisten in verschiedenen Foren reichen nicht hin, hier zu umfassender Aufklärung beizutragen. Die oft privatrechtliche, profitorientierte Finanzierung, Organisation und  Nutzung von Algorithmen führt zu interessegeleiteten Verfahren, die durch ihre mathematische Darstellung neutral zu sein scheinen. Die Zusammensetzung entsprechender Arbeitsgruppen berücksichtigt aber sehr selten explizit, intensiv und kontinuierlich anderes Expertenwissen (z.B. das von Journalisten). Zwar gibt es Ansätze, ursprünglich nicht verbalisierte und digitalisierte Berufserfahrungen zu explizieren, in digitale Datensets zu überführen und damit in einigen Dimensionen berechenbar zu machen. Aber solche Versuche sind selten und ihre Erfolge sind gering. 

Die für algorithmische Lösungen zur Verfügung stehenden Daten sind zudem durchgehend und fundamental verzerrt und nicht repräsentativ. Denn sie gründen allein auf digitalisierten geschriebenen Texten oder digitalisierten audio-visuellen (Re-) Präsentationen. Damit werden die anderen Sinne ausgeschlossen. Algorithmen sind deshalb immer großenteils „sinn“los, weil Begreif-, Riech- und Schmeckbares nicht berücksichtigt wird. Vollsinnliche Evidenzen bleiben (noch) jenseits der Algorithmisierung.

Die Ursprünge und Verzerrungen von „Informationen“ mittels oder über Algorithmen sind deshalb genauso zu hinterfragen und zu diskutieren wie Verantwortungspflichten im Sinne des Presserechts oder der Produkthaftung. Klassische Ressorts bedürfen eigener Pendants eines investigativen Journalismus, um bisher scheinbar zuverlässige Quellen in ihren technik- und interessegeleiteten Kontexten aufzuklären. 

Verdrängung kultureller Öffentlichkeit

Wir müssen öffentlich diskutieren, ob „systemrelevante“ Algorithmen in großen Datenbeständen („Big Data“) weiter vollkommen intransparent ausgebaut werden dürfen. Denn das macht prinzipiell wissenschaftliche und journalistische Aufklärung unmöglich. Entsprechend große Arbeitsgruppen können weder durch öffentliche Institutionen noch NGOs finanziert oder organisiert werden.

Globale Konzerne, die Steuern hinterziehen und Wettbewerbschancen für Konkurrenten zu mindern versuchen, haben bereits weite Teile kritischer Öffentlichkeiten ausgeschaltet. Ted Striphas resümierte in seinem Artikel „Algorithmic Culture“ im „European Journal of Cultural Studies“ 2015: „Es geht um nichts weniger als die allmähliche Verdrängung kultureller Öffentlichkeit. Statt ihrer entsteht eine seltsame Mischung von Botschaften („Das Medium ist die Botschaft“) einer neuen Machtelite, die vorgibt, einer mit sich selbst kommunizierenden Gemeinschaft ein neutrales soziales Medium und Forum zu bieten.“  

Wie kann sich eine neue professionelle journalistische Kompetenz zur Aufklärung berechenbarer („algorithmisierter“) Öffentlichkeiten weiter entwickeln? Hierfür müssten Politik, Wirtschaft, Kultur und kritische Öffentlichkeiten zusammenarbeiten, auch in geschlossenen Netzen. Nur dann besteht weiterhin die Chance, demokratische Willensbildung durch einen verantwortungsbewussten Journalismus zu fördern. 
 

Anzeige