Was ist eigentlich Roboterjournalismus?
Noch sehen wir nur Ansätze, aber durch die technologische und ökonomische Entwicklung werden Algorithmen auch im Journalismus immer stärker verwendet. Sie könnten das Internet zumüllen und manipulieren – oder aber die journalistische Qualität heben.
von Lorenz Matzat
Auch das noch: ein weiterer Journalismusbegriff. Nach Daten-, Drohnen- und Sensorjournalismus kommt jetzt auch noch Roboterjournalismus. Hierbei dreht es sich um Software, die in Teilbereichen des Journalismus selbstständig Artikel und Berichte erstellt. Vornehmlich wird er im Nachrichtenjournalismus, also der Berichterstattung stattfinden – und nicht bei Analyse, Kommentar, Interview und Investigation. Bislang geschieht solcherlei nur experimentell, etwa bei Forbes (s. Artikel von Stefan Mey auf Seite 65). Doch bis 2020 dürften nicht wenige Jobs im Journalismus von Maschinen erledigt werden.
Warum dem so ist, will ich hier darstellen. Man mag sich streiten, ob Roboterjournalismus als Begriff taugt. Angesichts einer bislang mangelnden Alternative wird er hier für Algorithmen-Maschinen verwendet, die komplizierte Arbeitsschritte zu einem gewissen Grad autark erledigen können.
Roboter als Assistent
In der ersten Phase werden Roboter redaktionelle Assistenz leisten: Bei automatisierter Recherche, bei der Faktenüberprüfung, beim Scannen von Social Media und Sensornetzwerken; beim Mitlesen, -hören, -schauen von Websites, Radio- und TV-Sendern. Entsprechend werden sie in den Redaktionssys-temen Gerüste für Beiträge anlegen, die schon Fakten, Satzbausteine, Zitate und Links enthalten. Denkbar ist auch, dass während ein Autor an einem Beitrag arbeitet, Software das bislang Verfasste interpretiert und entsprechend ständig weiteres Material sowie Satzbausteine heranschafft. Software wird zudem auch Bilder vorschlagen, schlichte Diagramme erstellen, Karten- und Videoausschnitte bereitstellen. Ein weiteres Einsatzgebiet dieser Assistenz werden Live-Ticker und Plattformen wie der Twitter-Sammeldienst Storify sein.
Nachrichtenagenturen liefern ihre Texte schon heute recht strukturiert aus, zum Beispiel als NewsML* (siehe Glossar). Diese Inhalte zuzuschneiden und in ein Redaktionssystem einzupassen, ist technisch einfach, weil inhaltlich gar nichts erfasst werden muss. Das allein wäre schlicht Automatenjournalismus. Doch auch die Spracherkennung wird immer besser – man schaue sich die automatisierte Untertitelung englischer Beiträge bei Youtube an. Politikerreden bei Phoenix, im Bundestag-TV oder andere Streams auszuwerten, kann Software übernehmen. Mittels semantischer Verfahren, dem Vergleich mit anderen Reden aus Archiven, aber auch durch Auswertung der Resonanz in sozialen Netzwerken wird Software die Kernaussagen von Reden identifizieren. Damit ließe sich der weitverbreitete »Verlautbarungsjournalismus« automatisieren, der mehr oder minder unhinterfragt Ausschnitte aus Pressekonferenzen wiedergibt.
Die zweite Phase im Roboterjournalismus wird dann eintreten, wenn die semantischen Fähigkeiten der Algorithmen so weit gediehen sind, dass sie in brauchbarer Qualität Beiträge für eine Vielzahl von Themenbereichen erzeugen können. Die kontrolliert dann noch ein Mensch vor Veröffentlichung und greift gegebenenfalls sprachlich etwas ein. Je mehr Informationen über Schnittstellen daherkommen, je mehr Vorgänge gemessen und beschrieben werden, umso mehr Bereiche der Berichterstattung werden sich automatisieren lassen. Und die Software wird immer besser werden, weil sie lernt. Es wird nicht zum vielgerühmten Qualitätsjournalismus per Roboter kommen; aber für das, was heute im alltäglichen Nachrichtengeschehen als Journalismus gilt, wird es allemal reichen.
Inhalte on the Fly
Der Clou am Roboterjournalismus ist, dass er Inhalte on the fly* erzeugen und ständig aktualisieren kann. Eine Individualisierung von Nachrichten wird so auf einem völlig anderen Niveau möglich. Nutzer erhalten anhand ihrer Schwerpunktsetzung auf ihre Hausnummer genau zugeschnittene Nachrichten. Ratsinformationssysteme ihrer Gemeinde, Pressemitteilungen, Agenturticker, Sportergebnisse, Terminkalender, Transkription von Radio, Fernseh- und Videobeiträgen, Wetter- und Verkehrssensoren in ihrer Umgebung und weitere Quellen werden dafür ausgewertet. Anhand dessen werden kurze Berichte verfasst und gegebenenfalls illustriert. Durch Sprachsynthese sind auch Podcasts möglich. Solche Audiostücke können wiederum automatisiert mit Bewegtbild, Fotos und Grafiken zu Videos zusammengeschnitten werden.
Bislang fehlen hierzulande noch die Softwareanbieter, die Roboterjournalisten zur Marktreife gebracht hätten. Im englischsprachigen Raum sind »Narrative Science« und »Automated Insights« in diesem Bereich unterwegs. Auch im deutschsprachigen Raum dürfte es bald Anbieter von solcher Software geben; die Technologie ist zumindest in Ansätzen vorhanden, etwa im Bereich der »Business Intelligence« oder bei Kanzleisystemen. Die Qualität der Roboterjournalisten-Software – der »engine«, die sich ein Medienanbieter leistet oder selbst entwickelt – wird ein Kriterium sein, welche Rolle er im Nachrichtenbereich spielen wird. Neben Anbietern von Technologieplattformen dürften sich hier auch neue Player etablieren, die keinen klassischen Verlag im Rücken haben. Ebenso können Medienmarken aus anderen Sprachräumen mittels Roboterjournalisten Sprachbarrieren einfacher überwinden.
Hinter dem Hype
Rein betriebswirtschaftlich wird sich das Ganze ab einem bestimmten Preis lohnen. Impuls könnte dafür hierzulande nicht zuletzt auch der Mindestlohn sein, weil sich in der ohnehin klammen Branche die Anschaffung von Roboterjournalisten-Software lohnt. Eine neue Stufe der Automatisierung durch Algorithmen und Roboter ist selbstredend nicht auf den Journalismus beschränkt; vielmehr wird dieser Wandel viele Branchen erfassen.
Manche werden das Gerede vom Roboterjournalismus als Technologieoptimismus oder -pessimismus abtun. Klar, Robotik ist ein Hype – spätestens seit das IT-Unternehmen Google in jüngster Zeit reihenweise Robotik-Unternehmen kauft. Doch Trends und Hypes sind nicht per se schlecht oder fabriziert; sie können versanden, können aber auch berechtigter Ausdruck des Zeitgeistes sein und manchmal auf einen epochalen Umbruch hindeuten.
Mehr und mehr integrieren sich Redaktion und IT; vor allem wenn das Medium rein digital erscheint. Entwickler und Programmierer erhalten Einzug in die Redaktionsräume – das wird auf Dauer die Kultur in Redaktionen ändern (s. Seite 44: Schwerpunkt zu journalistischen Kooperationen). Programmierer haben meist ein recht pragmatisches Verhältnis zu Informationen, und ihre Aufgabe ist es, Arbeit durch Softwaremaschinen erledigen zu lassen. Und wer je in einer Redaktion gearbeitet hat, dem dürften etliche Arbeitsschritte und Routineaufgaben einfallen, die sich dort noch automatisieren lassen könnten. Constanze Kurz und Frank Rieger schreiben im Epilog ihres Buches »Arbeitsfrei«: »Je weniger spezielle Talente und Fähigkeiten ein Arbeitsplatz erfordert, je besser sich Resultate messen, analysieren und quantifizieren lassen, desto direkter und unmittelbarer ist der Wettlauf mit den Maschinen«.
Apropos: »Race against the machine« hieß ein dünnes Büchlein, das Erik Brynjolfsson und Andrew McAfee vor gut zwei Jahren veröffentlichten. Ende 2013 haben die Ökonomen vom MIT ein weiteres Buch nachgelegt: »The Second Machine Age«. Man muss ihre doch sehr technologie-positivistische Sicht nicht teilen, die gesellschaftliche und soziale Fragen lediglich oberflächlich streift. Dennoch ist die Herleitung lesenswert, weshalb sie eine »zweite Industrialisierung« heraufdämmern sehen. Ihrer Meinung nach ist die Geschwindigkeit, in der die Digitalisierung dank immer besserer und günstigerer Technologie voranschreitet, schneller als weitläufig angenommen. Die Kombination aus Forschung und Entwicklung in verwandten Gebieten sei im Begriff, durch ihre Synergie einen Technologieschub auszulösen. Vielleicht ist die Google-Street-View-Technologie, die – weil sie unscharfe Hausnummern erkennen muss – mittlerweile fast fehlerfrei Texterkennungs-Aufgaben (Captchas) löst, ein Indiz für diese These.
Das Internet der Dinge
Roboterjournalismus wäre uninteressant, wenn er nur dazu dienen könnte, Sportergebnisse zu verschriftlichen. Doch immer mehr Informationen liegen strukturiert vor oder werden in solche Form umgewandelt. Roboterjournalisten können direkt an das sagenumwobene »semantische Netz«* andocken, mit dem man in der Informatik die Verbindung von Begriffen bezeichnet – siehe das Wikidata-Projekt.
Die unter Obhut des deutschen Wikimedia-Vereins entwickelte Datenbank sammelt Daten in maschinenlesbarer Form, sodass sie von anderen Systemen leicht weiterverwendet werden können. Wikidata wurde vor allem für die Wikipedia entwickelt. Dort kann die Datenbank beispielsweise dabei helfen, Angaben über die Einwohnerzahlen von Ländern zwischen verschiedenen Sprachversionen und Artikeln abzugleichen. Ein weiteres Beispiel ist das Vorhaben der BBC, ihre Inhalte granular, also sehr kleinteilig veröffentlichen zu können. Zudem wächst das »Internet der Dinge« heran – vielleicht viel langsamer und organischer, als die regelmäßigen Hype-Runden glauben machen wollen.
Unstrittig ist, dass die Zahl der Sensoren und mit dem Internet verbundenen Geräte stetig enorm steigt. Roboterjournalisten können jede Regung und jeden Vorgang in dem entstehenden massiven Sensornetzwerk registrieren und gegebenenfalls beschreiben. Sie werden aus Bereichen berichten können, die Menschen gar nicht zugänglich sind. Vielleicht entstehen hier sogar neue journalistische Genres.
Kampf der Algorithmen
Selbstredend birgt – wie jede Technologie – auch Roboterjournalismus Gefahren und kann missbraucht werden. Das große Vorbild »Narrative Science« wird von einem Venture-Capital-Arm des US-Geheimdienstes CIA mitfinanziert. Die deutsche Firma Aexea verdient ihr Geld unter anderem mit Suchmaschinenoptimierung (SEO) und dürfte ihre Technologie ursprünglich auch in diesem Bereich entwickelt haben. SEO ist letztlich ein spezieller Bereich der Werbewirtschaft, der mit lauteren oder unlauteren Mitteln die Position von Websites bei den Ergebnissen von Suchmaschinen beeinflusst oder manipuliert. Hier herrscht ein ständiger Kampf der Algorithmen von Google und Co. mit denen der SEO-Firmen, die teilweise auf automatisch generierte Inhalte für »Linkfarmen« setzen oder auf halbautomatische Prozesse wie bei den Plattformen des Unternehmens »Demand Media«.
Das heißt: Die Methoden des Roboterjournalismus könnten beispielsweise eingesetzt werden, um eine automatisierte Schleife zum Fact-Checking für Beiträge vor Veröffentlichung zu haben; sie könnten helfen, die Qualität zu heben. Sie könnten andererseits auch dazu dienen, das Internet zuzumüllen oder gar systematisch und anhaltend Fakten zu verzerren oder weitflächig zu manipulieren. Etwa durch koordiniertes und nimmermüdes Bearbeiten der Wikipedia auch über Sprachräume hinweg.
Neben den Auswirkungen der Roboter auf den Arbeitsmarkt nicht nur der Journalisten – denen sich Gewerkschaften und Politik beginnen sollten zu widmen – braucht es auch andere Vereinbarungen, die die Inhalte betreffen. Der Presse-Kodex könnte Maßstab für die Modellierung der Algorithmen sein, die unmittelbar für das Erstellen und Anreichern von Texten zuständig sind. Vielleicht gäbe es dann auch ein Zertifikat oder eine Clearingstelle für Roboterjournalismus-Software, die ihr ein journalistisches Verfahren bescheinigt, wenn nicht sogar einen Presseausweis ausstellt.
Glossar
NewsML
Datenformat zur Nachrichtenübertragung; strukturiert Elemente wie Text-, Foto-, Video- und Metainformationen und macht sie maschinenlesbar
on the fly
simultane Erzeugung von Inhalten, zum Beispiel bei Javascript
Scraping
Daten sind im Internet häufig auf verschiedene Quellen verteilt oder lassen sich nur schwer herunterladen und verarbeiten. Beim »Scraping« werden sie mithilfe eines Programmes ausgelesen
Semantisches Netz
eine Technik, mit der man Begriffe verknüpft darstellt; Form der digitalen Wissensrepräsentation
Text unter Lizenz CC-BY-SA
Kommentar hinterlassen