Mittwoch, 15. Juli 2015

V CSR: Missbrauch von Roboter-Journalismus in Sozialen Netzwerken


Automatisierte Texte, die durch Algorithmen entstehen, welche in der Lage sind aus enormen Datenmengen journalistische Beiträge zu erstellen, sind mittlerweile Alltag und werden beständig qualitativer, sodass sie mitunter nicht mehr von rein menschlich erzeugten Texten zu unterscheiden sind. Problematisch wird dies, wenn per Bots politische Meinungen, Produktbewertungen und PR automatisiert und vervielfältigt werden. So kann in sozialen Netzwerken bei Verschleierung der automatisierten Produktion, eine erhebliche Beeinflussung der Benutzer stattfinden.


Eigentlich ist die Maschine der beste Volontär, den man haben kann. Sie spricht elf Sprachen derzeit [und] produziert 90 Millionen Texte am Tag, wenn es gewünscht wäre.“ Saim Alkan, Geschäftsführer Aexea.


Roboterjournalismus: Zwischen Hype und Flop
ZAPP, NDR, ARD, 21.05.2015
https://www.youtube.com/watch?v=T4tdYSN5usY





In unserer Reihe zu Finanzierungsmöglichkeiten von Online-Journalismus wurde Roboterjournalismus bereits vorgestellt. Dabei wurde diskutiert, inwiefern automatisierte Texte die Arbeit von Journalisten vereinfacht oder diese gar ersetzt.

Während anfänglich von Algorithmen erstellte Textbausteine vor allem im Bereich der Wetter- und Sportberichterstattung verwendet wurden, sind Entwickler aktuell dabei Roboter-Journalismus enorm auszubauen.

Narrative Science

 

Im Juni interviewte Tim Adams vom Guardian den Mitbegründer von Narrative Science, Kris Hammond. Narrative Science ist eines der führenden Unternehmen im Bereich des Data Storytellings. Die firmeneigene Software Quill wird unter anderem von Forbes verwendet. Hammond ist überzeugt, dass die Software bald mehr kann als nur Sportberichte zu verfassen: “we are humanising the machine and giving it the ability not only to look at data but, based on general ideas of what is important and a close understanding of who the audience is, we are giving it the tools to know how to tell us stories.”

Obwohl Hammond davon ausgeht, dass Data Storytelling als Werkzeug von Journalisten zu verstehen ist, anstatt diese durch Maschinen zu ersetzen, nimmt er an, dass im Jahr 2030 90 Prozent des Journalismus' von Maschinen bewältigt werden wird – keine erfreuliche Prognose für den klassischen Journalisten.

Quill ist in der Lage personalisierte Nachrichten zu bauen, indem beispielsweise Daten zu einem bestimmten Tornado ausgewertet werden und über die Folgeschäden individuell regionalbezogen berichtet wird, sodass eine Gruppe oder gar ein Einzelner die für ihn relevanten Informationen erhält. Folglich entsteht Mikro-Publika mit geringen Kosten.

Andersherum können auch induktiv Beiträge entstehen, welche sämtliche Meinungen über eine Thematik in einem Text zusammenfassen. Je besser Algorithmen ihre Leserschaft analysieren können, z.B. per Analyse persönlicher Verhaltensweisen in sozialen Netzwerken, desto personalisierter können Informationen vertextet werden.  

Zukünftig ist es laut Hammond denkbar, dass Quill Stile wie Ironie und Sarkasmus anwenden kann. Eine solche Ausdrucksart wäre trotzdem aber immer eine Folge einer bewussten Entscheidung, die man dem Algorithmus vermitteln muss:

„We can inject some randomness. But I like to have a trail that says, this is why this is here. We will have quirky and we have had sarcastic. But it has to be the result of a decision; at some point in the system, it has to be as a result, dare I say it, of conscious reasoning. At every point there has to be […]. Likewise, if it is creating two company reports based on the same data, the machine can produce a positive emphasis for clients and a must-try-harder tone for employees. It has learned the art of spin. It is not that the machine will have its own emotional states but it will know that it is doing enough to produce that reaction.“

Automated Insights 

 

Als erfolgreicher Konkurrent zu Narrative Science positioniert sich Automated Insights mit seiner Software Wordsmith, die unter anderem von der Nachrichtenagentur Associated Press und Yahoo! verwendet wird. Während die Associated Press früher nur 300 Artikel pro Quartal erstellen konnte, sind es unter Verwendung von Wordsmith nun 3000.

Anfangs wurden die von Wordsmith generierten Texte, z.B. Finanzberichte, noch von Redakteuren korrekturgelesen, mittlerweile werden sie ohne Kontrolle herausgegeben. Adrian Lobe berichtete in der Frankfurter Allgemeinen Zeitung, dass im letzten Jahr eine Milliarde Meldungen von Automated Insights erstellt wurden, was wesentlich mehr ist als alle übrigen Medien zusammengenommen leisten. 

A look at the Wordsmith natural language generation platform from Automated Insights.
Automated Insights, 24.11.2014

 

 

Negative Auswirkungen: Beeinflussung der Urteilsbildung

 

Nicholas Diakopoulos, Assistenz-Professor an der University of Maryland College of Journalism, veröffentlichte im European Journalism Observatory einen Artikel über Roboter-Journalismus und ging dabei der Frage nach, inwiefern „Roboter-Journalisten das Interesse auf gesellschaftlich relevante Fragen lenken oder öffentlichen Druck erzeugen können?“.

Negativ sieht Diakopoulos „die künstliche Schaffung sozialer Realität, die Produktion von Informations- und Datenmüll, Manipulation in Computerspielen durch automatisierte Spieler [und] als Bürgerinitiativen verdeckte PR (astroturfing) [...].“ In Mexiko und Russland sei dies schon spürbar gewesen.

Diakopoulos verweist auf einen Bericht von Mike Orcutt, welcher zeigt wie 2012 die Präsidentschaftswahlen in Mexiko per Bots beeinflusst wurden. So wurde ein regelrechter Twitter-Spam-Kampf ausgetragen. Abschätzige Kommentare über Gegenkandidaten wurden massiv vervielfältigt und überfluteten die soziale Medienpräsenz der Top-Präsidentschaftsanwärter. Das Ausmaß der automatisierten Kommentare sei enorm gewesen. Vor allem soll das negative Verhalten der Partido Revolucionario Institucional (PRI, Partei der Institutionellen Revolution), die letztendlich im Wahlkampf auch gewann, besonders stark ausgeprägt gewesen sein. Laut Orcrutt soll sie Tausende Bots verwendet bzw. Benutzeraccounts erstellt haben, welche automatisch spezifische Wörter und Phrasen als Hashtags verbreiteten. Die Aussagen stammen von vermeintlich real existierenden Twitternutzern, von deren Accounts aus immer wieder die gleichen Kommentare und Hashtags veröffentlicht wurden, um in Twitters Liste der Trendthemen zu landen.

Ebenfalls im Jahr 2012 entwickelte sich in Russland ein massiver Protest gegen die mutmaßliche Wahlverfälschung, welche Wladimir Putin zu seinem Posten als Präsidenten verholfen haben soll. Die BBC veröffentlichte dazu einen Artikel, in dem behauptet wird, dass unter die kritische Protestkommunikation auf Twitter Bots gemischt wurden, welche die eigentliche Protestidee überliefen und übertönten. So sammelten sich laut BBC etliche Pro-Kreml Kommentare innerhalb der Protestdiskussion, welche per Bots über gehackte Nutzerprofile verbreitet wurden – ein massiver Angriff auf die Redefreiheit. Etwa 10 positive Kreml-Kommentare pro Sekunden sollen generiert worden sein, was auf eine maschinelle Erzeugung deuten könnte. Sie wurden speziell darauf programmiert auf die spezifischen Hashtags der Protestbewegung überschwemmend zu reagieren.

Mittlerweile versucht Twitter auf solche Spam-Wellen zu reagieren. Es werden Daten über missbräuchliche Aktivitäten gesammelt. Zusätzlich wurde in den USA Klage gegen die fünf aggressivsten Anbieter von Spam-Tools erhoben. Doch die Taktiken von Spammern werden sich stets weiterentwickeln, sodass es kaum möglich sein wird, sie beständig zu beobachten und zu beseitigen.

Diakopoulos weist auf den Twitter-Bot @NYTAnon hin, welcher New York Times Artikel anzeigt, in denen anonyme Quellen verwendet wurden. Dieser Bot löste immerhin eine medienkritische Debatte unter Journalisten auf Twitter aus. Trotzdem bezweifelt Diakopoulos, „ob diese automatisierten Twitterer aber wirklich einen weitreichenden Beitrag zur Rechenschaftspflicht des Journalismus' leisten können.“ Bei der Untersuchung mehrerer Roboter-Journalisten, wurde deutlich, so Diakopoulos, dass nur etwa 45 Prozent ihre verwendeten (Daten-)Quellen angaben.

Wie Diakopoulos herausstellte, ist es in Zeiten automatisierter Kommentare und Texte schwierig das Ideal von journalistischer Transparenz zu bewahren. Folglich stellt sich die Frage, inwiefern Journalisten und Verlage unter der Verwendung bzw. Konkurrenz von Bots glaubwürdig bleiben und das Vertrauen der Nachrichtenleser gewinnen können.   





Quellen und weiterführende Links

Webpräsenz von Narrative Science

Interview von Tim Adams (theguardian.com) mit Kris Hammond (Narrative Science). 28.06.2015.

Webpräsenz von Automated Insights

Adrian Lobe (faz.net): Nehmen Roboter Journalisten den Job weg? 17.04.2015.

Richard Moss (gizmag.com): Creative AI: Teaching computers to be reporters and storytellers.

Nicholas Diakopoulos (ejo-online.eu): Roboter-Journalismus. 23.03.2015.

Mike Orcutt (technologyreview.com): Twitter Mischief Plagues Mexico's Election. 21.06.2012.

BBC: Russian Twitter political protests 'swamped by spam'. 08.03.2012.

















































Keine Kommentare:

Kommentar veröffentlichen