Roboterjournalismus - Fluch oder Segen?

Stefan Weber ist Medienwissenschaftler, Publizist und Plagiatsgutacher und beschäftigt sich seit Jahren mit den brennenden Fragen der Medienbranche. Wie weit werden künstliche Intelligenzen (KI) in Zukunft Tätigkeiten im Medienbereich übernehmen, in welchen Bereichen sind Menschen ersetzbar und welcher Gefahren sollte man sich bewusst sein? Wie viel kann Software heutzutage schon, wo gibt es Grenzen? Die Fragen stellte Margareth Koller-Prisching.

 

In den vergangenen Monaten konnte man in zwei Bereichen über Sie lesen: Erstens haben Sie Ende 2018 das Buch „Roboterjournalismus, Chatbots & Co.: Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen“ publiziert, zweitens liest man immer wieder von Ihnen als „Plagiatsjäger“. Wie fügen sich diese beiden Bereiche zusammen?

Stefan Weber: Die menschliche Eigenautorschaft wird im Fall des Plagiats durch eine menschliche Fremdautorschaft ersetzt, im Fall automatisch generierter Texte durch die Software als Autor. In beiden Fällen verschwindet der Urheber als Schöpfer seiner Texte. Ich halte das für eine historisch neue Entwicklung, eine Zäsur, dass Software Texte schreiben kann. Es gibt im Netz bereits Angebote wie http://essaybuddy.net. Das Berliner Unternehmen Retresco, das im Moment federführende Unternehmen im deutschsprachigen Raum, lässt Immobilienbeschreibungen von Software schreiben. Der nächste Schritt werden Arzt- und Kuraufenthaltsbriefe sein, womöglich sogar Fachexpertisen. Und ein amerikanisches Unternehmen generiert aus Daten von Google Analytics Texte.

Was fasziniert Sie an Roboterjournalismus und Chatbots?

Weber: Zunächst faszinierte mich der Begriff „Roboterjournalismus“, weil er in den Massenmedien schon seit einigen Jahren zirkuliert und ich nicht genau wusste, was darunter zu verstehen ist. Interessant fand ich hier, dass der Journalismus ja immer wieder mit Ersetzungsszenarien konfrontiert ist: zuerst war es die Blogosphäre, dann waren es die sozialen Medien, jetzt sind es die vielen Fake News-Nachrichtenportale und ist es Automated Content. Spannend ist, ob – und wenn ja: wie – Journalismus wirklich  überleben wird, wer ihn also zukünftig brauchen wird, als „Handwerk“ von Menschenhand. Ich habe schon im Jahr 1998 Journalisten gefragt, ob sie glauben, dass eines Tages eine intelligente Software den Journalismus ablösen wird. Das glaubten damals 1,3 Prozent… Heute würde das Ergebnis wohl ganz anders aussehen.

Wohin führen Ihres Erachtens die aktuellen Entwicklungen?

Weber: Einer der Pioniere von Automated Content, Philip M. Parker, sagt, NLG (Natural Language Generation) wird bald die meisten Bereichen menschlicher Autorschaft betreffen (Quelle: https://www.heise.de/tp/features/Eine-Million-Buecher-mit-automatisch-erzeugten-Texten-4209972.html). Marketingexperte Joe Pulizzi meint gar, dass schon in zehn Jahren die Mehrheit des Contents von Software generiert werden wird. Natürlich sind das subjektive Schätzungen. Ich habe noch keine Forecast zu Automated Content auf solider empirischer Basis gefunden. Aber ich gehe davon aus, dass das in den nächsten Jahren stark zunehmen wird.

In zahlreichen Medienunternehmen werden Schreibroboter bereits alltäglich eingesetzt. Denken wir an den QuakeBot der LA Times, der über Erdbeben berichtet oder den Heliograf, der über die olympischen Spiele 2016 für die Washington Post schrieb. Auch die APA experimentiert mit einem schreibenden Roboter.

Weber: In Österreich hat man damit erst 2017 zu experimentieren begonnen. Eine aktuelle Diplomarbeit hat gezeigt, dass die Technologie in den österreichischen Massenmedien derzeit noch nicht eingesetzt wird. In Deutschland hingegen schon, siehe etwa bei der Stuttgarter Zeitung.

Werden künstliche Intelligenzen Journalisten in vielen Bereichen ersetzen? Welche Art von Texten werden mittel- bzw. langfristig maschinell erstellt werden?

Weber: Die Technologie beschränkt sich derzeit auf Sportberichterstattung (hier vor allem Fußball), Wetterberichte, Wirtschafts- und Börsennachrichten. Das sind Textsorten, bei denen gut Zahlen in Templates integriert werden können. Laut APA wird auch daran gearbeitet, lokale Wahlergebnisse von Software schreiben zu lassen. Der Begriff lautet hier „Hyperlokalität“: Die Software eignet sich gut für das Generieren massenhafter Texte, bei denen Daten und Zahlen jeweils lokal variieren. Das britische Marketingmagazin „The Drum“ behauptet, dass 2016 bereits eine ganze Ausgabe von künstlicher Intelligenz konzipiert und befüllt wurde.

Unlängst wurde bei Christie´s ein von einer AI geschaffenes Kunstwerk versteigert. Bisher ging man davon aus, dass Kunst dem Menschen vorbehalten ist. In welchen Bereichen lässt sich der Mensch noch ersetzen? Was bleibt dem Menschen vorbehalten?

Weber: Ja, automatisch generierte Kunst ist ein weiteres neues Feld, und ich zeige dazu auch einige Beispiele in meinem Buch, etwa Googles DeepDream. Das finde ich persönlich sehr spannend, denn so können billigere Unikate geschaffen werden. Im Moment bleibt jener Content dem menschlichen Autor vorbehalten, bei dem es um Kommentare, Meinungen, Ansichten geht. Aber auch hier ist KI auf dem Vormarsch und „lernt“ bereits, Witze zu produzieren oder Ironie zu verstehen.

Sie schreiben in Ihrem Buch von zwei Bereichen, in denen Sie die Gefahr eines Missbrauchs von Social Bots orten. Worin sehen Sie die Gefahr und wie kann man einen solchen Missbrauch im Vorfeld verhindern?

Weber: Die Studien darüber gehen im Moment auseinander. Fakt ist, dass automatische Like-Bots auf Facebook und Retweet-Bots auf Twitter sicher eine artifizielle Bedeutung herstellen können, also Menschen und Dinge künstlich pushen können.

Geht die Gefahr nicht noch viel weiter?

Weber: Sie meinen wahrscheinlich Entwicklungen wie Cambridge Analytica und die Verwendung auf Dark Posts auf Facebook für Microtargeting. Ich habe dazu gerade eine Bachelorarbeit betreut. Dark Posts wurden auch von der FPÖ und NEOS eingesetzt. Ein sehr interessantes Feld, das man im Auge behalten muss. Das wird ja auch häufig mit Automated Content-Software verbunden, d.h. die Messages sind vom Satzbau her identisch und die Schlagwörter/Themen variieren.

Denken wir an den 2016 von Microsoft entwickelten  Chatbot „Tay“, der binnen kürzester Zeit zu einem Rassisten mutierte. Ziel war es ursprünglich einen Bot zu entwickeln, der sich mit Menschen unterhalten kann. Tay wurde wieder abgeschaltet. Wie kann man solchen Entwicklungen entgegenwirken? Wie schätzen Sie diese Entgleisungen ein?

Weber: Die Frage, wie man künstliche Intelligenz regulieren kann, halte ich für sehr wichtig. Die Politik hat sich darüber wohl noch viel zu wenig Gedanken gemacht. Die EU verzettelt sich – im wahrsten Sinne des Wortes – lieber mit einer Datenschutz-Grundverordnung, die alle nervt oder nun auch noch mit einer antiquierten Urheberrechtsreform. Obwohl hier juristischer Anpassungsbedarf besteht (Urheberrechtsgesetze kennen nur Menschen als Schöpfer geistiger Leistungen), hat das die EU bislang total verschlafen.

Wie kann man sicherstellen, dass die entwickelten KIs bestmöglich für die Menschheit eingesetzt werden?

Weber: Eine sehr globale Frage. Die Frage ist ja: Wo wollen wir hin? Haben wir Angst, ersetzt zu werden, oder kann uns KI helfen, Zusammenhänge besser zu sehen, frühzeitig vor Entwicklungen zu warnen oder bessere Entscheidungen zu treffen? Ich denke, in der letzteren Variante können uns Künstliche Neuronale Netze, Predictive Analytics u.a. Technologien nur helfen. Das Szenario, dass eine Doktorarbeit nicht mehr der Mensch, sondern die Software schreibt, halte ich hingegen für wenig erquicklich. Natürlich müssen wir verdammt aufpassen, nicht mehr und mehr in „Datenintelligenz“ zu investieren und nicht in menschliche Intelligenz. Das ist ein schwieriger Spagat derzeit.

 

SAVE THE DATE

für STYRIA Ethics im Styria Media Center zum Thema Artificial Intelligence:

Dienstag, 4. Juni 2019 um 17:00 Uhr

Artificial Intelligence: Mensch - Maschine - Medien - Moral

Keynote: Charlotte Stix (Leverhulme Center for the Duture od Intelligence, Cambridge)

Moderation: Doris Helmberger - Die Furche

Teilnahme: kostenlos

Was haben moderne Hörgeräte, selbstfahrende Autos, Chatbots oder Staubsaugerroboter gemeinsam? Artificial intelligence (AI) steckt in all diesen Geräten. Algorithmen bestimmen ihr Handeln. Ihre Bedeutung nimmt ständig zu. Was ist möglich, was könnte in Zukunft möglich sein? Wo soll Schluß sein? Wo wird es gefährlich? Welche Rolle spielen ethische Richtlinien?

Solche Fragen betreffen nicht nur die Gesellschaft als Ganzes, sondern jede Branche, jedes Medienunternehmen und jeden Einzelnen. Diskutieren Sie mit!

Eine Kooperation mit der FH Joanneum, der Kleinen Zeitung und der Furche.

 

Fotocredit Bild Stefan Weber: Anne Kaiser