image
image

image www.telepolis.de

Das Online-Magazin TELEPOLIS wurde 1996 gegründet und begleitet seither die Entwicklung der Netzkultur in allen Facetten: Politik und Gesetzgebung, Zensur und Informationsfreiheit, Schutz der Privatsphäre, wissenschaftliche Innovationen, Entwicklungen digitaler Kultur in Musik, Film, bildender Kunst und Literatur sind die Kernthemen des Online-Magazins, welche ihm eine treue Leserschaft verschafft haben. Doch TELEPOLIS hat auch immer schon über den Rand des Bildschirms hinausgesehen: Die Kreuzungspunkte zwischen realer und virtueller Welt, die »Globalisierung« und die Entwicklung der urbanen Kultur, Weltraum und Biotechnologie bilden einige der weiteren Themenfelder.

Als reines Online-Magazin ohne Druckausgabe nimmt TELEPOLIS damit eine einzigartige Stellung im deutschsprachigen Raum ein und bildet durch seine englischsprachige Ausgabe und seinen internationalen Autorenkreis eine wichtige Vermittlungsposition über sprachliche, geografische und kulturelle Grenzen hinweg. Verantwortlich für das Online-Magazin und Herausgeber der TELEPOLIS-Buchreihe ist Florian Rötzer.

Die TELEPOLIS-Bücher basieren auf dem Themenkreis des Online-Magazins. Die Reihe schaut wie das Online-Magazin über den Tellerrand eingefahrener Abgrenzungen hinaus und erörtert Phänomene der digitalen Kultur und der Wissensgesellschaft.

Eine Auswahl der bisher erschienenen
TELEPOLIS-Bücher:

Stefan Weber

Das Google-Copy-Paste-Sydnrom

Wie Netzplagiate Ausbildung und

Wissen gefährden

2008, 182 Seiten, 16,00 €

Matthias Brake

Mobilität im regenerativen Zeitalter

Was bewegt uns nach dem Öl?

2009, 154 Seiten, 16,00 €

Stefan Selke / Ullrich Dittler

Postmediale Wirklichkeiten

Wie Zukunftsmedien die

Gesellschaft verändern

2009, 256 Seiten, 19,00 €

Lothar Lochmaier

Die Bank sind wir

Chancen und Perspektiven von

Social Banking

2010, 160 Seiten, 15,90 €

Matthias Becker

Datenschatten

Auf dem Weg in die

Überwachungsgesellschaft?

2010, 184 Seiten, 16,90 €

Harald Zaun

S E T I – Die wissenschaftliche Suche nach außerirdischen Zivilisationen

Chancen, Perspektiven, Risiken

2010, 320 Seiten, 19,90 €

Marcus B. Klöckner

9/11 – Der Kampf um die Wahrheit

2011, 218 Seiten, 16,90 €

Hans-Arthur Marsiske

Kriegsmaschinen – Roboter im Militäreinsatz

2012, 252 Seiten, 18,90 €

Nora S. Stampfl

Die verspielte Gesellschaft

Gamification oder Leben im Zeitalter des Computerspiels

2012, 128 Seiten, 14,90 €

Nora S. Stampfl

Die berechnete Welt

Leben unter dem Einfluss von Algorithmen

2013, 124 Seiten, 14,95 €

Christian J. Meier

Eine kurze Geschichte des Quantencomputers

Wie bizarre Quantenphysik eine neue Technologie erschafft

2015, 188 Seiten, 16,90 €

Michael Firnkes

Das gekaufte Web

Wie wir online manipuliert werden

2015, 324 Seiten, 18,95 €

Klaus Schmeh

Versteckte Botschaften

Die faszinierende Geschichte der Steganografie

2017, 318 Seiten, 19,95 €

Christian J. Meier

Suppenintelligenz

Die Rechenpower aus der Natur

2017, 246 Seiten, 16,90 €

Weitere Informationen zu den TELEPOLIS-Büchern und Bestellung unter: → www.dpunkt.de/telepolis

image
image

Doz. Dr. Stefan Weber, geboren 1970 in Salzburg. Universitätslektor an der Universität Wien und Senior Researcher der Research Studios Austria. Bekannt wurde er als Plagiatsgutachter und Verfasser kulturkritischer Bücher zum Wandel der Textkultur durch die Digitalisierung (»Das Google-Copy-Paste-Syndrom«, 2. Auflage dpunkt/Telepolis 2008, »Die Medialisierungsfalle«, 2008). Er bloggt unter https://plagiatsgutachten.de/blog.

image

Zu diesem Buch – sowie zu vielen weiteren dpunkt.büchern – können Sie auch das entsprechende E-Book im PDF-Format herunterladen. Werden Sie dazu einfach Mitglied bei dpunkt.plus+:

www.dpunkt.plus

Stefan Weber

Roboterjournalismus, Chatbots & Co.

Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen

Mit einem Vorwort von Uwe Hannig und einem juristischen Kommentar von Albrecht Haller

image

Stefan Weber, weber@plagiatsgutachten.de

Reihenherausgeber: Florian Rötzer, München, fr@heise.de

Bibliografische Information der Deutschen Nationalbibliothek

ISBN:

 

1. Auflage 2019

Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten.

5 4 3 2 1 0

Inhaltsverzeichnis

Vorwort

1Einleitung des menschlichen Autors

2Automatisch erzeugte Inhalte: »Was zur Hölle ist das?«

3Google, Facebook & Co.: Was können und was planen die Big Five?

3.1Google

3.2Facebook, Apple, Microsoft & Amazon

4»Automatische Textgenerierung für alle«: Der templatebasierte Ansatz von Retresco

5Roboterjournalismus: Tod oder Zukunft einer Branche?

5.1Wo ist die (künstliche) Intelligenz im automatisierten Journalismus?

5.2Medienhistorische Vorläufer seit 1963

5.3Was sagen die JournalistInnen, was sagen die LeserInnen?

5.4Die Trends: Personalisiertes Storytelling, Dialogjournalismus, Sensorstorys

6Chatbots und Social Bots: Wie »gute« und »böse« Bots die Kommunikation steuern

6.1Chatbots, intelligente persönliche Assistenten und automatisierte Entscheidungen

6.2Social Bots, Meinungsroboter und automatisierte Accounts

7Automatisierte Kommunikation und die neue Kommunikationswissenschaft

8Content-Automatisierung, Bildungssystem und Arbeitsmarkt-Prognosen

9Ausblick: Die Automatisierung von allem?

10Rechtliche Aspekte automatisch erstellter Inhalte

11Glossar

12Tabellen- und Abbildungsverzeichnis

Vorwort

Von Uwe Hannig

Die Automatisierung der Erstellung und nutzerorientierten Zurverfügungstellung von Inhalten über unterschiedliche Kanäle ist ein Wunschtraum nicht nur aller Content-Marketing-Manager. Dazu bedarf es allerdings noch weiterer Fortschritte im Forschungsfeld der künstlichen Intelligenz. Sprachgesteuerte, internetbasierte persönliche Assistenten, die Daten von Webseiten abrufen, verarbeiten und die Ergebnisse in natürlicher Sprache ausgeben, sind hier erst der Anfang. Die vollautomatische Erstellung von nutzerindividualisierten Artikeln wird allerdings noch einige Zeit auf sich warten lassen.

Werkzeuge zur Erleichterung des Content Management sind aber bereits verfügbar. Diese erlauben beispielsweise die Automatisierung der Publikation von Inhalten auf mehreren Plattformen. Heute geschieht dies in den meisten Fällen noch durch fehleranfälliges Kopieren und Einfügen. Aktualisierungen müssen, da die Dokumente nicht miteinander verbunden sind, in der Folge manuell in mehreren Medien durchgeführt werden. Aufgrund des Einsatzes von Dokumenten ohne Metadaten ist die Wiederverwendung von Inhalten für unterschiedliche Zielgruppen zeitaufwändig. Lösungen zur Automatisierung der Verwaltung und Veröffentlichung von Inhalten optimieren diese Prozesse1 und erleichtern darüber hinaus die Übersetzung in andere Sprachen.

Neben der automatisierten Distribution und Wiederverwendung von Content in unterschiedlichen Medien bzw. auf verschiedenen Plattformen ist man bezüglich der Messung der Nutzung von Inhalten und der Zuordnung von Content zu Buyer Personas bzw. Zielkunden im Rahmen des Account-based Marketing entlang der Buyer Journey schon gut unterwegs. Das noch zu lösende Problem ist die erstmalige Erstellung von qualitativ anspruchsvollen Inhalten. Diesbezüglich gilt heute noch: Kein Inhalt ohne Autor. Inhalte automatisch beurteilen lässt sich mittlerweile jedoch schon bewerkstelligen. So haben Forscher der Universität von Chicago eine Applikation entwickelt, die maschinell Rezensionen verfassen kann, die als ähnlich nützlich wie die von Menschen erstellten eingestuft wurden.2

Mittels KI fertigten Forscher der Rutgers-Universität Gemälde an, die es sogar weltweit in große Ausstellungen schafften und in einer Versuchsanordnung von Ausstellungsbesuchern besser bewertet wurden als Bilder von Menschenhand.3 Die Frage ist deshalb nicht mehr, ob mit Hilfe künstlicher Intelligenz in Zukunft nutzbare Inhalte erstellt werden, sondern wie lange es noch bis dahin dauert.

Dieses Buch erlaubt Ihnen einen überblickartigen Einstieg in die faszinierende neue Welt der Chatbots und Schreibroboter und deren Möglichkeiten. Kritisch hinterfragt werden aber auch die Auswirkungen der automatischen Content-Erstellung auf unser Bildungssystem und die Medienwissenschaft.

Viel Spaß bei der Lektüre wünscht Ihnen Ihr

Uwe Hannig
Prof. Dr. Uwe Hannig ist wissenschaftlicher Leiter des
Instituts für Sales und Marketing Automation
.

1 Einleitung des menschlichen Autors

»Why write your own book when an algorithm can do it for you?«1

Dieses Buch wurde komplett von einem Menschen geschrieben. Idee zum Buch, Recherchen am Telefon, per E-Mail, vor Ort, in Büchern, Journals und im Web, Lektüre, quellenkritische Bewertung, Schreiben und Korrektorat – das alles hat ein Mensch durchgeführt. Die verwendeten technischen Hilfsmittel waren im Wesentlichen das Internet, E-Mail und MS Word. Dieser Vorgang könnte schon sehr bald der Vergangenheit angehören: Davon handelt dieses Buch. Die Idee, es zu schreiben, kam mir Ende 2017, als mich ein befreundeter Gastronom und Hotelier auf den Umstand hinwies, dass er den beschreibenden Text zu seinem Unternehmen auf Google Maps selbst nicht ändern kann. Versuche, Google per Kontaktformular auf Fehler aufmerksam zu machen, wurden vom Suchmaschinengiganten beschwiegen. Ich zeigte den inkriminierten Text mehreren IT-JournalistInnen und WissenschaftlerInnen. Alle meinten, es sei ein computergenerierter Text, der sich aus Geodaten von Google Maps und Extrakten von Kundenbewertungen speist. Google verweigerte in der Folge Angaben über die Herkunft dieser und Tausender anderer Texte (»Hoteldetails«) auf Google Maps. – Ist das das transparente und freie Internet, das wir haben wollten?

Mir wurde schnell klar, dass hier etwas nicht stimmt: Google, das Unternehmen, das wie kein anderes unseren virtuellen Wirklichkeitszugang bestimmt, lässt die Herkunft von Beschreibungstexten über Tausende Unternehmen weltweit im Verborgenen. Im Ernstfall kann so ein Text über Erfolg oder Pleite eines Unternehmens und damit von Menschen entscheiden. Eine erste Recherche zeigte: Die automatische Erzeugung von Inhalten, die der Menschenhand entzogen sind, ist ein Thema, zu dem es noch kaum Literatur gab.

Ich versuche mit diesem Buch, die Frage zu beantworten, ob es sich bei derzeitigen Formen des Automated Content bloß um einen gegenwärtigen, womöglich schnell vergänglichen Hype oder um Vorboten der nächsten Stufe der digitalen Revolution handelt.

Zwei Hinweise zur Lektüre

Webquellen

Ich bin mir der Vergänglichkeit von Webquellen bewusst. Dennoch zitiere ich sie häufig. Kann eine zitierte Webquelle nicht mehr online vorgefunden werden, so existiert von ihr sehr häufig ein Snapshot, der in der Vergangenheit gemacht wurde. Bitte gehen Sie dazu auf die Webseite https://archive.org und kopieren Sie die hier im Buch zitierte URL in die Wayback Machine. Wählen Sie dann eine archivierte Version der Webseite unter einer Datumsangabe aus, die in der Nähe des Jahres 2018 ist. – Interessanterweise wissen immer noch viele Menschen über diese einfache Methode der Auffindbarkeit alter Webseiten nicht Bescheid.

Nicht-wissenschaftliche Quellen

Ich bin mir auch des Problems des Zitierens nicht-wissenschaftlicher Quellen bewusst. Mir ist dazu eine Lösung eingefallen, die ich bislang noch nirgendwo gesehen habe: Ich kennzeichne nahezu alle Quellen vor der Literaturangabe in der Fußnote mit ihrer Zugehörigkeit zu einem sozialen System (im Sinne Niklas Luhmanns): Genuin wissenschaftliche und populärwissenschaftliche Quellen erhalten den Verweis [SCI] für science. Massenmediale und journalistische Quellen, Social-Media- und Blogquellen erhalten den Verweis [MED] für media. Quellen aus der Wirtschaft wie Selbstdarstellungen von Unternehmen auf Webseiten sowie PR-Meldungen erhalten den Verweis [ECO] für economics. – Mittlerweile werden ja nicht nur in studentischen Qualifikationsschriften alle Quellen als gleichrangig betrachtet und auch so verwendet. Mein Versuch, hier etwas Ordnung zu schaffen, kann freilich weiter ausdifferenziert werden, in juristische Quellen, politische Quellen usw. Ich freue mich auf kreative Nachahmer!

Mein Dank gilt folgenden Personen, mit denen ich die Inhalte dieses Buchs diskutieren durfte: Prof. DDr. Peter A. Bruck, Research Studios Austria Forschungsgesellschaft; Ao. Prof. Mag. Dr. Markus Haslinger, TU Wien; Dr. Mihai Lupu, Research Studios Austria Forschungsgesellschaft sowie Prof. Dr. Josef Mitterer, Universität Klagenfurt. Für das Vorwort zum Buch danke ich Prof. Dr. Uwe Hannig, für das juristische Schlusskapitel Mag. Dr. Albrecht Haller. Ich danke weiter meinen GesprächspartnerInnen Alexander Siebert von Retresco (Berlin), Frank Feulner von AX Semantics (Stuttgart) und Mag. Katharina Schell von der APA – Austria Presse Agentur (Wien) für die Zeit, die sie sich für meine Besuche bzw. mein wiederholtes Nachfragen genommen haben sowie meinen zahlreichen E-Mail-InterviewpartnerInnen weltweit. Mein Dank gilt schließlich auch Dr. Michael Barabas vom dpunkt-Verlag und Florian Rötzer von Telepolis. Christian Reifert und Susanne Rudi danke ich für das kompetente Lektorat und die professionelle Betreuung.

Stefan Weber
Dresden und Salzburg,
Januar bis September 2018

2 Automatisch erzeugte Inhalte: » Was zur Hölle ist das?« Markante Fallbeispiele zum Auftakt

»Als ich das zum ersten Mal sah, dachte ich: Was zur Hölle ist das?«

Ein Nutzer berichtet in der Dokumentation »Inside Google« über seine Reaktion auf das für ihn erste automatisch generierte Fotoalbum von Google Photos.1

»Kopieren, Programmieren, Automatisieren sind die neuen […] Werkzeuge.«

Kenneth Goldsmith, Klappentext zu »Uncreative Writing«2

Weshalb staunte der versierte App-Nutzer? Die Google Photos-App hat automatisch eine Bildergalerie von Fotos seines jüngsten Urlaubs produziert. Wie aus dem Nichts war sie da, ungefragt: Ein- und auszoomende Urlaubsbilder, die Übergänge zum Teil mit Effekten, wie wir sie von PowerPoint kennen. Die Google-App hat alle Bilder geolokalisiert, die Reiseroute rekonstruiert und Datumsangaben ergänzt. Schließlich unterlegte sie das Ganze mit der üblichen Einheitsmusik, die wir von Abertausenden anderen Videos im Netz kennen.

Mein iPhone hat mich im vergangenen Jahr ähnlich überrascht: Die Funktion heißt »Andenken«.

»›Andenken‹ legt automatisch kuratierte Sammlungen Ihrer wichtigsten Fotos und Videos an. Die Fotos-App durchsucht automatisch Ihre Mediathek nach bedeutenden Personen, Orten, Urlauben usw., und präsentiert diese dann in kuratierten Sammlungen, die als ›Andenken‹ bezeichnet werden.«3

Urplötzlich schenkte mir mein iPhone einen »Film« über den Sommerurlaub mit meiner Tochter.

Nicht nur Google und Apple, auch Facebook beglückt seine NutzerInnen mittlerweile mit solchen »Diashows«. Unter dem Titel »Zusammenhalt ist alles« und mit dem Zwischentitel »Zusammensein macht glücklich« erhielt ich unlängst ein 43 Sekunden dauerndes, automatisch generiertes Video, in dem meine Aufnahmen mit einem Fotopool von Facebook scheinbar recht beliebig durchmischt wurden.

image

Abb. 2–1Automatisch generiertes Fotovideo von Facebook

Quelle: Eigene Screenshots, Juni 2018

Der Inhalt des Facebook-Fotovideos ist gleichermaßen unangreifbar, d. h. politisch korrekt wie stupide. Der Themenkomplex Zusammensein/Zusammenhalt hat weltweite Gültigkeit. Das Template gilt für jede/n Facebook-NutzerIn, der oder die eine Anzahl von FreundInnen hat. Funktion ist wohl nur die eigene Viralität: das Teilen des Videos mit anderen. Der Inhalt selbst ist so sinnbefreit wie viele Social Cards oder Social Clips, die derzeit mit Tools der Semi-Automatisierung von Inhalten4 für Facebook und andere soziale Medien erstellt werden.

Imageclips gelten bei vielen Unternehmen immer noch als sehr kostspielige Projekte. Weniger bekannt ist, dass es mittlerweile auch Angebote gibt, mit denen man gratis oder zu sehr niedrigen Kosten automatisch Videos generieren kann, wie etwa MySimpleShow. Der Berliner Pionier in Sachen automatischer Textgenerierung und Textanalyse, Retresco, hat mit MySimpleShow, ebenfalls aus Berlin, ein solches automatisches Imagevideo produziert. Auch die Stimme kommt hier natürlich von der Maschine.

image

Abb. 2–2Mit MySimpleShow automatisch generiertes Explainer Video von Retresco

Quelle: Screenshot von [ECO] https://vimeo.com/user86148146/review/277086627/e22a20ddab, 2018

Anbieter zur Erstellung von Erklärvideos arbeiten ebenfalls mit Templates, hier Storylines5 genannt. Das Tool eignet sich nicht nur für Unternehmensvideos, sondern auch für Kochrezepte, Einladungen und Buchzusammenfassungen. Auch hier ist der ästhetische Preis zu zahlen: »Originalität« wird zur massenhaften Replikation.

Noch fertigen Studierende ihre Präsentationen mit PowerPoint (oder seltener: Prezi) selbst an, und die Inhalte sind noch sehr textlastig. Nur selten stellen StudentInnen ihr Thema mit einem Explainer Video dar. Doch das könnte sich ändern, wenn wir uns weiter weg von der typografischen und hin zur »posttypografischen Kultur« (Michael Giesecke6, Frank Hartmann) bewegen, in der multimediale Skills den rein textlichen überlegen sein sollen.

Meine ersten Beispiele zeigen, dass die vielgepriesene Multimedia-Kompetenz für die Erstellung von Multimedia-Inhalten dieser Art kaum mehr notwendig ist, da solche Contents (zumindest semi-)automatisch erstellt werden können. Google und Facebook beglücken NutzerInnen bereits mit Ready-Mades: Der/die NutzerIn muss gar nichts mehr auswählen bzw. in Auftrag geben, sondern der Push-Mechanismus der Medien selbst liefert die konfektionierten Inhalte frei Haus. Die eigene Kreativität, das eigene Arrangement, das eigene Storyboard sind hier nicht mehr vonnöten. Anbieter zur Produktion von Explainer Videos, von Social Cards oder Social Clips verlangen zumindest eine Auswahl aus einer endlichen Serie von Templates und auch noch das eigene Texten, wobei auch hier deutliche Limitierungen bestehen.

Eigenes Texten? Wenn Bewegtbilder bereits automatisch produziert werden können, müsste dies auch für Texte möglich sein, obwohl die Aufgabe ungleich schwieriger erscheint. Doch gerade das Feld der automatischen Textgenerierung boomt seit einigen Jahren und scheint ökonomisch zumindest derzeit vielversprechender zu sein als automatisierte Multimedia-Produktion. Bei der automatischen Textgenerierung ist immer zu unterscheiden zwischen templatebasierten Ansätzen, Machine-Learning-Verfahren und »echten« Deep-Learning-Methoden auf Basis künstlicher neuronaler Netze, hier vor allem rekurrenter neuronaler Netze (dazu mehr in Kap. 4 und Kap. 5).

Betrachten wir als nächstes einführendes Beispiel das Versprechen des Berliner Unternehmens »2txt – natural language generation«. In der Selbstdarstellung grenzt sich die Company von templatebasierten Ansätzen ab: »Unsere semantischen Modelle und Grammatiken sind wesentlich flexibler als herkömmliche Template-Lösungen und besitzen damit eine so große Ausdruckskraft, dass wir deutlich skalierbarer und vielfältiger Texte generieren können als vergleichbare Ansätze.«7 Man kann daran glauben oder nicht. Nur Kunden könnten bestätigen, dass dies tatsächlich bereits funktioniert. Woher weiß selbst das schlaueste künstliche neuronale Netz »von sich aus«, dass es sich beim Modell GE72 7RE-049DE um »ein leistungsstarkes Oberklasse-Notebook« handelt? Eine solche Verknüpfung ist nur möglich, wenn das dem Programm schon einmal irgendwo gesagt wurde oder es Zugriff auf Dokumente oder Web-Inhalte hat, aus denen diese Information hervorgeht.

image

Abb. 2–3Von 2txt angeblich automatisch generierte Produktbeschreibung anhand der Daten links. Quelle: Screenshot von [ECO] https://2txt.de

Wie immer in der Netzkultur ist es schwierig, Heilsversprechen von Unternehmen zu verifizieren. Jede Innovation produziert rasch zahllose Anbieter und Nachahmer im Netz. Nicht anders verläuft die derzeitige Entwicklung im Bereich der automatischen Textgenerierung.

Dennoch: Wie breit das Feld der automatisch erzeugten Inhalte (d. h. von Automated Content) bzw. das Feld des Versprechens von automatisch erzeugten Inhalten bereits ist, zeigt folgende Tabelle, die selbstverständlich keinen Anspruch auf Vollständigkeit erhebt (Erhebungszeitraum Juli 2018):

Content-Typ

Anbieter (Auswahl)

Webseite

Journalistischer Text

(z. B. Wetter, Sport, Wirtschaftsnachrichten, Wahlergebnis)

In den USA z. B. Automated Insights und Narrative Science, in DE z. B. Retresco, AX Semantics, TextOmatic

https://automatedinsights.com, https://narrativescience.com, https://retresco.de, https://ax-
semantics.com, https://textomatic.net

E-Commerce-Text

(z. B. Produktbeschreibung)

2txt, Retresco, AX Semantics, TextOmatic

https://2txt.de, https://retresco.de, https://ax-
semantics.com, https://textomatic.net

Google-Analytics-Bericht

Narrative Science

https://quillengage.com

Wissenschaftlicher (Kurz-)Text

Articoolo

http://essaybuddy.net

Wissenschaftliches Buch

ICON Group International

https://icongrouponline.com

Belletristisches Buch (Lyrik, Roman …)

P.M. Parkers Algorithmus, ICON Group (nicht öffentlich, laut Parker in Planung)

https://youtube.com/
watch?v=SkS5PkHQphY

Infografik

Graphiq

https://graphiq.com

Kunstwerk (Grafik, Bild)

Rutgers University, Googles DeepDream

https://sites.google.com/site/digihumanlab/home (nicht kommerziell); https://ai.googleblog.com/2015/07/deepdream-code-example-for-visualizing.html (nicht kommerziell)

Explainer Video

simpleshow

https://mysimpleshow.com/de

Video, Imageclip

Wibbitz

https://wibbitz.com

(Kurz-)Film

Thereforefilms

http://thereforefilms.com/sunspring.html

Tab. 2–1Anbieter automatisch erzeugter Inhalte nach Content-Typen (Eigene Übersicht, 2018)