www.telepolis.de
Das Online-Magazin TELEPOLIS wurde 1996 gegründet und begleitet seither die Entwicklung der Netzkultur in allen Facetten: Politik und Gesetzgebung, Zensur und Informationsfreiheit, Schutz der Privatsphäre, wissenschaftliche Innovationen, Entwicklungen digitaler Kultur in Musik, Film, bildender Kunst und Literatur sind die Kernthemen des Online-Magazins, welche ihm eine treue Leserschaft verschafft haben. Doch TELEPOLIS hat auch immer schon über den Rand des Bildschirms hinausgesehen: Die Kreuzungspunkte zwischen realer und virtueller Welt, die »Globalisierung« und die Entwicklung der urbanen Kultur, Weltraum und Biotechnologie bilden einige der weiteren Themenfelder.
Als reines Online-Magazin ohne Druckausgabe nimmt TELEPOLIS damit eine einzigartige Stellung im deutschsprachigen Raum ein und bildet durch seine englischsprachige Ausgabe und seinen internationalen Autorenkreis eine wichtige Vermittlungsposition über sprachliche, geografische und kulturelle Grenzen hinweg. Verantwortlich für das Online-Magazin und Herausgeber der TELEPOLIS-Buchreihe ist Florian Rötzer.
Die TELEPOLIS-Bücher basieren auf dem Themenkreis des Online-Magazins. Die Reihe schaut wie das Online-Magazin über den Tellerrand eingefahrener Abgrenzungen hinaus und erörtert Phänomene der digitalen Kultur und der Wissensgesellschaft.
Eine Auswahl der bisher erschienenen
TELEPOLIS-Bücher:
Stefan Weber
Das Google-Copy-Paste-Sydnrom
Wie Netzplagiate Ausbildung und
Wissen gefährden
2008, 182 Seiten, 16,00 €
Matthias Brake
Mobilität im regenerativen Zeitalter
Was bewegt uns nach dem Öl?
2009, 154 Seiten, 16,00 €
Stefan Selke / Ullrich Dittler
Postmediale Wirklichkeiten
Wie Zukunftsmedien die
Gesellschaft verändern
2009, 256 Seiten, 19,00 €
Lothar Lochmaier
Die Bank sind wir
Chancen und Perspektiven von
Social Banking
2010, 160 Seiten, 15,90 €
Matthias Becker
Datenschatten
Auf dem Weg in die
Überwachungsgesellschaft?
2010, 184 Seiten, 16,90 €
Harald Zaun
S E T I – Die wissenschaftliche Suche nach außerirdischen Zivilisationen
Chancen, Perspektiven, Risiken
2010, 320 Seiten, 19,90 €
Marcus B. Klöckner
9/11 – Der Kampf um die Wahrheit
2011, 218 Seiten, 16,90 €
Hans-Arthur Marsiske
Kriegsmaschinen – Roboter im Militäreinsatz
2012, 252 Seiten, 18,90 €
Nora S. Stampfl
Die verspielte Gesellschaft
Gamification oder Leben im Zeitalter des Computerspiels
2012, 128 Seiten, 14,90 €
Nora S. Stampfl
Die berechnete Welt
Leben unter dem Einfluss von Algorithmen
2013, 124 Seiten, 14,95 €
Christian J. Meier
Eine kurze Geschichte des Quantencomputers
Wie bizarre Quantenphysik eine neue Technologie erschafft
2015, 188 Seiten, 16,90 €
Michael Firnkes
Das gekaufte Web
Wie wir online manipuliert werden
2015, 324 Seiten, 18,95 €
Klaus Schmeh
Versteckte Botschaften
Die faszinierende Geschichte der Steganografie
2017, 318 Seiten, 19,95 €
Christian J. Meier
Suppenintelligenz
Die Rechenpower aus der Natur
2017, 246 Seiten, 16,90 €
Weitere Informationen zu den TELEPOLIS-Büchern und Bestellung unter: → www.dpunkt.de/telepolis
Doz. Dr. Stefan Weber, geboren 1970 in Salzburg. Universitätslektor an der Universität Wien und Senior Researcher der Research Studios Austria. Bekannt wurde er als Plagiatsgutachter und Verfasser kulturkritischer Bücher zum Wandel der Textkultur durch die Digitalisierung (»Das Google-Copy-Paste-Syndrom«, 2. Auflage dpunkt/Telepolis 2008, »Die Medialisierungsfalle«, 2008). Er bloggt unter https://plagiatsgutachten.de/blog.
Zu diesem Buch – sowie zu vielen weiteren dpunkt.büchern – können Sie auch das entsprechende E-Book im PDF-Format herunterladen. Werden Sie dazu einfach Mitglied bei dpunkt.plus+: www.dpunkt.plus |
Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen
Mit einem Vorwort von Uwe Hannig und einem juristischen Kommentar von Albrecht Haller
Stefan Weber, weber@plagiatsgutachten.de
Reihenherausgeber: Florian Rötzer, München, fr@heise.de
Lektorat: Christian Reifert
Copy-Editing: Susanne Rudi, Heidelberg
Satz: Veronika Schnabel
Herstellung: Stefanie Weidner
Umschlaggestaltung: Hannes Fuß, www.hannesfuss.de
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National-bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
ISBN: |
|
978-3-95788-104-5 |
|
978-3-95788-986-7 |
|
ePub |
978-3-95788-987-4 |
mobi |
978-3-95788-988-1 |
1. Auflage 2019
Copyright © 2019 Heise Gruppe GmbH & Co. KG
Karl-Wiechert-Allee 10
30625 Hannover
Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten.
Die Verwendung der Texte und Abbildungen, auch auszugsweise, ist ohne die schriftliche Zustimmung des Verlags urheberrechtswidrig und daher strafbar. Dies gilt insbesondere für die Vervielfältigung, Übersetzung oder die Verwendung in elektronischen Systemen.
Alle Informationen in diesem Buch wurden mit größter Sorgfalt kontrolliert.
Weder Herausgeber, Autor noch Verlag können jedoch für Schäden haftbar gemacht werden, die in Zusammenhang mit der Verwendung dieses Buches stehen.
5 4 3 2 1 0
Vorwort
1Einleitung des menschlichen Autors
2Automatisch erzeugte Inhalte: »Was zur Hölle ist das?«
3Google, Facebook & Co.: Was können und was planen die Big Five?
3.1Google
3.2Facebook, Apple, Microsoft & Amazon
4»Automatische Textgenerierung für alle«: Der templatebasierte Ansatz von Retresco
5Roboterjournalismus: Tod oder Zukunft einer Branche?
5.1Wo ist die (künstliche) Intelligenz im automatisierten Journalismus?
5.2Medienhistorische Vorläufer seit 1963
5.3Was sagen die JournalistInnen, was sagen die LeserInnen?
5.4Die Trends: Personalisiertes Storytelling, Dialogjournalismus, Sensorstorys
6Chatbots und Social Bots: Wie »gute« und »böse« Bots die Kommunikation steuern
6.1Chatbots, intelligente persönliche Assistenten und automatisierte Entscheidungen
6.2Social Bots, Meinungsroboter und automatisierte Accounts
7Automatisierte Kommunikation und die neue Kommunikationswissenschaft
8Content-Automatisierung, Bildungssystem und Arbeitsmarkt-Prognosen
9Ausblick: Die Automatisierung von allem?
10Rechtliche Aspekte automatisch erstellter Inhalte
11Glossar
12Tabellen- und Abbildungsverzeichnis
Die Automatisierung der Erstellung und nutzerorientierten Zurverfügungstellung von Inhalten über unterschiedliche Kanäle ist ein Wunschtraum nicht nur aller Content-Marketing-Manager. Dazu bedarf es allerdings noch weiterer Fortschritte im Forschungsfeld der künstlichen Intelligenz. Sprachgesteuerte, internetbasierte persönliche Assistenten, die Daten von Webseiten abrufen, verarbeiten und die Ergebnisse in natürlicher Sprache ausgeben, sind hier erst der Anfang. Die vollautomatische Erstellung von nutzerindividualisierten Artikeln wird allerdings noch einige Zeit auf sich warten lassen.
Werkzeuge zur Erleichterung des Content Management sind aber bereits verfügbar. Diese erlauben beispielsweise die Automatisierung der Publikation von Inhalten auf mehreren Plattformen. Heute geschieht dies in den meisten Fällen noch durch fehleranfälliges Kopieren und Einfügen. Aktualisierungen müssen, da die Dokumente nicht miteinander verbunden sind, in der Folge manuell in mehreren Medien durchgeführt werden. Aufgrund des Einsatzes von Dokumenten ohne Metadaten ist die Wiederverwendung von Inhalten für unterschiedliche Zielgruppen zeitaufwändig. Lösungen zur Automatisierung der Verwaltung und Veröffentlichung von Inhalten optimieren diese Prozesse1 und erleichtern darüber hinaus die Übersetzung in andere Sprachen.
Neben der automatisierten Distribution und Wiederverwendung von Content in unterschiedlichen Medien bzw. auf verschiedenen Plattformen ist man bezüglich der Messung der Nutzung von Inhalten und der Zuordnung von Content zu Buyer Personas bzw. Zielkunden im Rahmen des Account-based Marketing entlang der Buyer Journey schon gut unterwegs. Das noch zu lösende Problem ist die erstmalige Erstellung von qualitativ anspruchsvollen Inhalten. Diesbezüglich gilt heute noch: Kein Inhalt ohne Autor. Inhalte automatisch beurteilen lässt sich mittlerweile jedoch schon bewerkstelligen. So haben Forscher der Universität von Chicago eine Applikation entwickelt, die maschinell Rezensionen verfassen kann, die als ähnlich nützlich wie die von Menschen erstellten eingestuft wurden.2
Mittels KI fertigten Forscher der Rutgers-Universität Gemälde an, die es sogar weltweit in große Ausstellungen schafften und in einer Versuchsanordnung von Ausstellungsbesuchern besser bewertet wurden als Bilder von Menschenhand.3 Die Frage ist deshalb nicht mehr, ob mit Hilfe künstlicher Intelligenz in Zukunft nutzbare Inhalte erstellt werden, sondern wie lange es noch bis dahin dauert.
Dieses Buch erlaubt Ihnen einen überblickartigen Einstieg in die faszinierende neue Welt der Chatbots und Schreibroboter und deren Möglichkeiten. Kritisch hinterfragt werden aber auch die Auswirkungen der automatischen Content-Erstellung auf unser Bildungssystem und die Medienwissenschaft.
Viel Spaß bei der Lektüre wünscht Ihnen Ihr
Uwe Hannig
Prof. Dr. Uwe Hannig ist wissenschaftlicher Leiter des
Instituts für Sales und Marketing Automation.
»Why write your own book when an algorithm can do it for you?«1
Dieses Buch wurde komplett von einem Menschen geschrieben. Idee zum Buch, Recherchen am Telefon, per E-Mail, vor Ort, in Büchern, Journals und im Web, Lektüre, quellenkritische Bewertung, Schreiben und Korrektorat – das alles hat ein Mensch durchgeführt. Die verwendeten technischen Hilfsmittel waren im Wesentlichen das Internet, E-Mail und MS Word. Dieser Vorgang könnte schon sehr bald der Vergangenheit angehören: Davon handelt dieses Buch. Die Idee, es zu schreiben, kam mir Ende 2017, als mich ein befreundeter Gastronom und Hotelier auf den Umstand hinwies, dass er den beschreibenden Text zu seinem Unternehmen auf Google Maps selbst nicht ändern kann. Versuche, Google per Kontaktformular auf Fehler aufmerksam zu machen, wurden vom Suchmaschinengiganten beschwiegen. Ich zeigte den inkriminierten Text mehreren IT-JournalistInnen und WissenschaftlerInnen. Alle meinten, es sei ein computergenerierter Text, der sich aus Geodaten von Google Maps und Extrakten von Kundenbewertungen speist. Google verweigerte in der Folge Angaben über die Herkunft dieser und Tausender anderer Texte (»Hoteldetails«) auf Google Maps. – Ist das das transparente und freie Internet, das wir haben wollten?
Mir wurde schnell klar, dass hier etwas nicht stimmt: Google, das Unternehmen, das wie kein anderes unseren virtuellen Wirklichkeitszugang bestimmt, lässt die Herkunft von Beschreibungstexten über Tausende Unternehmen weltweit im Verborgenen. Im Ernstfall kann so ein Text über Erfolg oder Pleite eines Unternehmens und damit von Menschen entscheiden. Eine erste Recherche zeigte: Die automatische Erzeugung von Inhalten, die der Menschenhand entzogen sind, ist ein Thema, zu dem es noch kaum Literatur gab.
Ich versuche mit diesem Buch, die Frage zu beantworten, ob es sich bei derzeitigen Formen des Automated Content bloß um einen gegenwärtigen, womöglich schnell vergänglichen Hype oder um Vorboten der nächsten Stufe der digitalen Revolution handelt.
Ich bin mir der Vergänglichkeit von Webquellen bewusst. Dennoch zitiere ich sie häufig. Kann eine zitierte Webquelle nicht mehr online vorgefunden werden, so existiert von ihr sehr häufig ein Snapshot, der in der Vergangenheit gemacht wurde. Bitte gehen Sie dazu auf die Webseite https://archive.org und kopieren Sie die hier im Buch zitierte URL in die Wayback Machine. Wählen Sie dann eine archivierte Version der Webseite unter einer Datumsangabe aus, die in der Nähe des Jahres 2018 ist. – Interessanterweise wissen immer noch viele Menschen über diese einfache Methode der Auffindbarkeit alter Webseiten nicht Bescheid.
Ich bin mir auch des Problems des Zitierens nicht-wissenschaftlicher Quellen bewusst. Mir ist dazu eine Lösung eingefallen, die ich bislang noch nirgendwo gesehen habe: Ich kennzeichne nahezu alle Quellen vor der Literaturangabe in der Fußnote mit ihrer Zugehörigkeit zu einem sozialen System (im Sinne Niklas Luhmanns): Genuin wissenschaftliche und populärwissenschaftliche Quellen erhalten den Verweis [SCI] für science. Massenmediale und journalistische Quellen, Social-Media- und Blogquellen erhalten den Verweis [MED] für media. Quellen aus der Wirtschaft wie Selbstdarstellungen von Unternehmen auf Webseiten sowie PR-Meldungen erhalten den Verweis [ECO] für economics. – Mittlerweile werden ja nicht nur in studentischen Qualifikationsschriften alle Quellen als gleichrangig betrachtet und auch so verwendet. Mein Versuch, hier etwas Ordnung zu schaffen, kann freilich weiter ausdifferenziert werden, in juristische Quellen, politische Quellen usw. Ich freue mich auf kreative Nachahmer!
Mein Dank gilt folgenden Personen, mit denen ich die Inhalte dieses Buchs diskutieren durfte: Prof. DDr. Peter A. Bruck, Research Studios Austria Forschungsgesellschaft; Ao. Prof. Mag. Dr. Markus Haslinger, TU Wien; Dr. Mihai Lupu, Research Studios Austria Forschungsgesellschaft sowie Prof. Dr. Josef Mitterer, Universität Klagenfurt. Für das Vorwort zum Buch danke ich Prof. Dr. Uwe Hannig, für das juristische Schlusskapitel Mag. Dr. Albrecht Haller. Ich danke weiter meinen GesprächspartnerInnen Alexander Siebert von Retresco (Berlin), Frank Feulner von AX Semantics (Stuttgart) und Mag. Katharina Schell von der APA – Austria Presse Agentur (Wien) für die Zeit, die sie sich für meine Besuche bzw. mein wiederholtes Nachfragen genommen haben sowie meinen zahlreichen E-Mail-InterviewpartnerInnen weltweit. Mein Dank gilt schließlich auch Dr. Michael Barabas vom dpunkt-Verlag und Florian Rötzer von Telepolis. Christian Reifert und Susanne Rudi danke ich für das kompetente Lektorat und die professionelle Betreuung.
Stefan Weber
Dresden und Salzburg,
Januar bis September 2018
»Als ich das zum ersten Mal sah, dachte ich: Was zur Hölle ist das?«
Ein Nutzer berichtet in der Dokumentation »Inside Google« über seine Reaktion auf das für ihn erste automatisch generierte Fotoalbum von Google Photos.1
»Kopieren, Programmieren, Automatisieren sind die neuen […] Werkzeuge.«
Kenneth Goldsmith, Klappentext zu »Uncreative Writing«2
Weshalb staunte der versierte App-Nutzer? Die Google Photos-App hat automatisch eine Bildergalerie von Fotos seines jüngsten Urlaubs produziert. Wie aus dem Nichts war sie da, ungefragt: Ein- und auszoomende Urlaubsbilder, die Übergänge zum Teil mit Effekten, wie wir sie von PowerPoint kennen. Die Google-App hat alle Bilder geolokalisiert, die Reiseroute rekonstruiert und Datumsangaben ergänzt. Schließlich unterlegte sie das Ganze mit der üblichen Einheitsmusik, die wir von Abertausenden anderen Videos im Netz kennen.
Mein iPhone hat mich im vergangenen Jahr ähnlich überrascht: Die Funktion heißt »Andenken«.
»›Andenken‹ legt automatisch kuratierte Sammlungen Ihrer wichtigsten Fotos und Videos an. Die Fotos-App durchsucht automatisch Ihre Mediathek nach bedeutenden Personen, Orten, Urlauben usw., und präsentiert diese dann in kuratierten Sammlungen, die als ›Andenken‹ bezeichnet werden.«3
Urplötzlich schenkte mir mein iPhone einen »Film« über den Sommerurlaub mit meiner Tochter.
Nicht nur Google und Apple, auch Facebook beglückt seine NutzerInnen mittlerweile mit solchen »Diashows«. Unter dem Titel »Zusammenhalt ist alles« und mit dem Zwischentitel »Zusammensein macht glücklich« erhielt ich unlängst ein 43 Sekunden dauerndes, automatisch generiertes Video, in dem meine Aufnahmen mit einem Fotopool von Facebook scheinbar recht beliebig durchmischt wurden.
Der Inhalt des Facebook-Fotovideos ist gleichermaßen unangreifbar, d. h. politisch korrekt wie stupide. Der Themenkomplex Zusammensein/Zusammenhalt hat weltweite Gültigkeit. Das Template gilt für jede/n Facebook-NutzerIn, der oder die eine Anzahl von FreundInnen hat. Funktion ist wohl nur die eigene Viralität: das Teilen des Videos mit anderen. Der Inhalt selbst ist so sinnbefreit wie viele Social Cards oder Social Clips, die derzeit mit Tools der Semi-Automatisierung von Inhalten4 für Facebook und andere soziale Medien erstellt werden.
Imageclips gelten bei vielen Unternehmen immer noch als sehr kostspielige Projekte. Weniger bekannt ist, dass es mittlerweile auch Angebote gibt, mit denen man gratis oder zu sehr niedrigen Kosten automatisch Videos generieren kann, wie etwa MySimpleShow. Der Berliner Pionier in Sachen automatischer Textgenerierung und Textanalyse, Retresco, hat mit MySimpleShow, ebenfalls aus Berlin, ein solches automatisches Imagevideo produziert. Auch die Stimme kommt hier natürlich von der Maschine.
Anbieter zur Erstellung von Erklärvideos arbeiten ebenfalls mit Templates, hier Storylines5 genannt. Das Tool eignet sich nicht nur für Unternehmensvideos, sondern auch für Kochrezepte, Einladungen und Buchzusammenfassungen. Auch hier ist der ästhetische Preis zu zahlen: »Originalität« wird zur massenhaften Replikation.
Noch fertigen Studierende ihre Präsentationen mit PowerPoint (oder seltener: Prezi) selbst an, und die Inhalte sind noch sehr textlastig. Nur selten stellen StudentInnen ihr Thema mit einem Explainer Video dar. Doch das könnte sich ändern, wenn wir uns weiter weg von der typografischen und hin zur »posttypografischen Kultur« (Michael Giesecke6, Frank Hartmann) bewegen, in der multimediale Skills den rein textlichen überlegen sein sollen.
Meine ersten Beispiele zeigen, dass die vielgepriesene Multimedia-Kompetenz für die Erstellung von Multimedia-Inhalten dieser Art kaum mehr notwendig ist, da solche Contents (zumindest semi-)automatisch erstellt werden können. Google und Facebook beglücken NutzerInnen bereits mit Ready-Mades: Der/die NutzerIn muss gar nichts mehr auswählen bzw. in Auftrag geben, sondern der Push-Mechanismus der Medien selbst liefert die konfektionierten Inhalte frei Haus. Die eigene Kreativität, das eigene Arrangement, das eigene Storyboard sind hier nicht mehr vonnöten. Anbieter zur Produktion von Explainer Videos, von Social Cards oder Social Clips verlangen zumindest eine Auswahl aus einer endlichen Serie von Templates und auch noch das eigene Texten, wobei auch hier deutliche Limitierungen bestehen.
Eigenes Texten? Wenn Bewegtbilder bereits automatisch produziert werden können, müsste dies auch für Texte möglich sein, obwohl die Aufgabe ungleich schwieriger erscheint. Doch gerade das Feld der automatischen Textgenerierung boomt seit einigen Jahren und scheint ökonomisch zumindest derzeit vielversprechender zu sein als automatisierte Multimedia-Produktion. Bei der automatischen Textgenerierung ist immer zu unterscheiden zwischen templatebasierten Ansätzen, Machine-Learning-Verfahren und »echten« Deep-Learning-Methoden auf Basis künstlicher neuronaler Netze, hier vor allem rekurrenter neuronaler Netze (dazu mehr in Kap. 4 und Kap. 5).
Betrachten wir als nächstes einführendes Beispiel das Versprechen des Berliner Unternehmens »2txt – natural language generation«. In der Selbstdarstellung grenzt sich die Company von templatebasierten Ansätzen ab: »Unsere semantischen Modelle und Grammatiken sind wesentlich flexibler als herkömmliche Template-Lösungen und besitzen damit eine so große Ausdruckskraft, dass wir deutlich skalierbarer und vielfältiger Texte generieren können als vergleichbare Ansätze.«7 Man kann daran glauben oder nicht. Nur Kunden könnten bestätigen, dass dies tatsächlich bereits funktioniert. Woher weiß selbst das schlaueste künstliche neuronale Netz »von sich aus«, dass es sich beim Modell GE72 7RE-049DE um »ein leistungsstarkes Oberklasse-Notebook« handelt? Eine solche Verknüpfung ist nur möglich, wenn das dem Programm schon einmal irgendwo gesagt wurde oder es Zugriff auf Dokumente oder Web-Inhalte hat, aus denen diese Information hervorgeht.
Wie immer in der Netzkultur ist es schwierig, Heilsversprechen von Unternehmen zu verifizieren. Jede Innovation produziert rasch zahllose Anbieter und Nachahmer im Netz. Nicht anders verläuft die derzeitige Entwicklung im Bereich der automatischen Textgenerierung.
Dennoch: Wie breit das Feld der automatisch erzeugten Inhalte (d. h. von Automated Content) bzw. das Feld des Versprechens von automatisch erzeugten Inhalten bereits ist, zeigt folgende Tabelle, die selbstverständlich keinen Anspruch auf Vollständigkeit erhebt (Erhebungszeitraum Juli 2018):
Content-Typ |
Anbieter (Auswahl) |
Webseite |
Journalistischer Text (z. B. Wetter, Sport, Wirtschaftsnachrichten, Wahlergebnis) |
In den USA z. B. Automated Insights und Narrative Science, in DE z. B. Retresco, AX Semantics, TextOmatic |
https://automatedinsights.com, https://narrativescience.com, https://retresco.de, https://ax- |
E-Commerce-Text (z. B. Produktbeschreibung) |
2txt, Retresco, AX Semantics, TextOmatic |
https://2txt.de, https://retresco.de, https://ax- |
Google-Analytics-Bericht |
Narrative Science |
https://quillengage.com |
Wissenschaftlicher (Kurz-)Text |
Articoolo |
http://essaybuddy.net |
Wissenschaftliches Buch |
ICON Group International |
https://icongrouponline.com |
Belletristisches Buch (Lyrik, Roman …) |
P.M. Parkers Algorithmus, ICON Group (nicht öffentlich, laut Parker in Planung) |
https://youtube.com/ |
Infografik |
Graphiq |
https://graphiq.com |
Kunstwerk (Grafik, Bild) |
Rutgers University, Googles DeepDream |
https://sites.google.com/site/digihumanlab/home (nicht kommerziell); https://ai.googleblog.com/2015/07/deepdream-code-example-for-visualizing.html (nicht kommerziell) |
Explainer Video |
simpleshow |
https://mysimpleshow.com/de |
Video, Imageclip |
Wibbitz |
https://wibbitz.com |
(Kurz-)Film |
Thereforefilms |
http://thereforefilms.com/sunspring.html |