KI-VOLUTION
KI-VOLUTION
Künstliche Intelligenz einfach erklärt für alle
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie.
Detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Für Fragen und Anregungen:
info@redline-verlag.de
1. Auflage 2020
© 2020 by Redline Verlag, ein Imprint der Münchner Verlagsgruppe GmbH,
Nymphenburger Straße 86
D-80636 München
Tel.: 089 651285-0
Fax: 089 652096
Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.
Redaktion: Desirée Simeg
Umschlaggestaltung: Marc Fischer
Umschlagabbildung: BAIVECTOR/Artificial Intelligence Logo/Shutterstock
Satz: Röser MEDIA GmbH & Co. KG, Karlsruhe
Druck: GGP Media Pößneck
eBook: ePubMATIC.com
ISBN Print 978-3-86881-799-7
ISBN E-Book (PDF) 978-3-96267-229-4
ISBN E-Book (EPUB, Mobi) 978-3-96267-230-0
Weitere Informationen zum Verlag finden Sie unter
www.redline-verlag.de
Beachten Sie auch unsere weiteren Verlage unter www.m-vg.de.
Tabellenverzeichnis
Abbildungsverzeichnis
Was Sie erwartet. Und was nicht
Das Orchestrion des 21. Jahrhunderts
Faktor g und künstliche Intelligenz
Was dieses Buch erzählt
Eine andere Geschichte der künstlichen Intelligenz
Von Fliehkraftreglern zu neuronalen Netzen
Raffinerien des 21. Jahrhunderts
Bösartige Probleme
Blinde Flecken der künstlichen Intelligenz
Künstliche Intelligenz ist ein bewegliches Ziel
Künstliche Intelligenz verstehen – ohne Expertenwissen
Die Allmacht der Sprache
Metaphern für das Denken
Der Mensch in der Schleife
Die Grenzen von Automation
Die Automation des Entscheidens als Landkarte
Wie eine Entscheidung fällt
Der Ablauf einer Entscheidung
Organisationale Entscheidungen
Die Entscheidung zur Entscheidung
Sechs Stufen der Automation des Entscheidens
Die Matrix der Entscheidungsallokation
Die Automation des Entscheidens in der Praxis
Ouvertüre
Beef im Selbstmord-Quadranten
Was macht Beef?
Von Beef zu BOnco
Wie hast Du‘s mit der künstlichen Intelligenz?
Beef und BitKoin 2030
Augmentieren statt Automatisieren
Dialoge über die künstliche Intelligenz
Das Perspektivenprisma
Dialoge gestalten
Dialoge des Verstehens
Dialoge des Untersuchens
Dialoge des Erprobens
Dialoge des Umsetzens
Über den Autor
Literaturverzeichnis
Anhang
6-Stufen-Modell der Automation des Entscheidens
Matrix der Entscheidungsallokation
Weitere Fragen für Dialoge über die Automation des Entscheidens
Anmerkungen
Tabelle 1: Einige Definitionen der menschlichen Intelligenz
Tabelle 2: Fliehkraftregler und neuronale Netze im Vergleich
Tabelle 3: Beispiele für Definitionen der künstlichen Intelligenz
Tabelle 4: Langweilige und bösartige Probleme im Vergleich
Tabelle 5: Einige Metaphern für künstliche Intelligenz
Tabelle 6: Fitts Liste
Tabelle 7: Vier Schritte zur Entscheidung
Tabelle 8: Definitionen für Stufen der Automation
Tabelle 9: 10 Stufen der Automation in Anlehnung an (Sheridan & Verplank, 1978, S. 8-17)
Tabelle 10: Die Stufen der Automation des Fahrens in Anlehnung an (SAE International, 2014)
Tabelle 11: Sechs Stufen der Automation des Entscheidens
Tabelle 12: Allokation von Entscheidungsautonomie
Tabelle 13: Matrix der Allokation von Verantwortung in Entscheidungen
Tabelle 14: Beef verorten für verschiedene Märkte
Tabelle 15: Beispiele für Suchworte um das Konzept der Automation des Entscheidens
Tabelle 16: Fragebogen zur Ermittlung des Reifegrads der Automation des Entscheidens
Tabelle 17: Vier Szenarien zur Zukunft des Finanzwesens (angelehnt an (Grattoni, 2017)
Tabelle 18: Vier Perspektiven auf die Automation des Entscheidens
Tabelle 19: Beispielagenda für einen Wissensdialog mit der Automation des Entscheidens
Tabelle 20: Beispielfragen aus den vier Perspektiven auf die Automation des Entscheidens
Abbildung 1: Piano-Orchestrion im Deutschen Museum
Abbildung 2: Statistische Verteilung des Intelligenzquotienten in der Gesamtbevölkerung
Abbildung 3: Wattsche Dampfmaschine im Deutschen Museum
Abbildung 4: Zuse Z4 (Nachfolger der Z3) im Deutschen Museum
Abbildung 5: Ein Husky wird (nicht) erkannt (Besse, Castets-Renard, Garivier, & Loubes, 2018, S. 22)
Abbildung 6: Datenwachstum in den Jahren 2005 bis 2015
Abbildung 7: Maschinenhalle des 19. Jahrhunderts
Abbildung 8: Das Investitionsparadox der künstlichen Intelligenz
Abbildung 9: Beispiel für Mensch in der Schleife
Abbildung 10: Fähigkeiten von Menschen und Maschinen in Anlehnung an (Price H. E., 1985, S. 37)
Abbildung 11: Die kognitiven Ebenen der Bloom-Taxonomie
Abbildung 12: Verschiedene Grade der Automation, angelehnt an (Parasuraman, Sheridan, & Wilkens, 2000, S. 288)
Abbildung 13: Der Kontrollraum von Cybersyn
Abbildung 14: Entscheidungen fallen in Mülltonnen
Abbildung 15: Der Ablauf einer Entscheidung im Mülltonnen-Modell (Garbage Can Model)
Abbildung 16: Marmeladenauswahl in einem Supermarkt
Abbildung 17: Ein Zylinder als Sinnbild für erklärbare und nicht erklärbare Algorithmen
Abbildung 18: Apollo Guidance Computer
Abbildung 19: Der Roboteraufstand in R.U.R.
Abbildung 20: Sechs Stufen der Automation des Entscheidens (BITKOM, 2017, S. 14)
Abbildung 21: Der Selbstmord-Quadrant, angelehnt an (Sarasvathy, 2003, S. 206)
Abbildung 22: Automation des Entscheidens für Pädagogik
Abbildung 23: Beef im Kundendialog einer Bank
Abbildung 24: Automation des Entscheidens für die partizipative Entscheidungsfindung in Anlehnung an BITKOM, 2017, S. 14
Abbildung 25: 2×2-Matrix für Szenarien des Finanzwesens im Jahr 2030
Abbildung 26: Tätigkeiten der Anlageberatung für Anlageberater und Robo-Advisor (in Anlehnung an (Price H. E., 1985, S. 37))
Abbildung 27: Ein Prisma bricht Sonnenlicht in Spektralfarben
Abbildung 28: Vier Perspektiven auf die Automation des Entscheidens
Abbildung 29: Vier Dialogtypen über die Künstliche Intelligenz in Anlehnung an (Eppler & Mengis, 2004, S. 18)
Abbildung 30: Verstehen erklärt die Metapher
Abbildung 31: Dialoge des Untersuchens gehen dem Verhältnis von Mensch und Maschine auf den Grund
Abbildung 32: Dialoge des Erprobens loten die Möglichkeiten der Mensch-Maschine-Interaktion aus
Abbildung 33: Dialoge des Umsetzens legen das Vorgehen fest, welche Optionen erprobt werden sollen
»Ich habe etwas darin gefunden, das mich an einige neue Orte geführt hat.«
– PAT METHENY
Pat Metheny ist Gitarrist. Einer meiner Lieblingsmusiker einer melodischen Variante des Jazz. Ich folge seinem Oeuvre seit Jahrzehnten. Als Namensgeber der Pat Metheny Group tourt er durch eine Nische der Musikwelt. Aber er verfolgt auch Soloprojekte. Dort sucht Metheny nach experimentellen Zugängen zur zeitgenössischen Jazzmusik. Eines dieser Projekte nennt sich »Orchestrionics« und startete im Jahr 2009.1 Metheny erfüllte sich einen Jugendtraum: Der Jazzgitarrist verband die Idee des mechanischen Orchestrions aus der Zeit der 19. Jahrhunderts mit Technologien, die erst im 21. Jahrhundert verfügbar waren. Das Ziel des Musikers war eine Plattform, um andersartige Kompositionen zu schreiben, nie dagewesene Improvisationen zu ergründen und radikale Aufführungsformate zu erproben.
Dafür baute Metheny Musikinstrumente, deren Klang einerseits auf akustisch oder akustik-elektrischen Mechanismen beruhte. Andererseits ordnete er Luftdruckschläuche und Magnetventile so an, dass er parallel zum eigenen Musizieren das Bedienen anderer Instrumente aussteuern konnte.
Während das Zusammenspiel vieler solcher Instrumente die Grundlage eines mechanischen Orchesters bildet, improvisiert Metheny selbst mit der Jazzgitarre über den von ihm mechanisch erzeugten Klangteppich. Er fragte sich, wie dieses Zusammenspiel aus Musikmaschinen und Musikern seine Idee des Solospiels befeuern würde.
Etwa um das Jahr 1880 entsteht mit »mechanischen Klavieren« eine neue Gattung von Musikinstrumenten: Eine Papierrolle wird perforiert, die beim Vorbeiziehen an einer Mechanik die Klaviertasten anschlägt. Der nächste Schritt besteht darin, die Idee der über Lochbänder codierten Musik auf andere Instrumente zu übertragen. Damit kann die gesamte Palette einer Orchesterbesetzung mechanisch bespielt werden. Das Orchestrion ist geboren.2 Die Blütezeit des Orchestrions geht fließend über in den Beginn einer anderen Ära: die Erfindung der Tonaufzeichnung. Metheny erkennt in diesem Übergang eine »interesting middle zone«: Die erste Technik macht den Musiker überflüssig, die zweite konserviert die Qualitäten der musikalischen Interpretation.
Ab dem Jahr 1978 experimentiert Metheny mit dem Übereinanderlegen kurz nacheinander aufgezeichneter Takte, was eine Ensemble-Musik möglich macht. Im Studio funktioniert das gut, erweist sich aber als wenig praktikabel bei einem Live-Konzert. Aber selbst das, was heute als Sampling (in Echtzeit übereinandergelegte Rhythmen) gang und gäbe ist, hätte Methenys Ansprüchen nicht genügt. Über die Jahre sinniert er über eine Musiktechnologie, die sich aus der direkten mechanischen Interaktion akustischer Instrumente entwickeln soll.
Metheny will akustische und elektrische Instrumente miteinander verbinden. Ihm geht es nicht um Entweder-oder, sondern um Sowohl-als-auch: Musiker spielen zusammen mit Musikmaschinen. Darum sucht er Experten, die ihm diese Art von Instrumenten bauen können. Im Laufe der Jahre schart er ambitionierte Erfinder und Techniker um sich. Damit wächst die Palette seiner Instrumente. Das »Orchestrion für das 21. Jahrhundert« nimmt Gestalt an.
Wie kaum eine andere Musik steht Jazz in der Tradition, Grenzen auszuloten und neue Spielformen und Kompositionsstile zu entwickeln. Jazz zeigt, wie rastlose Seelen es verstehen, die Wurzeln dieser Musik durch neue Möglichkeiten ihrer jeweiligen Zeit evolutionär weiterzubringen. Methenys Instrumentenbauer loteten die technischen Möglichkeiten aus. Derweil experimentierte der Jazzer mit Prototypen, um zu verstehen, was möglich war und wie er das Zusammenspiel der Musikautomaten mit seinem Spiel in Einklang bringen konnte.
In Erklärungen bezieht sich Metheny mit der Bedeutung seines Projekts auf einen Vordenker der künstlichen Intelligenz: den Unternehmer und Erfinder Ray Kurzweil.3 Dieser sagte, dass neuartige Werkzeuge es dem Menschen erlauben würden, die Grenzen des Möglichen immer weiter hinauszuschieben. Hier trifft der Jugendtraum von Pat Metheny auf die Geschichte der künstlichen Intelligenz: Automaten wie das Orchestrion produzieren neue Musik. Die Automaten der künstlichen Intelligenz produzieren neue Gedanken.
Die Erkundung, die Metheny mit dem Orchestrion unternahm, betraf das Ausbalancieren von Entscheidungen, im Musikkontext zwischen Mensch und Maschine. Er fragte sich, welche Entscheidungen ein Musiker an eine »Instrumentmaschine« übertragen sollte, wo ein Musiker die Kontrolle behalten sollte und an welchen Stellen Zufälle zu neuen Entdeckungen führen könnten und so weiter. In diesem Experiment hat der Jazzmusiker sein Verhältnis zu Musikinstrumenten neu verortet. Er schob dafür die Grenzen des Machbaren durch Technik weit hinaus. Metheny fragte sich für die Domäne der Musik, wie Maschinen den Jazz verändern könnten.
Metheny arbeitet sich daran ab, wie es sich anfühlt, mit Maschinen Musik zu machen. Wir werden ähnliche Fragen aufwerfen, richten sie aber an die Domäne des Denkens und Handelns. Wir sprechen heute davon, dass Maschinen »denken wie Menschen«. Was heißt das genau? Die Möglichkeit, dass eine Maschine den Vorgängen und Tätigkeiten eines Gehirns nacheifert, begeistert und erschreckt gleichermaßen. Denn es tun sich schnell eine Reihe von Fragen auf:
Die Fähigkeit zum Musizieren lässt sich ermessen an der Fingerfertigkeit des Musikers und seinem Talent, das Notenblatt zu lesen und zu interpretieren. Die Fähigkeit zu denken lässt sich ablesen am Intelligenzquotienten (IQ). Damit hätten wir ein gutes Maß, um auch die Intelligenz von Maschinen zu vermessen. Oder vielleicht doch nicht?
Wenn wir die Automation von Musik auf die Idee der Automation von Denken übertragen, stoßen wir auf ein Problem: Musikalische Fertigkeit lässt sich zurückführen auf das Fingerspitzengefühl, ein Instrument so zu bedienen, dass die Interpretation von Notenmaterial gelingt. Denken müsste sich demnach erklären lassen als eine »Fingerfertigkeit des Denkens«. Und die gilt es durch Intelligenztests zu ermitteln. Solch ein Test ergibt den Intelligenzquotienten, ein Maßstab, der die Intelligenz eines Menschen im Vergleich zur Gesamtbevölkerung repräsentiert. Liegt der IQ bei 100, ist die Person durchschnittlich intelligent. Und wie erkennt man, wie intelligent Maschinen sind? Die Antwort liegt auf der Hand: Wenn der Intelligenzquotient die Intelligenz eines Menschen misst und künstliche Intelligenz die natürliche simuliert, sollte sie ebenfalls durch Intelligenztests abzugreifen sein.
Laut einem Test liegt mein IQ bei 1334. Damit gehöre ich laut Auswertung zu den 14 Prozent der Teilnehmer, die man als »begabt« bezeichnet (IQ von 120 bis 140). Das Ergebnis schmeichelt mir – sonst hätte ich es unterschlagen –, aber es ist leider wertlos. Denn der Intelligenzquotient ist nur sehr begrenzt geeignet, um etwas über die Intelligenz eines Menschen zu erfahren, geschweige denn über künstliche Intelligenz. Warum das so ist, erfahren Sie im nächsten Abschnitt.
In dem Film Rain Man aus dem Jahr 1988 spielen Tom Cruise und Dustin Hoffman die Brüder Charlie und Raymond Babbit: Der Erste ist ein selbstverliebter Autohändler, der Zweite ein autistischer Savant mit einer besonderen Begabung. Eine Szene spielt in einem Restaurant. Die Bedienung lässt einen Behälter mit Zahnstochern fallen und Raymond erkennt schlagartig, dass auf dem Boden 246 Zahnstocher verstreut liegen.5
Das Savant-Syndrom beschreibt Menschen, die eine geistige Behinderung zeigen und damit an alltäglichen Tätigkeiten scheitern. Gleichzeitig überraschen sie mit Inselbegabungen im Erinnern, Musizieren, Rechnen oder bei Fremdsprachen.6 Künstliche Intelligenz ist so etwas wie die technische Lösung einer Inselbegabung: Sie zeigt Fähigkeiten, die für sehr eng begrenzte Aufgaben »übermenschlich« zu sein scheinen.7 Im Umkehrschluss müsste gelten: Eine Inselbegabung zeigt Intelligenz. Aber das ist keineswegs der Fall!
Sie selbst haben Intelligenz. Ihre Kinder haben Intelligenz geerbt. Meine reicht zumindest, um dieses Buch zu schreiben. Doch selbst Forschern, denen man schon von Berufs wegen Intelligenz zugesteht, quälen sich mit der Frage: Was ist Intelligenz überhaupt?
Die Anfänge des Begriffs reichen zurück ins Jahr 1904. Der britische Psychologe Charles Spearman lässt Probanden mehrere kognitive Tests durchführen. Dabei entdeckt er, dass bestimmte Faktoren über alle Tests leicht voneinander abhängen.8 Daraus folgert Spearman, es müsse etwas geben, das das Ausmaß an Intelligenz einer Person erfasst. Er nennt dieses Phänomen Faktor g.
Spearmans Idee ist von Anfang an umstritten und es gibt weitere Versuche, um der Intelligenz auf die Schliche zu kommen, aber bis heute hat sich keine Definition durchgesetzt. Auch im 21. Jahrhundert wird weiter zur Intelligenz geforscht. Das hat viele Gründe.
Intelligenz lässt sich nicht so einfach von anderen Fähigkeiten der Psyche abgrenzen: Ist jemand schon intelligent, wenn er schnell rechnen kann? Oder wenn er kreative Lösungen für Probleme entdeckt? Oder sich besonders gut in andere hineinversetzen kann?
Moderne Ansätze unterteilen Intelligenz gerne in mehrere Domänen wie die mathematische, die sprachliche oder die emotionale.9 Tatsächlich nahm der Variantenreichtum an Vorschlägen zur Definition von Intelligenz über die vergangenen Jahrzehnte zu. Eine Definition, auf die die Mehrheit der Wissenschaftler sich einigen konnte, kam trotzdem nicht heraus. So verharrt die Forschung in vielen Ansätzen, die das Konstrukt der Intelligenz erklären wollen (siehe Tabelle 1), und es wird klar: Die Beliebtheit des Intelligenzquotienten beruht vor allem auf dem Mangel an brauchbaren Alternativen.
»… Fähigkeit des Individuums, zielgerichtet zu handeln, rational zu denken und sich wirkungsvoll mit seiner Umwelt auseinanderzusetzen«10 |
»… die Art der Bewältigung einer aktuellen Situation, […], gut urteilen, gut verstehen und gut denken.«11 |
»… allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens.«12 |
»… Befähigung zum Auffinden von Ordnung», «Befähigung zum Auffinden von Redundanz«13 |
»… die Fähigkeit zum schlussfolgernden Denken, zum Planen, zur Problemlösung, zum abstrakten Denken, zum Verständnis komplexer Ideen, zum schnellen Lernen und zum Lernen aus Erfahrung.«14 |
Fachleute tun sich schwer, den Begriff Intelligenz verbindlich zu verorten. Das experimentelle Problem dahinter entlarvte vor langer Zeit bereits der Psychologe Edwin Boring. Er stellte nüchtern fest: »Intelligenz ist das, was Intelligenztests messen.«15
Der Streit über den Intelligenzbegriff dauert in den Humanwissenschaften bereits über 100 Jahre. Trügerischweise hielt solche Unklarheit die Apologeten der künstlichen Intelligenz nicht davon ab, wie selbstverständlich die natürliche Intelligenz als Vorbild für die künstliche zu halten. Deshalb übersetzten sie einfach die verqueren Begriffe aus der psychologischen Domäne in die Maschinenwelt. Und natürlich sagen die Anbieter einschlägiger Software voraus, dass ihre Lösungen irgendwann jede Art von Intelligenztest bewältigen werden.16 Und das, obwohl sie gar nicht genau sagen können, was Intelligenz eigentlich ist.
Es ist alles andere als trivial, Intelligenz zu messen. Schnell entgleitet sie einfachen Erklärmustern. Vor allen Dingen scheint sich Intelligenz nicht auf eine einzige Maßzahl eindampfen zu lassen. Gibt es vielleicht Alternativen, um die Intelligenz einer Maschine zu messen? Etwas, das sich nicht auf eine numerische Skala stützt, auf der sich menschliche Intelligenz gefälligst anzusiedeln hätte?
Der Mathematiker Alan Turing macht sich Anfang der 1940er-Jahre einen Namen, weil er maßgeblichen Anteil hatte, die Codiermaschine Enigma17 zu entschlüsseln. Bereits im Jahr 1936 erfindet er die nach ihm benannte Turingmaschine18.19 Es ist zwar nur ein Gedankenexperiment, um die prinzipiellen Grenzen der Computertechnik zu bestimmen. Aber sie hat bis heute Gültigkeit.
In den Nachkriegsjahren wendet sich Turing den philosophischen Fragen der Computertechnik zu und schlägt eine sehr originelle Variante vor, um die Intelligenz einer Maschine zu messen: Der nach ihm benannte Turing-Test bezeichnet einen theoretischen Versuchsaufbau, um nachzuweisen, ob irgendeine Maschine eine dem Menschen ebenbürtige Intelligenz aufweise.20 Im Jahr 1950 formuliert Turing also einen Gedankengang, der die ungelöste Frage nach der Definition von Intelligenz einfach beiseiteschob. Er löste das Problem, indem er es ganz anders formulierte. Das war sehr intelligent! Und ein sehr kluger Gedanke, der uns später noch beschäftigen wird …
Turing stellte folgende Überlegung an: Ein Mensch stellt Fragen an einen Gesprächspartner. Er kann ihn dabei weder sehen noch hören. Alle Fragen sind erlaubt. Um Fragen zu stellen, bedient der Mensch eine Tastatur. Die Antworten erscheinen auf dem Bildschirm. Der Test gilt als bestanden, wenn der Fragensteller trotz intensiver Befragung nicht entscheiden kann, ob er mit einer Maschine oder einem Menschen kommuniziert.
Seit Turing dieses Konzept formulierte, versuchen Enthusiasten der künstlichen Intelligenz, den Turing-Test zu bestehen. Es gibt Sieger zweifelhafter Wettbewerbe, die behaupten, dass dies bereits gelungen sei.21 Doch selbst bei großzügiger Auslegung der Spielregeln gilt: Für die Praxis hat der Turing-Test in den letzten Jahrzehnten keine Relevanz gehabt.
Und damit zeigt sich das Problem: Wissenschaftler streiten seit Jahrzehnten über den Begriff der Intelligenz des Menschen. Wie kann es dann plausibel sein, denselben Diskurs für den Begriff der künstlichen Intelligenz zufriedenstellend zu lösen? Uns fehlt das Fundament, bevor wir einen sinnvollen Gedanken an die Definition von künstlicher Intelligenz verschwenden können!
Statt in Sack und Asche zu gehen und zu verharren und dieses Dilemma mit Demut zur Kenntnis zu nehmen, schwappen die Diskurse um die Fragen menschlicher Intelligenz über in solche zur künstlichen. Ungefragt, unkommentiert und unwidersprochen werden Meinungen, Vermutungen und Annahmen über menschliche Intelligenz verrührt und hineingepfropft in die Definition von künstlicher. Heute steht der Begriff künstliche Intelligenz für ein Sammelsurium halbgarer Übertragungsfehler, die der originäre Intelligenzbegriff über Jahrzehnte um sich angehäuft hat.
Statt erst einmal Klarheit über die Definition des Intelligenzbegriffs zu schaffen, legen wir neben die lange Liste offener Fragen zur menschlichen Intelligenz noch eine zweite. Und die Fragen auf dieser Liste sind noch schwieriger zu beantworten als die, für die bis jetzt die meisten Antworten ausstehen. Wie können wir es wagen, eine Definition von künstlicher Intelligenz zu ersinnen, deren Herleitung schon deshalb nicht funktioniert, weil die Annahmen nicht eindeutig sind?
Das alles lässt einen Schluss zu, der uns unruhig machen sollte: Wir werden die meisten Fragen zur künstlichen Intelligenz nicht beantworten können, solange wir viele Antworten zur menschlichen Intelligenz schuldig bleiben. Die Diagnose ist niederschmetternd. Und wie es scheint, ist die Lage aussichtslos.
Wenn es wirklich so schlimm ist, wie ich behaupte: Warum sollten wir uns dann trotzdem um eine Antwort bemühen? Aus einem sehr einfachen Grund: Künstliche Intelligenz hat die Büchse der Pandora verlassen. Wir können uns nicht mehr davor drücken, irgendwie mit diesen Fragen umzugehen – selbst wenn wir sie nicht beantworten können. Die Frage lautet nicht mehr, ob wir Antworten suchen wollen oder sollen. Wir setzen uns mit jedem technischen Fortschritt in der künstlichen Intelligenz mehr unter Druck, welche zu finden, weil wir uns sonst auf die Konsequenzen nicht vorbereiten können. Wir müssen dringend besser verstehen, was künstliche Intelligenz im Alltag anrichten kann, wo ihre Chancen liegen, aber – noch wichtiger – wo sich ihre Risiken auftun. Wenn wir also gezwungen sind zu reagieren, dann sollten wir uns einen anderen Zugang zum Verständnis von künstlicher Intelligenz aneignen.
Der Computerpionier Alan Turing hat vorgemacht, wie man einen Sachverhalt besser durchdringen kann: Man ändert die Prämissen des Problems. Damit revolutionierte er unser Denken über das Wesen der Computertechnik. Wir machen es genauso.
»Ein Teil dieser Antworten würde die Bevölkerung verunsichern.«
– LOTHAR DE MAIZIÈRE
Der 13. November 2015 geht in die Geschichte ein als Tag mit einem der größten Terroranschläge Europas der neueren Zeit: In Paris sterben 130 Menschen, fast 700 werden verletzt.22 Fünf Tage später lädt Bundesinnenminister Lothar de Maizière zu einer Konferenz, die im politischen Gedächtnis der Bundesrepublik Deutschland haften bleibt. Es hatte Hinweise auf geplante Terroranschläge in Deutschland gegeben. Das Fußball-Länderspiel Deutschland gegen die Niederlande in Hannover wurde ersatzlos gestrichen. Der Innenminister benannte die Gründe für die Absage der Veranstaltung, wollte aber keine Details öffentlich machen. Deshalb rang de Maizière nach Worten, lavierte herum und sein Stammeln gipfelte schließlich in dem Satz: »Ein Teil dieser Antworten würde die Bevölkerung verunsichern.«23
Den Diskurs um das Verstehen und Verbreiten künstlicher Intelligenz dürfen wir uns ähnlich vorstellen: Ein Teil dieser Antworten würde die Bevölkerung verunsichern. Denn künstliche Intelligenz ist eine Chimäre. Hier die Verheißung einer nächsten industriellen Revolution: Computer und Roboter als Prophezeiung einer Zukunft ohne Arbeitsfrust, Wachstum ohne Grenzen, permanenter Konsum und blühende Landschaften. Dort der Abgesang auf den Turbokapitalismus, auf alte Gewissheiten der Ökonomie: Aufstand der Maschinenstürmer, Massenarbeitslosigkeit, Spaltung der Gesellschaft, Rückzug in die digitalen Räume, Echokammern, Verzicht und Armut – das Ende der Zivilisation.
Bis jetzt sind die Verheißungen nicht in Erfüllung gegangen, aber wir sind auch von Katastrophen verschont geblieben, die auf den unmittelbaren Einsatz und Gebrauch von künstlicher Intelligenz zurückzuführen wären. Für einige Warner ist es nur eine Frage der Zeit, wann das passiert.24
Deshalb gilt in Diskussionen um die künstliche Intelligenz sinngemäß: Ein Teil der Antworten würde Entscheider, Gestalter und Betroffene verunsichern. Der große Unterschied zu de Maizière: Bei der künstlichen Intelligenz mangelt es nicht an Fakten und Informationen, um eine Antwort zu erhalten. Im Gegenteil: Journalisten, Unternehmen und Interessenverbände fluten uns mit Fakten, Meinungen und Prognosen zur künstlichen Intelligenz. Medienwirksame Aufhänger sind typischerweise technische Durchbrüche: »Ein Roboterauto durchquerte gerade den Kontinent«25, 26. Aber es drängen auch Themen in die Öffentlichkeit, welche Folgen solche Errungenschaften nach sich ziehen: »Die erste autonome Autoreise quer durch den Kontinent zeigt ein ethisches Minenfeld.«27, 28
Künstliche Intelligenz rast unaufhaltsam auf uns zu, und sie ist gekommen, um zu bleiben. Aber es wird keine einfachen Antworten geben auf eine Vielzahl von Fragen, die damit einhergehen. Wie sollen wir uns dieser Herausforderung stellen? Eine gute Strategie könnte sein: Wir stellen erst einmal die richtigen Fragen. Und dann suchen wir gute Antworten. Nicht andersherum.
Vor einigen Jahren machte eine Studie Furore. Die Ökonomen Carl Frey und Michael Osborne fragten: Wie anfällig sind Tätigkeiten, die bisher von Menschen ausgeübt werden, für Automation? Dafür betrachteten sie den amerikanischen Arbeitsmarkt. Mithilfe eines aufwendigen Forschungsdesigns wurden 702 Arbeitsprofile seziert. Die Autoren zerlegten dafür jede Arbeit in eine Ansammlung von Einzeltätigkeiten. Anschließend verglichen sie, welche Anteile davon bis zum Jahr 2030 Maschinen leisten könnten. Ihre Schlussfolgerung war niederschmetternd: »Nach unseren Schätzungen sind etwa 47 Prozent aller Beschäftigten in den USA gefährdet.«29 Der Befund erregte weltweit Aufsehen. Keiner hatte damit gerechnet, dass in weniger als drei Jahrzehnten ein derart hoher Prozentsatz an Arbeitsplätzen auf der Kippe stehen würde. Frey und Osborne behaupteten nichts weniger, als dass Roboter und künstliche Intelligenz fast die Hälfte der arbeitsfähigen Bevölkerung hinwegfegen würden. Das hätte verheerende Konsequenzen für Wirtschaft, Politik und Gesellschaft.
Nach Erscheinen der Studie brach ein Glaubenskrieg darüber los, ob die Prognosen stimmten. Denn allen war klar, was es bedeuten würde, wenn die Forscher recht behielten. Deutsche Forscher fühlten sich bemüßigt, die Studie für den hiesigen Arbeitsmarkt zu replizieren, kamen zu ähnlich desaströsen Resultaten und formulierten ähnlich desaströse Konsequenzen.30,31
Müssen wir diese Horrorszenarien widerspruchslos akzeptieren? Sollten wir uns besser auf das Schlimmste gefasst machen: Die Übernahme der Herrschaft durch seelenlose Maschinen? Eher nicht. Denn in der Diskussion wurde selten eine wichtige Frage gestellt.. Haben Frey und Osborne überhaupt sauber gearbeitet? Es gibt nämlich Grund zu der Annahme, dass die Ökonomen unzulässige Prämissen trafen. Die Wissenschaftler zerlegten etwa das Tätigkeitsprofil eines Arbeitsplatzes in kleine, abgrenzbare Aktivitäten und betrachteten jeweils die Möglichkeit, jede einzeln zu automatisieren. Aber ist es zulässig, einen Arbeitsplatz »in seine Bestandteile« zu zerlegen, und anschließend wieder alles zusammenzusetzen wie einen Frankenstein? Frey und Osborne könnten über das Ziel hinausgeschossen sein, denn die Automation einzelner Tätigkeiten wird auch die Arbeit an sich verändern, und das wird nicht ad hoc passieren, sondern über lange Zeiträume. Auch die bisherige Praxis spricht gegen ihre Aussagen. Enno de Boer von McKinsey zum Beispiel meint zur Automation von Fabriken: »Einige Hersteller haben Lights-out-Ansätze während des Betriebs für die Nachtschicht eingeführt, mit der Menschen naturgemäß schwer zurechtkommen. Es ist aber sehr schwer, diese letzten 30 Prozent der menschlichen Bediener zu ersetzen.«32
Die vollständige Automation von Fabrikarbeit treibt Wissenschaftler seit den 1950er-Jahren um. Bereits der Versuch des Ingenieurs Paul Fitts, einfach die menschlichen und maschinellen Tätigkeiten aufzuteilen, endete in der Sackgasse.33,34 Eine klare Aufteilung der Tätigkeiten in solche für Maschinen und solche für Menschen war überhaupt nicht möglich.
Zudem hätte es vielen eifernden Zitatoren gutgetan, die Studie von Frey und Osborne überhaupt bis zum Ende zu lesen. Denn auf den hinteren Seiten erklären die Autoren, welche Eigenschaften auf absehbare Zeit nicht von Maschinen übernommen werden können:35
Diese Fähigkeiten, so die Autoren, blieben dem Menschen vorbehalten. Ihre Arbeit schließt mit einem Appell, der den einen Angst machen und anderen Hoffnung geben kann: »Damit Arbeitnehmer aber das Rennen gewinnen, müssen sie sich kreative und soziale Fähigkeiten aneignen«.36
Sechs Jahre nach Frey und Osborne behauptete eine Studie der Brooking Institution, dass bis zu 25 Prozent der amerikanischen Arbeitsplätze ein hohes Risiko tragen, durch maschinelle Automation überflüssig zu werden.37 Das ist nur noch die Hälfte der von Frey und Osborne prognostizierten Arbeitsplatzverluste – obwohl sich die Technik in der Zwischenzeit rasant weiterentwickelt hat. Es bleibt also wohl noch viel zu erforschen, was die langfristigen Konsequenzen hoher Automation angeht. Lassen wir uns überraschen!
Wenn Sie herausfinden wollen, ob Ihr eigener Job durch die zunehmende Digitalisierung oder durch Automation überflüssig werden könnte, probieren Sie den Job Futuromat 2020 aus.38 Sobald sie eine passende Berufsbezeichnung eingeben oder auswählen, spuckt die Suchmaschine drei Zahlen aus: die Anzahl dieser Jobs in Deutschland, die durchschnittliche Entwicklung des Monatsgehalts sowie eine Einschätzung über die potenzielle Automatisierbarkeit dieses Jobprofils und die Wahrscheinlichkeit dafür, dass er in Zukunft automatisiert wird.
Allerdings wissen Sie jetzt besser, wie sie die Ergebnisse in den Diskurs um die Vernichtung von Arbeitsplätzen einordnen müssen …
Wenn die Voraussagen über die Auswirkungen der Automation so ungenau sind: Warum hilft es trotzdem, sie zu kennen? Weil wir sie einerseits kritisch lesen und andererseits begründet hinterfragen können. Das bedeutet: Indem Sie ein Verständnis dafür entwickeln, was künstliche Intelligenz ist und wie sie Ihre Arbeit und Ihren Alltag verändern wird, gehen Sie anders mit diesen Prognosen um. Je mehr Sie darüber wissen, desto besser können Sie Analysen einordnen und darauf reagieren. Auch wenn Sie ein Teil der Antworten immer noch verunsichern wird …
Typische Einführungen in die künstliche Intelligenz verlangen dem Leser viel ab. Besser für ihn, er bringt Vorkenntnisse in der Datenverarbeitung mit, oder er versteht sich als ein Laie, der nicht vor Technik zurückschreckt. Dieser Leser ist vergleichbar mit dem Autofahrer, der selbst einen Blick unter die Motorhaube wirft und in der Werkstatt mit dem Kraftfahrzeugmechaniker fachsimpelt. Denn um die Technik der künstlichen Intelligenz nur im Ansatz zu begreifen, muss man in kurzer Zeit viele Fachbegriffe kennenlernen und laufend in einem komplexen Fachgebiet verorten. Das fordert viele Leser heraus und lässt sie nicht nur an künstlicher Intelligenz zweifeln, sondern auch an ihrer eigenen.
Dieses Buch ist keine Facheinführung in künstliche Intelligenz. Stattdessen soll es Ihr Gehör schulen: für das Grundrauschen, das künstliche Intelligenz für Arbeit und Alltag erzeugt, seitdem sie vor Jahrzehnten auftauchte. Denn dieses Grundrauschen nimmt zu. Es wird lauter und es wird bleiben.
In diesem Buch liefern Schlagworte und Fachbegriffe zur künstlichen Intelligenz lediglich Anlässe, sie zu relativieren. Wir werden sehr wenigen, aber sehr präzisen Signalen im weißen Rauschen der künstlichen Intelligenz nachgehen, mit deren Hilfe wir bessere Fragen zur künstlichen Intelligenz stellen und klügere Antworten finden können.
Also, was lernen Sie durch dieses Buch? Inwiefern wird es Ihnen helfen? Hier die Schlüsselaussagen in Kürze:
Dieses Buch bietet jedoch keine leicht verdaulichen Antworten, es ist kein Fastfood für künstliche Intelligenz. Das hat einen guten Grund, und Entscheider kennen ihn: Unter dem dünnen Firnis simpler Lösungen lauert oft das Grauen der Orientierungslosigkeit. Sobald die Kratzer auf dem Furnier halbgarer Entscheidungen nicht mehr zu leugnen sind, die auf unverstandenen Fakten beruhen, fallen sie uns auf die Füße. Ein Problem, das vorher schon groß war, metastasiert und wird unlösbar. Vorgebliche Lösungen sind oft Rohrkrepierer und die Domäne der künstlichen Intelligenz bietet dafür zahlreiche Beispiele.
Diese und noch mehr Gründe schreien danach, dass sich Entscheider selbst kümmern müssen. Künstliche Intelligenz ist Chefsache.
Wenn Sie dieses Buch lesen, werden Sie etwas mitnehmen, das ungleich wertvoller ist als wirkungsloses Wunderpulver: ein Denkwerkzeug, das Ihnen hilft, die falschen von den richtigen Fragen zu unterscheiden, wenn Ihr Unternehmen künstliche Intelligenz thematisiert. Richtige Antworten liefern Experten. Doch es braucht den Willen und die Fähigkeit, kluge Fragen zu stellen, damit Fachleute kluge Antworten anbieten können.
Dieses Buch ist eine Quelle, auf die Sie regelmäßig zurückgreifen können, um sich Inspiration zu holen. Sie lernen auf einfache Art und Weise komplexe Fragen der künstlichen Intelligenz aufzugreifen und im richtigen Kontext zu beantworten. Und das alles ohne Vorkenntnisse über Datenverarbeitung oder künstliche Intelligenz.