Benedikt Weibel
Simplicity –
die Kunst, die Komplexität
zu reduzieren
Verlag Neue Zürcher Zeitung
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2014 Verlag Neue Zürcher Zeitung, Zürich
Der Text des E-Books folgt der gedruckten 1. Auflage 2014 (ISBN 978-3-03823-915-4).
Titelgestaltung: TGG, Hafen Senn Stieger, St. Gallen, unter Verwendung der Abbildung «Tête d‘homme, 1908». Picasso Pablo (dit), Ruiz Picasso Pablo (1881 – 1973) © RMN-Grand-Palais/Thierry Le Mage, Paris, musée Picasso, © 2014, ProLitteris, Zürich
Datenkonvertierung: CPI books GmbH, Leck
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts.
ISBN E-Book 978-3-03823-942-0
www.nzz-libro.ch
NZZ Libro ist ein Imprint der Neuen Zürcher Zeitung
Simplex veri sigillum.
Die Einfachheit ist das Siegel des Wahren.
Seneca
Inhalt
1. Der weisse Tod
Der Lawinenpapst und die Reduktionsmethode. Wenige Faktoren erklären viel. Erklärungsmodelle auf möglichst wenige Faktoren beschränken. Ockhams Rasiermesser. Experten gegen Algorithmen. Der Fluch des Wissens. Das Pareto-Prinzip. Das Zipfsche Gesetz. Das Gesetz des abnehmenden Grenznutzens. Einfache, komplizierte und komplexe Probleme. Vertrauen reduziert Komplexität. Mustererkennung als Schlüsselkompetenz.
2. Von Feuerwehrkommandanten lernen
Verhalten in Extremsituationen. Intuition. Gespeicherte Muster. Das Muster von Aktionspotenzialen. Die Strukturtheorie von Sigmund Freud. Der Kognitionspsychologe Eric Kandel. Die Reduktionsmethode. Ein schwieriges Problem durch ein einfacheres ersetzen. Mustererkennung als fundamentaler Baustein des Erkenntnisprozesses. Gesichtsausdrücke als Muster für unsere Empfindungen. Das Gesetz der wenigen. Das Muster für überdurchschnittliche Leistungen. Fokusangst.
3. Surreal und schön
Ist Gott ein Mathematiker? Heureka. Platons idealer Staat. Mathematik ist Suche nach Mustern. Zahlenmonster reduzieren. Taxicab-Zahlen. Das Rätsel der Primzahlen. Kryptische Randnotizen. Fermats letzter Satz. Die Millennium-Probleme. Der Mozart, der Chopin und der Popstar der Mathematik. Der Beweis der Poincaré-Vermutung. Codeknacker. Mathematiker gewinnen den Krieg. Algorithmen. Mathematisches Design der Natur. Die Formel aller Formeln.
4. Lakonisch schlägt geschwätzig
Kurz ist aufwendiger als lang. Brevitas in der Rhetorik. Lakonie ist karg und reich. Amerikanische Short-Story-Autoren. Hemingways Eisbergtheorie. Ästhetik des Unterlassens. Kampf gegen Satzkaskaden. Weg mit dem Ornament. Die Bauhaus-Kultur. Echte Künstler vereinfachen. Zen oder die Kunst der Präsentation. Der Fahrstuhltest. Die Reduktion auf eine Botschaft. Die Macht einer Geschichte. Perfektion heisst Reduktion.
5. Ein Werkzeug für Piloten, Ärzte und Manager
Checkliste anstatt umfassender Manuals. Menschen machen Fehler. Chirurgen vermindern die Fehlerquote. Checklisten in der Fliegerei. Die Qualität einer guten Checkliste. Checklisten in Spitälern. Die Erarbeitung der WHO-Checkliste. Die Schwierigkeit, Checklisten durchzusetzen. Die enorme Wirkung von Checklisten. Take the extra five minutes.
6. Die grosse Flut
Statistik schlägt Experte. Mathematische Methoden zur Mustererkennung. Moores Gesetz. Von der Datenflut zu Big Data. Die Umwälzungen aufgrund von Big Data. Korrelation ersetzt Kausalität. Nutzen, Grenzen und Illusionen von Big Data. Kausalität ist unverzichtbar. Die NSA dämpft die Euphorie. Digitale Friedhöfe.
7. Le coup d’œil
Der Blick auf das Wesentliche. Der Bürgermeister von Mogadischu. Der CEO von Continental Airlines. Die Ikone einer neuen Generation von Frauen. Ein genialer Fussball-Trainer. Arten von Intelligenz. Das Schachspiel als Laboratorium für die Intelligenzforschung. Theorie der Chunks. Das Muster für erfolgreiche Führung. Hindernisse auf dem Weg zur Einfachheit. Wider das Giesskannenprinzip. Es verdriesst die Menschen, dass das Geniale so einfach ist.
8. Auf den Punkt kommen
Die Macht, Hebelpunkte zu erkennen. Reduktionismus als allgemeines Lebensprinzip. Lernen, Muster zu erkennen. Anleitungen zur Einfachheit. Recherchieren, Strukturieren, Interpretieren von Fakten. Assoziation und Ablenkung. Ein Gedankenexperiment. Der Bullshit-Index. Die einfache Organisation. Wider die Bürokratie. Arbeitsorganisation. Prioritäten setzen. To-Do-Liste für den Weg zur Einfachheit.
Zu guter Letzt
Anmerkungen
Literatur
Dank
Der Autor
1. Der weisse Tod
«Das mache nun mal den Homo sapiens aus, Mustererkennung, sagte er.» William Gibson
Vier Tage lang schneite es ohne Unterbruch. Am 23. Februar 1999 lagen im hinteren Paznauntal im Westen von Österreich vier Meter Neuschnee. Dort, wo heftige Stürme zu Triebschneeansammlungen geführt hatten, war die Neuschneedecke noch viel höher. Um 16 Uhr ging in Galtür eine Lawine ab, wie man sie noch nie gesehen hatte. Mit einer ungeheuren Zerstörungskraft, begleitet von einer 100 Meter hohen Staubwolke, stürzten die Schneemassen ins Tal. Um Mitternacht und am Nachmittag des nächsten Tages kam es zu zwei weiteren Lawinenabgängen. Die Schadensbilanz war verheerend. 38 Todesopfer, 48 Verletzte, 60 Gebäude schwer beschädigt, 100 Autos zerstört.
Was als Lawinenwinter 1999 in die Geschichte eingegangen ist, begann mit mehreren Nordweststaulagen, begleitet von heftigen Schneefällen im gesamten Alpenraum. Erstmals wurde während mehrerer Tage die höchste Gefahrenstufe 5 ausgelöst. Ganze Talschaften waren von der Umwelt abgeschlossen. Trotz aller Prävention löschten Jahrhundertlawinen nicht nur in Galtür, sondern auch in Chamonix, Evolène und Lavin zahlreiche Menschenleben aus. Die Schadensumme betrug mehrere Hundert Millionen Euro.
Die enormen Schäden des Lawinenwinters 1999 haben der Lawinenforschung neuen Auftrieb gegeben. Die Lawine ist ein anschauliches Beispiel für das, was man eine Diskontinuität nennt. Wind, Temperaturen und Schneefall führen zu permanenten Veränderungen einer Schneedecke. Irgendein Hebel löst schliesslich die Lawine mit ihrem zerstörerischen Potenzial aus. Im Skigebiet der Alpe d’Huez, am Pic du Lac Blanc, haben französische Forscher nach der mathematischen Formel gesucht, mit der sich nicht nur der Lawinenabgang, sondern auch dessen Ausmass berechnen lassen.1 Auf 2900 Meter Höhe errichteten sie eine Modellanlage, mit der sie Lawinenniedergänge simulierten. Sie arbeiteten nur nachts, weil die Sonne die Schneekristalle zu sehr verändern würde. Da liegt der Kern des Problems. Die Varietät von Schneekristallen ist unendlich gross. Sonne, Wind und Wärme verändern sie pausenlos. Damit ist auch der Reibungswiderstand, der für das Auslösen einer Lawine entscheidend ist, eine sich permanent verändernde Grösse. Die Forscher kamen zum Schluss, dass es drei Faktoren sind, die für die Zerstörungswirkung einer Lawine entscheidend sind: Hangneigung, Reibungskräfte und Geschwindigkeit. Davon ist allerdings nur die Hangneigung ohne Probleme messbar. Um die Reibungskräfte einschätzen zu können, muss man Schneeprofile freilegen und interpretieren.
Jahrzehntelang gehörte das Freilegen von Schneeprofilen zum Standard der Lawinenausbildung. In der Realität war das Verfahren allerdings kaum praktikabel. Schneeprofile können selbst auf engstem Raum unterschiedliche Ausprägungen haben. Auf einer Skitour müsste man für jeden Hang mit einer sich ändernden Exposition einen Schneekeil graben. Mehr graben als gehen. Deshalb hat kaum jemand das in den Kursen Gelernte angewandt. Wie seit eh und je hat man sich in der Praxis auf die Intuition verlassen.
Trotz der grossen Komplexität ist das System Schnee immerhin klar definiert. Seine Parameter können beobachtet und gemessen werden. In ganz andere Dimensionen stossen wir vor, wenn wir von Wetter und Klima sprechen. Der Begründer der Chaostheorie, Edward N. Lorenz, entwickelte ein meteorologisches Modell mit zwölf Variablen. Durch einen Zufall fand er heraus, dass seine Modellrechnungen zu unerwarteten Ergebnissen führten, obwohl er, wie er meinte, die gleichen Ausgangswerte eingegeben hatte. Bei der Überprüfung des Vorgangs stellte er fest, dass die Ausgangswerte von ursprünglich sechs Stellen nach dem Komma auf drei Stellen gerundet waren. Eine minimale Veränderung der Ausgangswerte führte zu völlig anderen Modellergebnissen. Lorenz illustrierte den Sachverhalt mit dem mittlerweile berühmt gewordenen Bild, dass der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen kann. Diese Erkenntnis stellte sein gesamtes Wettermodell infrage und führte zum Schluss, dass das Verhalten komplexer Systeme nicht vorhersehbar ist.2
Tausende Forscher beschäftigen sich mit dem Klima. In den Assessment Reports des IPCC (Intergovernmental Panel on Climate Change) wird dieses gesammelte Wissen auf Hunderten von Seiten zusammengefasst. Es ist eine Auseinandersetzung um Wahrscheinlichkeiten zwischen Überzeugungstätern, Skeptikern und nüchternen Wissenschaftlern. Umso erstaunlicher, dass es im Wesentlichen nur vier Faktoren sind, die das Weltklima während der Erdgeschichte immer wieder fundamental verändert haben: Sonnenaktivität, Vulkantätigkeit, Strömungen in den Ozeanen und der CO2-Ausstoss. Dazu kommen als Ergebnis der jüngeren Forschung noch zwei besonders unsichere Faktoren: die Wolken und Aerosole (Staubpartikel). Der Nutzen eines solchen Musters liegt in seiner Praktikabilität. Jeder dieser Faktoren ist ein potenzieller Hebel, der eine Situation zu verändern vermag. Im Falle des Klimas ist allerdings nur der CO2-Ausstoss vom Menschen beeinflussbar. Kein Wunder, dass sich die Klimadebatte auf diesen Faktor konzentriert.3
Die Reduktion komplexer Tatbestände auf wenige, aber entscheidende Faktoren ist ein Thema, das die grossen Denker seit Jahrtausenden beschäftigt. Die Aussage «entia non sunt multiplicanda praeter necessitatem» wird dem englischen Scholastiker Wilhelm von Ockham4 zugeschrieben. In einer freien Übersetzung heisst das Zitat, man solle sich in Erklärungsmodellen auf möglichst wenige Faktoren beschränken. Dieses methodologische Prinzip hat zu verschiedenen Interpretationen geführt. Man solle bei der Auswahl oder Konstruktion einer Theorie immer die einfachste auswählen. Man solle eine geringe Anzahl von Grundkategorien auswählen. Beweise sollten möglichst kurz gehalten werden.
Die Maxime des Scholastikers aus dem 14. Jahrhundert wurde mit dem bildhaften Ausdruck Ockhams Rasiermesser verewigt: Suche das Wesentliche und schneide alles andere mit dem Rasiermesser ab.5
Der Pionier, der in der Frage des Umgangs mit Lawinen zu Ockhams Rasiermesser griff, heisst Werner Munter.6 Noch nicht 20 Jahre alt, hatte er sämtliche Viertausender im Kanton Bern im Alleingang bestiegen. Mit der Begründung, man möchte nicht an seinem Begräbnis teilnehmen, schloss ihn der Schweizer Alpen-Club aus seinen Reihen aus. Munter studierte Geschichte, Psychologie, Germanistik und machte seinen Universitätsabschluss in Philosophie. Seine eigentliche Berufung fand er aber als Bergführer. Schon früh fiel er als genialer Tüftler auf. Mit seiner Munter-Bremse war ihm in den 1970er-Jahren der Durchbruch zur dynamischen Seilsicherung am Berg gelungen. Wir waren damals zusammen Aspiranten im Bergführerkurs. Unsere Klassenlehrer, alles herausragende Alpinisten, waren skeptisch gegenüber Neuerungen. Sie schworen auf die klassische statische Schultersicherung. Ein Test sollte zeigen, welche Methode besser war. Als Erster band sich der Bergführeraspirant Felice, Adjutant an der Gebirgskampfschule und einer der besten Kletterer im Kurs, am Standplatz fest. Er sicherte über seine Schulter, als der mit Steinen beschwerte, 80 Kilogramm wiegende Autoreifen abgeworfen wurde. Die Wucht des Sturzes liess ihn an die Wand schnellen, sein Kinn platzte auf, der Standplatz sah aus wie ein Schlachthof. Nachdem ihn der Helikopter abtransportiert hatte, begab sich Werner Munter auf den blutverschmierten Sicherungsplatz. Mit seinem Rauschebart mit weissen Einsprengseln glich er grossen Bergführern aus der klassischen Zeit des Alpinismus. Er strahlte auch deren Ruhe aus. Es war totenstill, als der Reifen ein zweites Mal fiel. Dank dem kontrollierten Seildurchlauf wurde Munter nicht einmal in die Standsicherung gerissen. Es war das einzige Mal, dass ich im Gebirge einen tosenden Applaus erlebte. Damit war die Diskussion entschieden. Als wir am nächsten Tag wieder im Fels waren, brach mir in der Wand ein Block weg, und ich stürzte. Mein Seilschaftspartner sicherte mit der Munter-Bremse und hielt den Sturz ohne Probleme. Heute gehört die dynamische Seilsicherung zum Einmaleins des Bergsports. Sie hat unzählige Menschenleben gerettet. Auch mein eigenes.
Werner Munters Faszination für Lawinen ging so weit, dass er das Schicksal herausforderte, um Eigenerfahrungen in Lawinenabgängen zu erwerben. Er erzählt, dass es schon zwei Stunden braucht, um sich selber aus einer Lawine zu befreien. Als Bergführer instruierte er in Lawinenkursen das übliche Schneeprofil-Verfahren, das damals als die wissenschaftliche Methode galt. Das habe ihn innerlich zerrissen, weil er spürte, dass dieser Weg in die Irre leitet. Seine intensive Beschäftigung mit dem Phänomen Lawine führte ihn zur Erkenntnis, dass man Lawinenabgänge als zufällige Ereignisse begreifen muss. Er begann sich intensiv mit dem Phänomen des Zufalls und mit Wahrscheinlichkeiten zu beschäftigen. Er suchte nach Wegen, den Zufall zu überlisten. Nicht absolute Sicherheit könne das Ziel sein, sondern maximale Risikoreduktion. Das sei eine wissenschaftliche Fragestellung. Man müsse dafür die Gesetze der Wahrscheinlichkeitsrechnung anwenden. Voraussetzung dafür ist eine genügend grosse Datenbasis. Die ist glücklicherweise vorhanden. Seit 1940 sind die Lawinenunfälle in der Schweiz ausführlich dokumentiert.
Munter analysierte Hunderte von Lawinenunfällen und kam zum Schluss, dass es fünf Schlüsselvariablen sind, welche die Wahrscheinlichkeit einer Lawine beeinflussen. Die erste ist die Gefahrenstufe, die von vier Einflussgrössen abhängt: Niederschlag, Wind, Schneedeckenaufbau und Temperatur/Strahlung. Verantwortungsträger müssen in der Lage sein, eine lokale Gefahrenstufe selbstständig und eigenverantwortlich zu beurteilen. Die zweite Variable ist die Hangneigung. Ab 30 Grad wird es richtig gefährlich. Die dritte Variable ist die Exposition eines Hanges. Nordseitig gelegene Schattenhänge sind besonders gefährdet. Spuren im Hang, das ist die vierte Variable, reduzieren das Risiko. Die fünfte und letzte Variable betrifft die Grösse der Gruppe. Wenn kleine Gruppen aufsteigen und grosse Abstände eingehalten werden, vermindert sich das Risiko. Für die ganzheitliche Beurteilung einer Lage wird die Formel 3 × 3 angewandt, welche die drei Kriterien Verhältnisse, Gelände und Mensch auf den drei geografischen Ebenen regional, lokal und zonal beurteilt. Aufgrund dieses einfachen Musters lassen sich die Entscheide über die Ausführung einer Tour und die Routenwahl mit vertretbarem Zeitaufwand beurteilen.
Die Reduktionsmethode von Werner Munter verzichtet auf den Blick in den Schnee.7 Das ist ein eigentlicher Paradigmenwechsel. Bis die neue Sicht breite Anerkennung fand, musste Munter jahrelang kämpfen. Die Lawinenexperten waren weltweit auf die sogenannte wissenschaftliche, auf Schneeprofilen beruhende Methode eingeschworen. Weil Munter von den Geisteswissenschaften her kam, qualifizierten ihn die naturwissenschaftlich geschulten Experten als querulierenden Laien. Interdisziplinarität, meint Munter aufgrund dieser Erfahrungen, sei ein schönes Schlagwort, finde in der Realität aber in keiner Weise statt. Erst als er zunehmend als Zweitexperte bei Gerichtsfällen im Zusammenhang mit Lawinenunfällen beigezogen wurde, begann sich die Ablehnung in Skepsis und schliesslich in breite Anerkennung zu wandeln. Die 3 × 3-Reduktionsmethode von Munter ist heute allgemeiner Standard. Werner Munter wurde zum weltweit anerkannten Lawinenpapst und ist heute Ehrenmitglied des Schweizer Bergführerverbandes. Auch der Schweizer Alpen-Club, der ihn einst ausgeschlossen hatte, machte ihn zum Ehrenmitglied.
Die Reduktionsmethode beruht auf der Erkenntnis, dass einige wenige Faktoren eine überproportionale Auswirkung auf das Risiko haben. So stellte Munter aufgrund seines Datenmaterials fest, dass sich mit einem Verzicht von einem Prozent der geplanten Touren 40 Prozent der Lawinentoten vermeiden lassen. Noch grösserer Verzicht senkt indessen das Risiko nur noch unerheblich, weil man sich im unvermeidbaren Bereich des Restrisikos bewegt. Die praktischen Auswirkungen des Paradigmenwechsels sind enorm. Seit die Reduktionsmethode systematisch gelehrt wird, hat sich die Zahl der Lawinenunfälle halbiert.
Heute lebt Werner Munter zurückgezogen im Val d’Hérens im Unterwallis. Dort erlebte er den Lawinenwinter 1999 hautnah mit. Er befand sich im Nachbardorf von Evolène, wo eine fürchterliche Lawine am 21. Februar zwölf Menschenleben auslöschte. Munter wurde in eine Notunterkunft evakuiert, wo er das Drama aus der Nähe verfolgte. Jahre später meint er, es gäbe auf der ganzen Welt keinen Lawinenexperten, der diesen Vorfall erklären könne. Eine wesentliche Rolle hätten Temperaturanstiege, verbunden mit Regenfällen zwischen den Neuschneeperioden, gespielt. Es bleibe für ihn ein Rätsel, weshalb man aufgrund dieser Faktenlage den Gemeindepräsidenten von Evolène wegen fahrlässiger Tötung verurteilt habe. Evolène sei ein Ereignis, das nur alle 300 Jahre vorkomme, und da sei es abwegig, Schuldige suchen zu wollen. Tatsächlich stellt ein nach dem Gerichtsurteil publizierter Bericht des Eidgenössischen Instituts für Schnee- und Lawinenforschung fest, dass der Schneehöhenverlauf nicht auf einen bevorstehenden Lawinenabgang schliessen liess. Das Gutachten kommt zum Schluss, dass ein Restrisiko nie vermieden werden kann. Es gehe deshalb um einen risikobasierten Umgang mit Lawinen.8 Das war nichts anderes als die Zertifizierung von Munters Reduktionsmethode.
Die Frage nach den Schuldigen wurde auch nach der Katastrophe von Galtür gestellt. Anders als im Fall von Evolène beurteilte die Staatsanwaltschaft von Innsbruck die Ereignisse als Folge höherer Gewalt und sah von Ermittlungen ab. Aufgrund von Anzeigen musste sie dann doch tätig werden. Schliesslich wurden aber alle Verfahren eingestellt, und es kam zu keinen Verurteilungen.
Werner Munter hat jahrelang gegen die Experten gekämpft. Der mit einem Nobelpreis ausgezeichnete Psychologe Daniel Kahneman hat über die Qualität von Expertenurteilen geforscht. Sein Untersuchungsobjekt waren Wall-Street-Experten für Kapitalanlagen. Er meint, über die Jahre hätten sich seine Fragen über den Aktienmarkt immer mehr zu einem Rätsel verdichtet. Er kam zum Schluss, dass die ganze Branche einer Kompetenzillusion erlegen sei.9 Arbeiten einiger seiner Kollegen bestätigen diesen Befund. Aktive Händler erzielten wesentlich schlechtere Ergebnisse als passive Anleger. Experten mit dem grössten Wissen liefern oft wenig zuverlässige Voraussagen. Diese Kompetenzillusion, so Kahneman, sei tief in unserer Kultur verwurzelt. Deshalb würden Tatsachen, die Grundannahmen infrage stellten, ausgeblendet. In seinem Buch Schnelles Denken – Langsames Denken geht Kahneman ausführlich auf die Studien seines Kollegen Paul Meehl ein.10 In zwanzig Studien eruierte Meehl, ob klinische Vorhersagen von Experten auf der Basis subjektiver Eindrücke oder statistische Aussagen, die auf wenigen Faktoren beruhen, zutreffender sind. Sein Befund war überraschend: ein einfacher statistischer Algorithmus (s. Kapitel 4), der nur einen Bruchteil der Experteninformation benutzt, führt zu signifikant besseren Ergebnissen als die Expertenurteile.
Der Ökonom Orley Ashenfelter ist ein Liebhaber von Bordeauxweinen. Er hat seine Passion dazu benutzt, Meehl-Muster zu testen. Bordeauxweine sind beliebte Spekulationsobjekte. Ihre Preise können je nach Jahrgang bis um das Zehnfache variieren. Die Aussichten eines Jahrgangs werden üblicherweise von Experten beurteilt. Ashenfelter hat einen simplen Algorithmus zur Vorhersage des Preises eines Jahrgangs entwickelt, der auf nur drei Faktoren beruht: Durchschnittstemperatur während der sommerlichen Wachstumsperiode, Niederschlagsmenge während der Erntezeit und Gesamtniederschlag im vorherigen Winter. Er konnte nachweisen, dass seine einfache Formel signifikant bessere Prognosewerte erzielte als die Expertenurteile.11
Die Ergebnisse dieser Studien widersprechen dem gesunden Menschenverstand. Sie erregten Aufsehen, führten hier und dort zu Empörung und warfen vor allem Fragen auf. Warum ist ein Algorithmus mit so wenigen Faktoren zuverlässiger als das Urteil von Experten mit jahrelanger Erfahrung? Eine Erklärung verweist auf die Fülle des Wissens von Experten. Kahneman hat nachgewiesen, dass die schiere Informationsmenge zu inkonsistenten Aussagen führt.12 Selbst die Urteile des gleichen Experten variieren im Zeitablauf. Die Gebrüder Chip und Dan Heath haben dafür einen Begriff geprägt: The Curse of Knowledge – der Fluch des Wissens.13 Das ist freilich nichts anderes als ein neuer Begriff für eine altbekannte Redewendung: «Vor lauter Bäumen den Wald nicht mehr sehen.» Das Phänomen, dass sich Experten im Detail verlieren, ist also nicht neu. Es gibt nach Kahneman noch eine andere, recht banale Erklärung für die Unterlegenheit von Expertenurteilen: Experten werden oft überschätzt, sie wissen weniger, als man annimmt.14 Nach dem atomaren GAU in Fukushima wurde unter dem Titel «Das Drama der Experten» ein Professor für Atomphysik zitiert. Knapp drei Jahre vor dem Ereignis schätzte er die Wahrscheinlichkeit einer radioaktiven Verseuchung auf ein Ereignis pro einer Milliarde Jahre.15
Nicht alle beurteilen die Fähigkeiten von Experten so negativ. Der amerikanische Psychologe Gary Klein, in verschiedener Hinsicht ein intellektueller Gegenspieler von Kahneman, misst den Experten die Fähigkeit zu, das «Prototypische» einer Situation zu erkennen und zu beurteilen. Sie liessen sich nicht wie Neulinge durch viele Einzeldaten verwirren und seien daher in der Lage, «das grosse Bild» zu sehen.16
Lawine, Klima, Bordeauxweine, all diese Beispiele haben eine Gemeinsamkeit. Es handelt sich um komplexe Phänomene mit unzähligen Variablen. Offensichtlich haben nicht alle Variablen den gleichen Einfluss auf das Geschehen, einige wenige haben einen überproportional hohen Erklärungsgehalt. Die Computermodelle, die den Klimawandel abbilden, werden immer detaillierter. Ein Mehr an Details führt aber nicht zu präziseren Prognosen, sondern erhöht tendenziell die Unschärfe. Dies zu erklären, ist eine der grössten Herausforderungen für die Klimaforscher.
Der italienische Ökonom Vilfredo Pareto hat im 19. Jahrhundert den Zusammenhang von Variablen statistisch untersucht. Er hat nachgewiesen, dass diese Variablen in vielen Fällen ungleich verteilt sind: 80 Prozent des Landes in Italien gehören 20 Prozent der Bevölkerung. 80 Prozent der Vermögen gehören 20 Prozent der Einwohner. Die grundlegende Erkenntnis von Pareto ist die asymmetrische Verteilung von Variablen. Dieses Phänomen findet sich nicht nur in sozialen Systemen, sondern auch in der Natur. So hat Pareto festgestellt, dass in seinem Garten 20 Prozent der Pflanzen 80 Prozent der Erbsenernte hervorgebracht haben. Auf die gleiche Asymmetrie stösst man, wenn man die Verteilung von Wasser, von seltenen Erden oder von Öl in der Welt betrachtet. Pareto hat mit seinen Untersuchungen den Anstoss zur Erforschung der Ungleichheit (je nach Optik auch: der Ungerechtigkeit) als universelles Phänomen gegeben.17
Der amerikanische Linguist George Kingsley Zipf untersuchte die Häufigkeit des Gebrauchs einzelner Wörter in verschiedenen Sprachen. Er rangierte die Wörter nach der Häufigkeit ihres Gebrauchs und zählte die Anzahl ihrer Nennungen. Er stellte fest, dass das Produkt aus Rang und Häufigkeit der Nennung annähernd konstant bleibt. Dieser Zusammenhang ist als Zipfsches Gesetz bekannt. Der ehemalige Derivatehändler und heutige Professor für Risk-Engineering und Bestsellerautor Nassim N. Taleb weist darauf hin, dass es sich dabei nicht um ein eigentliches Gesetz handelt, sondern lediglich um eine andere Betrachtungsweise des Ungleichheitsprozesses.18
Mathematisch ausgedrückt bildet sich diese Ungleichheit in einer nichtlinearen Summenhäufigkeitskurve ab (s. Abb. 1). Solche nichtlinearen Beziehungen werden auch Power Laws oder Potenzgesetze genannt. Die Bedeutung der Nichtlinearität für den Gang der Welt steht im Zentrum des Bestsellers von Taleb Der Schwarze Schwan, von der Sunday Times unter die zwölf einflussreichsten Bücher seit dem Zweiten Weltkrieg gewählt. Im Gegensatz zur nichtlinearen oder asymmetrischen Verteilung ist die Glockenkurve eine symmetrische Verteilung mit dem Durchschnitt auf der Symmetrieachse. Taleb nennt die Glockenkurve den «grossen intellektuellen Betrug», weil sie grosse Abweichungen ignoriere.19 Er erläutert das anhand eines Beispiels: Zwei zufällig ausgewählte US-Bürger verdienen zusammen eine Million Dollar im Jahr. Bei einer gleichmässigen Verteilung nach der Glockenkurve wäre die wahrscheinlichste Verteilung je ungefähr eine halbe Million Dollar. Wahrscheinlicher ist aber in der Realität eine Verteilung von 50 000 und 950 000 Dollar. Bei grossen Summen, so Taleb, werde die Aufgliederung immer asymmetrischer.20 Der schlimmste Fehler sei die Verwendung von Glockenkurven als Instrument für die Messung von Risiken. Taleb hat seinen Schwarzen Schwan 2007 geschrieben und auf die Mängel der damals als unfehlbar betrachteten Value-at-Risk-Methode hingewiesen.21 Ein Jahr später hat die weltweite Finanzkrise seiner Aussage prophetischen Charakter verliehen.
In seinem Buch Das 80/20 Prinzip nennt Richard Koch weitere Beispiele von asymmetrischen Verteilungen: 20 Prozent der Buchtitel machen 80 Prozent des Umsatzes; 20 Prozent der Defekte machen 80 Prozent der Qualitätsprobleme; 20 Prozent der Produkte machen 80 Prozent der Gewinne; 20 Prozent der Bevölkerung verbrauchen 80 Prozent der Energie; 20 Prozent der Bevölkerung verursachen 80 Prozent der Gesundheitskosten.22
Alle Untersuchungen der Ungleichheit kommen zum gleichen Schluss. In komplexen Situationen mit vielen Variablen sind die Variablen nicht gleichgewichtig. Je grösser die Summe dieser Variablen, desto asymmetrischer wird ihre Verteilung. Es sind immer nur wenige, aber wichtige Variablen, die einen besonders starken Einfluss haben. Im populärwissenschaftlichen Gebrauch haben sich für dieses Phänomen die Begriffe Pareto-Prinzip und 80/20-Regel durchgesetzt. Wie beim Zipfschen Gesetz weist Taleb darauf hin, dass es sich dabei nicht um eine präzise quantitative Regel oder gar ein Gesetz im naturwissenschaftlichen Sinn handelt, sondern um eine Metapher für das Phänomen der Ungleichheit.23