
[1]narr STUDIENBÜCHER
Methodik für Linguisten
Eine Einführung in Statistik und Versuchsplanung

[4]Für Anna (1989-1993)
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2011 Narr Francke Attempto Verlag GmbH + Co. KG
Dischingerweg 5 D-72070 Tübingen
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Dieses eBook ist zitierfähig. Es ist dadurch gekennzeichnet, dass die Seitenangaben der Druckausgabe des Titels in den Text integriert wurden. Sie finden diese in eckigen Klammern dort, wo die jeweilige Druckseite beginnt. Die Position kann in Einzelfällen inmitten eines Wortes liegen, wenn der Seitenumbruch in der gedruckten Ausgabe ebenfalls genau an dieser Stelle liegt. Es handelt sich dabei nicht um einen Fehler.
Internet: http://www.narr-studienbuecher.de
E-Mail: info@narr.de
ISSN 0941-8105
ISBN 978-3-8233-6627-0
eBook-Herstellung und Auslieferung:
Brockhaus Commission, Kornwestheim
www.brocom.de
[5]Inhaltsverzeichnis
1 Reisevorbereitungen und Wegweiser
2 Linguistik als empirische Wissenschaft
2.1 Karl Popper und der Falsifikationismus
2.2 Kritik am Falsifikationismus
2.2.1 Kuhns historisch-soziologische Analyse
2.2.2 Die Methodologie wissenschaftlicher Forschungsprogramme nach Lakatos
2.2.3 Paul Feyerabend: Alles geht!
2.3 Hypothesen
2.4 Operationalisierung
2.5 Kritischer Rationalismus
2.6 Quantitative und qualitative Forschungsansätze
2.6.1 Quantitative Forschungsansätze
2.6.2 Qualitative Forschungsansätze
2.7 Induktion, Deduktion und Abduktion
2.8 Was ist „gute“ Forschung?
3 Versuchsplanung
3.1 Variablen
3.1.1 Unabhängige und abhängige Variable
3.1.2 Störvariable
3.1.3 Quantitativ/Qualitativ und Diskret/Stetig
3.2 Klassifikation von Experimenten
3.2.1 Untersuchungsziel
3.2.2 Kontrolle der äußeren Bedingungen
3.2.3 Anzahl der teilnehmenden Versuchspersonen
3.2.4 Anzahl der untersuchten Variablen
3.2.5 Anzahl der Treatments pro Versuchsperson
3.3 Kontrolle der Störvariablen
3.3.1 Elimination
3.3.2 Konstant halten
3.3.3 Homogenisieren und Ausbalancieren
[6]3.3.4 Parallelisieren
3.3.5 Wiederholtes Messen
3.3.6 Randomisieren
3.3.7 Eine Kontrollgruppe aufnehmen
3.3.8 Auspartialisieren
3.4 Wann welche Kontrolltechnik einsetzen?
3.5 Quasi-Experiment
3.6 Ex-post-facto-Forschung
3.7 Versuchspläne
3.7.1 Vorexperimentelle Versuchspläne
3.7.2 Experimentelle Versuchspläne
3.7.3 Quasi-experimentelle Versuchspläne
3.8 Wie sollte man vorgehen?
3.9 Was darf ich als Experimentator, was nicht?
4 Die Arbeitsschritte einer Untersuchung
5 Deskriptive Statistik – erste Schritte der Datenanalyse
5.1 Messtheorie – von Eigenschaften zu Zahlen
5.1.1 Die Grundbegriffe der Messtheorie
5.1.2 Skalenniveaus
5.1.3 Skalentransformationen
5.1.4 Repräsentation, Eindeutigkeit, Bedeutsamkeit
5.2 Wann welche Skala wählen?
5.3 Reduktion und Darstellung von Daten
5.3.1 Häufigkeiten: absolut, relativ und kumuliert
5.3.2 Maße der zentralen Tendenz: Arithmetisches Mittel, Median und Modus
5.3.3 Streuungsmaße (Maße der Dispersion)
5.3.4 Korrelation und Regression
5.3.5 z-Werte
5.4 Die Visualisierung von Daten
5.5 Zusammenfassung
6 Kombinatorik und Wahrscheinlichkeit
6.1 Kombinatorik
6.1.1 Permutation
6.1.2 Kombination
6.1.3 Variation
6.1.4 Zusammenfassung
6.2 Permutation, Variation und Kombination – welches Problem wie lösen
6.3 Wahrscheinlichkeit
6.3.1 Grundbegriffe für diskrete Zufallsexperimente
6.3.2 Statistische und Laplace-Wahrscheinlichkeit
6.3.3 Axiome von Kolmogorov
6.3.4 Mehrstufige Zufallsexperimente und Pfadregeln
6.3.5 Bedingte Wahrscheinlichkeit nach Bayes
[7]6.3.6 Zufallsvariablen und ihre Verteilungen
6.3.7 Funktionen: Wahrscheinlichkeit, Dichte und Verteilungen
6.3.8 Verteilungsmodelle
7 Von der Stichprobe zur Grundgesamtheit
7.1 Stichprobe und Grundgesamtheit
7.2 Repräsentativität
7.3 Stichprobenarten
7.4 Abhängige und unabhängige Stichproben
7.5 Stichprobenkennwerte und Parameter
7.6 Stichprobenkennwerte-Verteilung
7.7 Zentraler Grenzwertsatz – die Rolle der Stichprobengröße
7.8 Punkt- und Intervallschätzung
7.8.1 Konfidenzintervalle
7.8.2 Kriterien der Parameterschätzung
7.8.3 Methoden der Parameterschätzung
7.9 Freiheitsgrade
7.10 Stichprobenumfänge
8 Statistische Hypothesen formulieren und testen
8.1 Null- und Alternativhypothese
8.2 Gerichtete oder ungerichtete Hypothesen
8.3 Die Logik von Signifikanztests
8.4 Einseitige und zweiseitige Fragestellung
8.5 Testfehler erster und zweiter Art
8.6 Alpha-Inflation
8.7 Effektgröße
8.8 Das Neyman-Pearson-Modell der Hypothesentestung
8.9 Was bedeutet Signifikanz?
9 Auf signifikante Unterschiede testen – Teil I
9.1 Parametrische und verteilungsfreie Statistik
9.2 Parametrisch oder verteilungsfrei testen?
9.3 Nominaldaten: Die Chi-Quadrat-Familie – Analyse von Häufigkeiten
9.3.1 Mehrfelder χ2-Test (eindimensional)
9.3.2 Kreuztabellen (Vierfelder-χ2-Test)
9.3.3 Kreuztabelle McNemar-χ2-Test (für abhängige Stichproben)
9.4 Ordinaldaten: U-Test nach Mann-Whitney und Wilcoxon-Test
9.4.1 U-Test
[8]9.4.2 Wilcoxon-Test
9.5 Metrische Daten: t-Test (unabhängig und abhängig)
9.5.1 t-Test (für unabhängige Stichproben)
9.5.2 t-Test (für abhängige Stichproben)
10 Auf signifikante Unterschiede testen – Teil II: Varianzanalysen
10.1 Varianzzerlegung: Versuchsplanung
10.2 Varianzzerlegung: Modell und Ablauf
10.3 Einfaktorielle Varianzanalyse
10.3.1 Treatment- oder Effektquadratsumme
10.3.2 Fehlervarianz
10.3.3 F-Test: Überprüfung der Nullhypothese
10.3.4 Varianzaufklärung
10.3.5 Einzelvergleiche und Konstraste
10.3.6 Darstellung
10.4 Zweifaktorielle Varianzanalyse
10.5 Einfaktorielle Varianzanalyse mit Messwiederholung
10.6 Verteilungsfreie Varianzanalyse
10.6.1 Kruskal-Wallis-H-Test
10.6.2 Friedman-Test
11 Auf signifikante Zusammenhänge testen
11.1 Kreuzproduktsumme, Kovarianz und Korrelation
11.2 Interpretation: Korrelation und Kausalität
11.3 Zusammenhangsmaße für metrische Daten
11.3.1 Produkt-Moment-Korrelation nach Pearson und Bravais
11.3.2 Biseriale Korrelation
11.3.3 Partielle Korrelation
11.4 Zusammenhangsmaße für Rangdaten
11.4.1 Rangkorrelation nach Spearman (rho)
11.4.2 Rangkorrelation nach Kendall τ (tau)
11.4.3 Kendalls taub und tauc
11.5 Zusammenhangsmaße für Häufigkeitsdaten
11.5.1 Vierfelder-Korrelation
11.5.2 Kontingenz-Koeffizienten: CC und Cramérs V
11.6 Wann welchen Korrelationskoeffizienten berechnen
11.7 Regression
11.7.1 Lineare Regression
11.7.2 Multiple Regression
12 Wann welches Verfahren wählen
[9]13 Rechnen mit Programmpaketen
13.1 Das Programmpaket SPSS
13.1.1 Aufbau von SPSS
13.1.2 Daten codieren und eingeben
13.1.3 Daten analysieren: t-test
13.2 Das Programmpaket R
13.2.1 Download und Installation
13.2.2 Aufbau von R
13.2.3 Daten importieren
13.2.4 Daten analysieren: t-Test mit dem R-Commander
14 Ausblick
Lösungshinweise zu den Übungsaufgaben
Tabellen
Literatur
Stichwortverzeichnis

Bevor Sie mit mir in die Welt der Statistik und Versuchsplanung aufbrechen, lesen Sie bitte unbedingt die folgenden Hinweise:
Was muss ich mitbringen?
Fast nichts. Einen leistungsfähigen Taschenrechner, den Wunsch, diese Reise anzutreten und den Willen, durchzuhalten. Mathematikkenntnisse sind nicht erforderlich, schaden allerdings auch nicht. Eventuell vorhandene Aversionen gegen Formeln lassen Sie bitte zu Hause. Sie werden lernen, souverän mit Formeln umzugehen.
Wie ist das Buch aufgebaut?
Es behandelt in 14 Kapiteln die folgenden Fragen:
Was ist Wissenschaft, und wie kann und sollte man (in der Linguistik) forschen? Wodurch unterscheiden sich qualitative und quantitative Methoden?
Welche Idee steckt hinter dem Experimentieren, und wie baut man ein Experiment auf?
Wie sieht der optimale Ablauf einer Untersuchung aus?
Wie misst man (Sprache) und beschreibt Daten statistisch? Und wie kann man Daten mit Grafiken visualisieren (Deskriptive Statistik)?
Was ist Wahrscheinlichkeit, und wie kommt man von den eigenen Daten (einer Stichprobe) zu Aussagen über die Gesamtheit aller Personen?
Wie formuliert man statistische Hypothesen, und was ist Signifikanz?
Welche Verfahren gibt es, um auf Unterschiede oder auf Zusammenhänge zu testen (Inferenzstatistik)?
Wann sollte man welches Verfahren wählen?
Wie können Statistikprogrammpakete beim Rechnen helfen?
[12]Abschließend weise ich Sie noch auf alternative Möglichkeiten hin. Zu vielen dieser Kapitel gibt es Übungsaufgaben mit Lösungsansätzen und Hinweise auf weiterführende Literatur.
Warum diese Inhalte?
Das Reisen im Kopf kennt keine Grenzen, das Reisen auf Papier ist leider durch den Umfang des Buches begrenzt. Für die ausgewählten statistischen Verfahren gilt: Sie kommen häufiger in linguistischen Publikationen vor und lassen sich auch auf kleine Stichproben anwenden (wie sie etwa bei Abschlussarbeiten üblich sind). Ich habe mich aber auch bemüht, einige Besonderheiten der linguistischen Teilgebiete zu berücksichtigen. Ein Computerlinguist bspw. arbeitet teilweise mit anderen Methoden als etwa ein Soziolinguist oder ein Sprachdidaktiker. Ich hoffe, dass diese Auswahl möglichst viele (angehende) Linguisten anspricht.
Bei den theoretischen Abschnitten geht es um die Vermittlung von Grundlagen. Ausführlicher werden deshalb bewusst solche Inhalte behandelt, deren Aneignung im Selbststudium oder ohne Mathematikkenntnisse mühsam ist. Dafür muss ich aus Platzgründen auf manche Teilgebiete der Methodik verzichten (bspw. auf die Methoden „Test“ und Befragung“). In diese Techniken kann man sich aber meiner Erfahrung nach gut eigenständig einarbeiten, wenn man über ein solides Basiswissen verfügt. Ich gebe Ihnen dazu als Einstiegshilfe Literaturhinweise mit auf den Weg.
Kann ich ein Kapitel überspringen oder mittendrin einsteigen?
Autoren freuen sich immer, wenn Leser bei der Stange bleiben. Die Realität sieht in Zeiten hoher Studienbelastung anders aus. Sie sollten aber unbedingt die ersten acht Kapitel lesen, denn Sie vermitteln die Grundlagen! Bei den folgenden Kapiteln ist es möglich, sich das Verfahren herauszusuchen, das Sie interessiert. Alle, die das Buch nutzen wollen, um sich systematisch in die Themengebiete Statistik und Versuchsplanung einzuarbeiten, haben keine Wahl.
Gebrauchsanweisung: Was bedeuten die einzelnen Symbole im Buch?
Lernziele Nennt die wichtigsten Begriffe und gibt die Struktur vor, in die Sie beim Lesen Ihr Wissen einsortieren sollen.
Nachdenken! Dieses Symbol soll Sie ermuntern, nicht einfach zu konsumieren, sondern erst einmal selbst nachzudenken. Dieses Vorgehen erhöht nachweislich den Lernerfolg.
Das große Dreieck markiert immer eine Definition oder eine wichtige Formel.
[13]Beispiel! Sie lernen die statistischen Verfahren praktisch immer anhand einer Fragestellung und eines Beispieldatensatzes aus der Linguistik kennen. Damit können Sie ein Problem mit dem statistischen Lösungsansatz verknüpfen. Die Beispiele sind so gewählt, dass man sie auch ohne linguistisches Fachwissen (bspw. ohne Kenntnis einer Grammatiktheorie) nachvollziehen kann, auch wenn dadurch ab und an die Repräsentativität leidet. Nur den Stichprobenumfang habe ich oft bewusst klein gehalten. Das spart Platz und erleichtert das Rechnen.
Achtung! Hier finden Sie wichtige Hinweise und praktische Tipps. Ich warne Sie vor typischen Fehlern und gefährlichen Fallen in der Statistik und Versuchsplanung. Manchmal finden Sie hier auch eine Begründung dafür, warum es wichtig ist, sich mit dem Thema zu beschäftigen.
Weiterlesen! Das Buch-Symbol verweist auf weiterführende Publikationen, die Sie am Ende des Buches in der Bibliographie aufgeführt finden. Diese Hinweise dienen als Einstieg, wenn Sie sich genauer mit einem Thema beschäftigen möchten.

Lernkontrolle! Hier finden Sie die Schlüsselbegriffe aus dem Kapitel zum Testen, ob Sie die dazugehörigen Inhalte wiedergeben können. Auf eine Zusammenfassung habe ich bewusst verzichtet. Sie verführt dazu, abzukürzen, also den eigentlichen Text nicht richtig zu lesen (“Mut zur Lücke“). Diese „Instant-Kaffee-Technik“ ist für das formale Methodik-Lernen nicht gut geeignet.
Was leistet das Buch nicht?
Es ist kein „Kochbuch“ mit schnellen Anleitungen, denen man ohne Erklärung folgen soll. Diese „How to do-Literatur“ ist ein Ärgernis für mich, weil sie die Neugier von Studenten unterschätzt. Sie trifft auch nicht mein Verständnis von wissenschaftlicher Ausbildung. Aber auch meine Erfahrungen in der Methodikberatung sprechen dagegen. Es gab zu viele Kandidaten, auf die die folgende Beschreibung zutraf: Nach Kochbuch-Anleitung Daten erhoben, ein Statistikprogrammpaket besorgt, dann ohne Hintergrundwissen sehr viel angeklickt, Rechner heiß laufen lassen, Stapel von Papier mitgebracht, keinen Schimmer gehabt, was die Zahlen eigentlich wirklich bedeuten, Panik!
Was ist mit Statistikprogrammpaketen?
„Kaum jemand rechnet doch heute noch mit der Hand. Das macht doch der Computer besser!“ Dieser Einwand ist richtig. Man sollte aber schon verstehen, was man da warum rechnen lässt. Ich möchte deshalb, dass Sie sich zunächst die Grundlagen ganz [14]klassisch durch Rechnen „per Hand“ aneignen – soweit es die Komplexität der Verfahren zulässt. Vielen hilft es einfach beim Verstehen, die Formeln zu „begreifen“. Darauf aufbauend können und sollen Sie auch den Umgang mit Statistikprogrammpaketen lernen. Für beides zusammen reicht nicht immer die Zeit. In einer Lehrveranstaltung geht meiner Erfahrung nach das Lernen von Syntax-Befehlen zu stark auf Kosten der Vermittlung der Grundlagen. Mit einer soliden Statistik-Basis kann man sich aber in einem zweitägigen Kurs in ein Programmpaket einarbeiten. Solche Kurse werden mittlerweile an vielen Universitäten angeboten. Ich verweise Sie auch auf kostenlose Angebote auf Web-Plattformen. Im Buch lernen Sie die Grundlagen von zwei „Rechenhelfern“ kennen: SPSS und R. Sie können dann auf dieser Basis entscheiden, mit welchem Programmpaket Sie sich weiter eingehend beschäftigen wollen.
Danke!
Ein solches Buch entsteht nicht ohne Unterstützung. Die Teilnehmer meiner Methodik-Veranstaltungen an den Universitäten Frankfurt und Bonn waren die (manchmal unfreiwilligen) Versuchsteilnehmer an diesem Projekt. Ich habe wertvolle Hilfe bei der Literaturrecherche (Heike Renner-Westermann, BLL/Unibibliothek Frankfurt) und dem professionellen „Outfit“ (Kathrin Heyng und Karin Burger, Narr Verlag) erhalten. Stephanie Tyszak hat mit ihren Care-Paketen für viel gute Laune gesorgt. Michael Schürig, Thomas Pollow, Angelika Emge, Sebastian Hohl und Brooks Ferebee haben den Inhalt und die Lesbarkeit des Buches durch Korrekturlesen, Hinweise und Diskussionen verbessert.
Alexandre Rausch hat dieses Projekt von Anfang an unterstützt. Von ihm habe ich über viele Jahre hinweg sehr viel lernen dürfen: Über Statistikprogramme, Formeln und Formate, aber auch über die Schönheit seines Faches, über die Mathematik. Ohne seine exzellenten R-Kenntnisse wären manche Abbildungen und Simulationen in dieser Form nicht möglich gewesen. Was die meiner Meinung nach notwendigen Vereinfachungen betrifft, bitte ich alle Mathematiker um Nachsicht. Das gilt auch für vielleicht noch enthaltene Fehler und Inkonsistenzen, für die ich allein verantwortlich zeichne.
Für alle Leser gilt: Geben Sie nicht gleich auf, wenn es etwas komplizierter wird. Ich hoffe, dass möglichst viele den Weg in die Methodik finden und freue mich auf Ihre Rückmeldungen.
Zum Buch gibt es eine Webseite auf: www.narr.de/methodik_fuer_linguisten. Hier finden Sie auch eine Reihe zusätzlicher Übungsaufgaben zum Rechnen (mit Lösungshinweisen).
Lernziele Grundlagen empirischer Forschung; Falsifikation, Verifikation und Bestätigung; Induktion, Deduktion und Abduktion; Merkmale quantitativer und qualitativer Forschung; Hypothesen und Operationalisierung; Paradigma und Paradigmenwechsel; Gütekriterien
Was verbinden Sie mit dem Begriff „Wissenschaft“? Was unterscheidet eigentlich eine wissenschaftliche Hypothese von einer Alltagsvermutung? Haben Linguisten einen besseren Zugang zu sprachlichen Prozessen als Laien? Was zeichnet Ihrer Meinung nach „gute“ Forschung aus?
„Neunzehntel aller wissenschaftlichen Arbeit ist stumpf machende Mühe“, nörgelte schon Adolf von Harnack (1851–1930), der erste Präsident der heutigen Max-Planck-Gesellschaft. Ob er mit seiner Einschätzung recht hat, können Sie bald selbst überprüfen. Unstrittig ist dagegen der Ausgangspunkt wissenschaftlichen Arbeitens: Wissenschaftler versuchen, Probleme und Rätsel zu lösen. Dafür hat jede Einzelwissenschaft spezifische Methoden entwickelt. Die Linguistik als eine empirische, also eine Erfahrungswissenschaft, sammelt Informationen über sprachliche Prozesse, wertet sie systematisch aus und versucht sie mithilfe von Theorien zu interpretieren.
Bevor wir aber in die Vermittlung dieser Forschungsmethoden einsteigen, möchte ich Sie in ein Teilgebiet der Philosophie locken – in die Erkenntnis- oder Wissenschaftstheorie. Sie wird das unverzichtbare Fundament bilden, auf dem Sie nach und nach Ihre Methodikkenntnisse aufbauen werden. Sie sollten deshalb dieses Kapitel nicht überspringen, auch wenn das kein leichter Einstieg wird und Sie viele neue Fachbegriffe lernen werden. Haben Sie über die am Anfang gestellten Fragen nachgedacht? Dann sind Sie bereits mitten in der Wissenschaftstheorie angekommen: Wie sieht die Wirklichkeit aus, und was können wir überhaupt über sie wissen? Welche Forschungsergebnisse kann man also erwarten, und wie sollte man sie gewinnen?
Mit diesen Fragen hat sich auch der in Österreich geborene und später in seiner Wahlheimat England geadelte Philosoph Sir Karl Raimund Popper (1902–1994) beschäftigt. Anders als Aristoteles, der sicheres Wissen für möglich hielt, glaubte Popper an die Fehlbarkeit des Menschen (Fallibilismus). Menschliche Erkenntnis ist danach immer nur vorläufig und kann niemals endgültig sein. So etwas wie „ewige Wahrheiten“ gibt es also nicht. Was aber gibt es stattdessen? Immer wieder neu zu überprüfende Vermutungen und Hypothesen, die sich immer wieder neu bewähren müssen. Scheitern sie, müssen sie durch neue, noch kühnere Vermutungen ersetzt werden. Poppers Idee: Durch Fehleranalyse besser werden, Stück für Stück, in kleinen Schritten. Sie kennen [16]sicher die beiden dazu passenden Volksweisheiten: „Irren ist menschlich!“ und „Aus Fehlern wird man klug!“.
Schon in seinem ersten Hauptwerk, der 1934 erschienenen Logik der Forschung (LdF), führte Popper den Nachweis, dass wissenschaftliche Gesetze nie endgültig bewiesen werden können, auch nicht durch noch so viele identische Beobachtungen und Experimente. Aus immer wieder gemachten Beobachtungen kann man nicht ableiten, dass etwas gesetzmäßig passiert (also durch Induktion). Auch wenn Sie über Popper noch nichts gehört haben, kennen Sie vielleicht die berühmte Illustration dieser These, das Beispiel mit den weißen und den schwarzen Schwänen. Den Satz „Alle Schwäne sind weiß“ kann ich nicht dadurch beweisen, dass ich jahrelang nach weißen Schwänen suche. Wie kann ich sicher sein, alle Schwäne gefunden zu haben? Popper schlägt vor, anders vorzugehen: Suche schwarze Schwäne! Wenn ich nur einen einzigen schwarzen Schwan entdecke, ist mein Satz „Alle Schwäne sind weiß“ widerlegt. Das Vermutungswissen, der hypothetische Satz, gilt nur so lange, bis mindestens ein Gegenbeispiel gefunden ist. Falsifikation nennt Popper dieses, auf Widerlegung basierende Verfahren: „Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können.“ (Popper, LdF, 2005: 17) Das Prinzip der Fehlbarkeit nutzt Popper auch, um das sogenannte Abgrenzungsproblem zu lösen. (Natur)wissenschaftliche Aussagen lassen sich dadurch von pseudowissenschaftlichen oder metaphysischen (d.h. jenseits der physikalischen Beobachtbarkeit) trennen. Nur Hypothesen, die widerlegbar sind, dürfen sich wissenschaftlich nennen und sagen etwas über die Wirklichkeit aus. Man muss sich also konkrete und praktische Situationen oder Experimente vorstellen können, die eine Theorie widerlegen könnten.
Popper unterscheidet dabei eine logische und eine praktisch-empirische Falsifizierbarkeit. Logisch falsifizierbare Sätze behaupten etwas, und sie verbieten auch etwas. „Alle Schwäne sind weiß.“ Und: „Es gibt keinen Schwan, der nicht weiß ist.“ Diese Idee von Aussage (Hypothese) und Verbot (Nullhypothese) ist grundlegend für die Statistik und Versuchsplanung. Die empirische Falsifizierbarkeit geht darüber hinaus. Empirisch falsifizierbare Sätze müssen logisch falsifizierbar sein. Zusätzlich muss aber auch der Sachverhalt, über den eine Aussage gemacht wird, beobachtbar sein. Dabei können auch Hilfsmittel (wie etwa technische Geräte) eingesetzt werden.
Mit seinem Falsifikationsprinzip grenzte Popper sich auch gegen eine andere, zu dieser Zeit sehr einflussreiche Methodenlehre ab, den logischen Empirismus. Er geht auf den sogenannten „Wiener Kreis“ zurück, eine Diskussionsrunde von Mathematikern und Logikern, Philosophen und Naturwissenschaftlern um Moritz Schlick, Otto Neurath und Rudolf Carnap. Hier galten zunächst die Sätze als unwissenschaftlich, die nicht verifizierbar, also nicht durch ein Experiment oder durch eine Beobachtung zu bestätigen sind. Die Vertreter des logischen Empirismus forderten: Alle bedeutungsvollen Aussagen einer Theorie müssen auf Beobachtungen oder Erfahrungen zurückgeführt werden können (deshalb „Empirismus“). Der Zusatz „logisch“ im Namen beschreibt die zweite Forderung: Alle Theorien müssen in einer formalen Sprache wie der Aussagen- oder Prädikatenlogik formuliert werden, um möglichst eindeutig und präzise zu sein. Die Alltagssprache ist dafür ungeeignet, weil sie viel zu viele Mehrdeutigkeiten zulässt. Ihre dritte Forderung: Theoretische Begriffe müssen vollständig auf Beobachtungsbegriffe zurückführbar sein. In der formalen Sprache des logischen Empirismus werden Beobachtungen und Erfahrungen als Protokollsätze bezeichnet. [17]Kann man eine theoretische Aussage aus mehreren solcher Protokollsätze vollständig ableiten, ist sie empirisch verifiziert. Alle Aussagen, die sich anhand von Beobachtungen verifizieren lassen, galten als sinnvoll (Sinnkriterium). Nicht Erfahrungen oder Dinge, sondern Aussagen bilden also hier das Fundament der Wissenschaft.
Popper hat aber nicht einfach nur die Verifikation durch die Falsifikation ersetzt. Er teilte auch die Metaphysikkritik der logischen Empiristen nicht (bspw. Carnap, 1961). Das nach dieser Definition Nichtwissenschaftliche ist nicht automatisch auch kognitiv sinnlos und kann trotzdem verstanden werden. Es fehlt nur die Möglichkeit, es auch empirisch überprüfen zu können. Ein Beispiel: Der empirisch gehaltlose Satz „Gott existiert“ ist nicht sinnlos, über seinen Inhalt kann man sich austauschen. Das gilt auch für ästhetische Urteile („X ist schön“) oder moralische Aspekte („Helfe Deinem Nächsten!“).
Wann und wie ist aber ein Satz oder eine Theorie falsifizierbar? Um allgemeine wissenschaftliche Theorien empirisch überprüfen zu können, benötigt man besondere Sätze über Experimente oder Beobachtungen. In seinem Buch „Logik der Forschung“ nennt Popper sie Basissätze. Sie sind aber gerade nicht sicher und unveränderlich, wie die Bezeichnung „Basis“ vielleicht vermuten lässt, denn reine Beobachtungen gibt es für Popper nicht. Auch Beobachtungen sind von Theorien durchsetzt und werden von diesen geleitet. Später verwendet Popper dafür den Begriff Prüfsatz. Solche Basis- oder Prüfsätze sollen die Überprüfung von allgemeinen wissenschaftlichen Hypothesen ermöglichen. Ein Basissatz sagt aus, dass an einem bestimmten Ort zu einer bestimmten Zeit ein bestimmtes Ereignis beobachtet worden ist. Popper nennt sie deshalb singuläre Es-gibt-Sätze. Sie müssen als Beobachtungssätze intersubjektiv nachprüfbar sein. Die Vorgänge, die sie beschreiben, sollen also für mehrere Beobachter erkennbar sein. Behauptet nun eine Theorie oder eine Hypothese, dass dieses Ereignis unter diesen Bedingungen nicht auftreten kann, steht der Basissatz im Widerspruch zu dieser Theorie oder Hypothese. Ein solcher Basissatz kann eine allgemeine wissenschaftliche Hypothese falsifizieren. Es ist dabei nicht wichtig, dass der geforderte Basissatz auch wahr ist, entscheidend ist nur die Falsifikationsmöglichkeit. Bemühen wir noch einmal den berühmten weißen Schwan und schauen uns die von Popper geforderte Form der Basissätze an. Die Hypothese „Alle Schwäne sind weiß“ ist logisch äquivalent mit dem Satz: „Es gibt keinen nicht-weißen Schwan“. Falsifiziert wird diese allgemeine Hypothese von dem Satz: „An der Raum-Zeit-Stelle k gibt es einen nicht-weißen Schwan“. Der Basissatz könnte lauten: „Am 31.12.2010 stand ein schwarzer Schwan zwischen 10 und 11 Uhr morgens vor der Mensa in Bonn“. Ein solcher Basissatz enthält eine sogenannte Randbedingung, die für den betreffenden Fall gilt: „Vor der Mensa in Bonn stand am 31.12.2010 zwischen 10 und 11 Uhr morgens ein Schwan.“ Wahr ist der Basissatz übrigens nicht, wie ich glaubhaft versichern kann. Niemand hat unter diesen Bedingungen einen schwarzen Schwan beobachtet.
Angenommen, man hätte aber ein solches Exemplar tatsächlich gesichtet: Was wäre, wenn der eigentlich weiße Schwan einfach nur dreckig ist und deshalb nur schwarz aussieht? Der Basissatz muss präzisiert werden: „Vor der Mensa in Bonn stand am 31.12.2010 zwischen 10 und 11 Uhr morgens ein von Natur aus schwarzer Schwan.“ Damit wäre unsere Hypothese eigentlich zu falsifizieren. Leider ist die Bedingung „von Natur aus“ nicht zu beobachten. Sie führt zu einem sogenannten problematischen Basissatz. Man benötigt Hilfshypothesen, um aus einem solchen Basissatz einen unproblematischen [18]Satz abzuleiten. In unserem Beispiel könnte die Hilfshypothese lauten: „Verändert sich auch durch Waschen die Farbe des Schwans nicht, dann ist er von Natur aus schwarz.“ Neben den Hypothesen spielen also auch Randbedingungen und Hilfshypothesen eine große Rolle im Forschungsprozess.
Prüfsätze können nicht durch Beobachtung verifiziert werden. Diese Vorstellung der logischen Empiristen lehnte Popper ab. Alle Sätze gehen weit über das hinaus, was man aufgrund unmittelbarer Erlebnisse sicher wissen kann. Prüfsätze können von der Erfahrung also nicht bewiesen werden. Wie kann man sie dann kritisieren? Eine Möglichkeit ist die Reproduzierbarkeit der Prüfsätze: „Ganz analog muss jeder empirisch-wissenschaftliche Satz durch Angabe der Versuchsanordnung u. dgl. in einer Form vorgelegt werden, dass jeder, der die Technik des betreffenden Gebietes beherrscht, imstande ist, ihn nachzuprüfen.“ (Popper, LdF, 2005: 75).
Falsifikation bedeutet nicht, dass eine Theorie falsch ist und deshalb gleich aufgegeben werden muss. Sie ist eine Möglichkeit, wenn sich Vorhersagen nicht bestätigen. Wegen eines einzigen Widerspruchs zwischen Theorie und Experiment ist die Theorie noch nicht zwingend widerlegt. Irgendwo ist ein Fehler im System aufgetreten, das sich aus Theorien und Hypothesen, Randbedingungen und Hilfshypothesen, Beobachtungen und sprachlichen Formulierungen zusammensetzt. Diesen Fehler muss man finden und aus ihm lernen. Für Popper war es wichtig, dass eine wissenschaftliche Methode verhindert, dass eine Theorie ihrer Falsifizierung entgeht, da man „ (…) Falsifikationen immer bestreiten“ und „(…) insbesondere eine Theorie gegen Falsifikationen immunisieren kann.“ (Popper, LdF, 2005: 508).
Popper hat später auch eine sogenannte probabilistische Falsifizierung zugelassen, die sich in der wissenschaftlichen Praxis bewähren soll. Wissenschaftler interessieren sich für Wenn-Dann-Beziehungen, also für Ursache-Wirkungszusammenhänge. Linguistische Hypothesen sind selten völlig deterministisch. Die Ursache bestimmt also nicht allein die Wirkung. Auch der Zufall (oder unbekannte Faktoren) spielen eine Rolle. Ein bestimmtes sprachliches Verhalten lässt sich also nicht immer bei jedem Menschen an jedem Ort beobachten, und Messungen können zudem auch fehlerhaft sein. Linguistische Hypothesen sind deshalb meistens Wahrscheinlichkeitsaussagen, sie sind probabilistisch. Unter bestimmten Bedingungen lässt sich ein sprachliches Verhalten mit einer gewissen Wahrscheinlichkeit beobachten, gemittelt über viele Personen, um Zufallseinflüsse zu berücksichtigen. Für die praktische Überprüfung bedeutet dies: Eine Theorie ist durch wiederholte, stark abweichende Beobachtungen praktisch falsifizierbar.
Für Popper war die Wissenschaft ein Pfeilerbau, der auf einem Sumpfland errichtet wurde: „So ist die empirische Basis der objektiven Wissenschaft nichts ‚Absolutes’, die Wissenschaft baut nicht auf Felsengrund.“ (Popper, LdF, 2005: 88). Man kann also nur hoffen, dass die Pfeiler tief genug im Sumpf verankert sind, um die Theorien tragen zu können. Basissätze können Theorien prüfen. Eine Theorie kann sich also bewähren oder sie gilt als widerlegt. Aber auch wenn sie sich zunächst bewährt, bleibt sie trotzdem fallibel, d.h.: Sie kann an einer weiteren Prüfung scheitern. Eine Theorie ist niemals falsifizierbar „in dem Sinne, dass die fragliche Theorie endgültig oder zwingend falsifiziert werden kann“ (Popper, 1989: 84). Auch ein endgültiges Scheitern gibt es also nicht.
Poppers einflussreiche Falsifikationstheorie ist vielfach kritisiert und weiterentwickelt worden. Auch heute noch ist sie Gegenstand kontroverser Debatten (bspw.: Gawronski, 2000). Ein Kritikpunkt: Zwar könne man isolierte allgemeine Hypothesen falsifizieren. Falsifizierende Schlüsse („Alle Schwäne sind weiß“) sind also möglich. In der Wissenschaft würden aber eher komplizierte theoretische Systeme empirisch überprüft. Solche Systeme setzen sich aus mehreren allgemeinen Hypothesen und manchmal zusätzlichen theoretischen Randbedingungen zusammen. Theorien sind also ein kohärentes Netzwerk aus einzelnen, miteinander verknüpften Aussagen. Auf diesen sogenannten holistischen und systematischen Charakter von Wissenschaft haben schon Duhem (1908) und Quine (1951) hingewiesen. Der Gegenstand der Falsifikation ist danach nicht eine isolierte Theorie, sondern immer ein ganzes Netzwerk aus Theorien und Hintergrundannahmen. Alle diese Annahmen sind aber ebenso hypothetisch wie die zu überprüfende Theorie selbst. Durch Beobachtungsdaten sind sie nicht ausreichend gestützt, sie sind unterdeterminiert. Eine einzelne empirische Beobachtung kann deshalb nicht die komplette Theorie falsifizieren. Es gibt kein kritisches Experiment für eine Theorie, kein experimentum crucis, das den Wissenschaftler wirklich zwingen könnte, bestimmte Teile seiner Theorie aufzugeben. Irgendwo im System muss eine falsche Hypothese enthalten sein, aber es ist logisch gesehen unbestimmt, welche Hypothese diejenige ist, die verworfen werden muss.
Popper wurde aber vor allem für sein Wissenschaftsverständnis angegriffen. Bevor wir uns mit Hypothesen und Operationalisierungen beschäftigen und damit der Praxis zuwenden, schauen wir uns abschließend die Einwände dreier berühmter Kritiker etwas genauer an.
Thomas Kuhn (1922–1996) interessierte sich weniger dafür, nach welchen Regeln man Theorien definieren und sinnvoll überprüfen sollte (Wissenschaftstheorie). Ihn interessierte vielmehr, wie Wissenschaft tatsächlich funktioniert (Wissenschaftssoziologie). Das Ergebnis seiner historisch-soziologischen Analyse: Wissenschaftliche Forschung findet nicht im so gerne zitierten Elfenbeinturm statt, sondern in ganz speziellen wissenschaftlichen Gemeinschaften. Die Mitglieder dieser Community teilen einen gewissen Kenntnisstand, kommunizieren sehr intensiv miteinander, kommen zu ähnlichen Beurteilungen und bilden auch ihren Nachwuchs nach vergleichbaren Standards aus. In einer solchen Gemeinschaft ist vieles festgelegt: Welche Begriffe und theoretischen Annahmen sind akzeptiert? Mit welchen Methoden, Hilfsmitteln und Apparaturen sollte man forschen? Und welche empirischen Generalisierungen sind zulässig? Welche Schlüsse darf man also aus den Untersuchungen und Ergebnissen ziehen? Diese gemeinsame Basis bezeichnet Kuhn als Paradigma. Im Wissenschaftsbetrieb können Sie ein Paradigma auch daran erkennen, dass es dazu eigene Fachzeitschriften, Lehrbücher, Fachgesellschaften, spezialisierte Kongresse oder Lehrstühle gibt.
Was passiert, wenn das Ergebnis einer wissenschaftlichen Untersuchung nicht in ein bestehendes Weltbild, also in ein Paradigma passt? Nach Kuhn führen solche Anomalien gerade nicht zu einer Falsifikation, wie Popper es fordert. Der Wissenschaftler [20]versuche stattdessen, durch Zusatzannahmen oder zusätzliche Erklärungen seine Theorie zu retten – und zwar möglichst lange! Berühmt geworden ist in diesem Zusammenhang eine Aussage des Physikers Max Planck, der behauptete, dass Theorien erst gemeinsam mit ihren Vertretern stürben. Treten Anomalien auf, werden die Paradigmen also zunächst nur verändert oder erweitert. Lassen sie sich aber über einen längeren Zeitraum nicht auflösen, wird aus einer Anomalie mehr als „lediglich ein weiteres Rätsel der normalen Wissenschaft“ (Kuhn, 1988: 96). Die „normalwissenschaftliche“ Forschungsperiode mündet schließlich in eine Krisensituation. Jetzt existieren verschiedene Modifikationen des bestehenden Paradigmas nebeneinander. Die Forschergemeinschaft diskutiert darüber, ob bisher akzeptierte Methoden und Theorien, Regeln und Normen vielleicht aufgegeben werden sollten. Eine solche Krisensituation kann aber durchaus durch eine weitere Modifikation des Paradigmas beendet werden. Dann folgt wieder eine Periode „normaler Wissenschaft“. In seltenen Fällen lässt sich die Anomalie aber nicht auflösen. Dann wird das alte Paradigma ganz oder teilweise durch ein neues, mit ihm nicht vereinbares Paradigma ersetzt. Diesen Vorgang bezeichnet Kuhn als Paradigmenwechsel. Wissenschaftlicher Fortschritt vollzieht sich also nach Kuhn nicht durch kontinuierliche Veränderung (Stück für Stück der Wahrheit näherkommend), sondern durch einen revolutionären Prozess, den sogenannten Paradigmenwechsel. Deshalb trägt sein 1962 erschienenes Buch auch den Titel The Structure of Scientific Revolutions. Nicht die strenge Überprüfung und Falsifikation von Theorien, sondern die Ausdifferenzierung von Paradigmen lösen nach Kuhn solche Revolutionen aus.
Wissenschaftliche Theorien sind aber auch immer ‚Kinder ihrer Zeit’. Folgen Theorien aufeinander, lässt sich deshalb ihr Wahrheits- bzw. Falschheitsgehalt nicht vollständig miteinander vergleichen. Sie sind inkommensurabel. Zwischen dem alten und dem neuen Weltbild ist ein Bruch entstanden. Mit dem Paradigmenwechsel, dem Übergang von einer Theorie zur nächsten, verändern „die Wörter ihre Bedeutung oder die Bedingungen ihrer Anwendbarkeit auf eine ganz subtile Weise.“ (Kuhn, 1974: 258). Eine neue Grammatiktheorie, die mit den Vorgängermodellen bricht, oder die Einführung konnektionistischer Modelle sind Beispiele für einen solchen Paradigmenwechsel in der Linguistik.
Der Ungar und Popper-Schüler Imre Lakatos (1922–1974) hat mit seiner Methodologie wissenschaftlicher Forschungsprogramme (1974) einen dritten Weg eingeschlagen. Er behält zwar Poppers Idee der Falsifizierbarkeit von Theorien bei, verbindet sie aber mit Kuhns sozialpsychologischer Analyse. Die beiden Grundgedanken des Lakatos’schen raffinierten Falsifikationismus: Wozu eine Theorie falsifizieren, wenn noch keine bessere Alternative vorliegt? Eine mit der Erfahrung (mit Daten) unvereinbare Theorie ist also erst dann als gescheitert anzusehen, wenn eine bessere Theorievariante entwickelt wurde („weiche Falsifikation“). Über den Erfolg (oder das Scheitern) einer Theorie wird dabei nicht sofort entschieden, sondern erst nach einer ständigen und andauernden Konfrontation mit neuen Daten. Um den zweiten Grundgedanken verstehen zu können, muss man Lakatos` Idee der Forschungsprogramme kennen. Nach seiner [21]Vorstellung gibt es keine isolierten (also kontextfreien) Theorien, sondern nur ganze Theoriereihen. Auch solche Reihen entstehen, wenn es zu Anomalien kommt, also zu einer Unvereinbarkeit zwischen Theorie und empirischen Befunden. Dann wird als Reaktion darauf eine neue Theorie entwickelt. Entscheidend ist dabei, dass diese neue Theorie auf ihre Vorgängermodelle bezogen ist. Aus einer solchen Reihe wird ein sogenanntes Forschungsprogramm. Alle Theorien in dieser Reihe teilen einen harten Kern, bestehend aus einigen sehr allgemeinen Hypothesen. Er entwickelt sich in einem langsamen, geschichtlichen Prozess. Ihn sehen die Wissenschaftlicher als nicht-falsifizierbar an. Falsifizierbar sind nur die Hilfshypothesen, die sich wie ein Schutzgürtel um diesen harten Kern und die Mitte gruppieren. Nach Lakatos lässt sich dieser Theoriekern dadurch retten, dass man an den Rändern der Theorie, also an den speziellen Hilfshypothesen des Gürtels, etwas verändert, in dem man diese aufgibt oder durch andere Hypothesen ersetzt (Immunisierungsthese). Wenn das Ergebnis eines Experiments im Widerspruch zu einer Theorie steht, können im Nachhinein auch kompliziertere Systemeigenschaften oder vielleicht auch unbekannte Störfaktoren als vermutete Ursache angegeben werden, sogenannte Ad-hoc-Hypothesen (ad hoc bedeutet: „eigens zu diesem Zweck gebildet“). Die Anomalie (abweichende Daten – Theorie) bleibt also bestehen, die Theorie gilt eigentlich als Misserfolg. Der Kern wird aber trotzdem nicht aufgegeben. Das ist aber nur unter der Bedingung zulässig, dass eine solche Ad-hoc-Anpassung progressiv ist. Solange also durch solche Ad-hoc-Anpassungen neuer empirischer Gehalt gewonnen wird, ist die Entwicklung der Reihe nicht degenerativ und damit akzeptabel. Das neue Programm muss also so viel erklären können wie das Vorgängermodell in der Reihe, zusätzlich aber einen neuen empirischen Gehalt (den sogenannten Überschussgehalt) mitbringen. Dieser Überschussgehalt muss allerdings auch ab und an überprüft und empirisch durch Untersuchungen bestätigt werden. Je degenerativer der alte harte Kern wird, desto eher werden immer mehr Wissenschaftler nach Alternativen suchen und damit neue Forschungsprogramme entwickeln. Eine Art „Eliminationsregel“, wann genau ein Forschungsprogramm aufgegeben werden sollte, führt Lakatos allerdings nicht an. Eine wissenschaftliche Elite soll (normativ) darüber entscheiden, ob mit der Entwicklung eines Forschungsprogrammes auch wirklich ein wissenschaftlicher Fortschritt verbunden ist.
Der dritte berühmte Popper-Kritiker neben Kuhn und Lakatos, auf den hier abschließend kurz eingegangen werden soll, ist der Österreicher Paul Feyerabend (1924–1994), der in Berkeley lehrte. Sein 1975 erschienenes Buch Against Method: Outline of an Anarchistic Theory of Knowledge ist nach seinen eigenen Angaben kein „systematischer Traktat, es ist ein Brief an einen Freund und geht dabei auf die Eigentümlichkeiten des Adressaten ein.“ (Feyerabend, 1986: 11). Der hier zitierte Adressat und Freund ist kein anderer als der Rationalist Imre Lakatos.
Mit seinem Buch wandte Feyerabend sich gegen die Vorstellung, dass die Wissenschaft einen herausgehobenen Status habe. Sie habe keinen Vorrang vor anderen Formen der Erkenntnis. Die Hochachtung gegenüber der Wissenschaft hielt er sogar für ein gefährliches Dogma, das Menschen unterdrücke. Jeder Mensch, jedes Individuum, habe die Freiheit, zwischen der Wissenschaft und anderen Formen der Erkenntnis zu wählen. [22]Wenn überhaupt, zeichneten sich wissenschaftliche Methoden nur durch ein unveränderliches Merkmal aus. Dieses berühmt gewordene Prinzip beschrieb Feyerabend (1986: 21) mit ironischem Unterton so: „Der einzige allgemeine Grundsatz, der den Fortschritt nicht behindert, lautet: „Anything goes!“. Man könne keine Grundsätze unabhängig vom konkreten Forschungsproblem aufstellen und diskutieren. Solche „Grundsätze änderten sich von einem Fall zum anderen“ (Feyerabend, 1986: 11). Den Versuch, eine verbindliche wissenschaftliche Methode zu finden, sah er als gescheitert an. Es gibt nur Wissenschaftler, die ihren eigenen, sehr subjektiven Bedürfnissen ohne methodologische Einschränkungen folgen sollten:
„Keine der Methoden, die Carnap, Hempel, Nagel, Popper oder selbst Lakatos heranziehen möchten, um wissenschaftliche Veränderungen rational zu machen, läßt sich anwenden, und die einzige Methode, die übrigbleibt, die Widerlegung, wird stark geschwächt. Es bleiben ästhetische Urteile, Geschmacksurteile, metaphysische Vorurteile, religiöse Bedürfnisse, kurz, es bleiben unsere subjektiven Wünsche: die fortgeschrittensten und allgemeinsten Bereiche der Wissenschaft geben dem einzelnen eine Freiheit zurück, die er in ihren einfacheren Teilen zu verlieren schien.“ (Feyerabend, 1986: 369)
Chalmers (2001) weist auf einen wichtigen Kritikpunkt an Feyerabends Ansatz hin: Keinem Wissenschaftler stehen wirklich alle Wege offen. Wählen kann er eigentlich immer nur zwischen den Optionen und den Ressourcen, die ihm zur Verfügung stehen. Auch diese Erfahrung werden Sie sicher mit Ihrem eigenen Projekt machen müssen.
Es existieren also durchaus sehr unterschiedliche Ansichten darüber, was eigentlich genau eine wissenschaftliche Methode auszeichnet und ob man überhaupt verbindliche Regeln aufstellen kann und sollte. Die folgende Aussage wird aber von den meisten Wissenschaftlern geteilt: Hypothesen spielen im Forschungsprozess eine zentrale Rolle. Was aber ist eigentlich eine Hypothese? Man ist als Wissenschaftler auf ein Rätsel oder ein Problem gestoßen. Jetzt muss man dieses Problem als Frage formulieren, die man empirisch, also mit Daten, beantworten kann. In der Versuchsplanung, die wir im nächsten Kapitel behandeln werden, geht es um die Beziehung zwischen mindestens zwei sogenannten Variablen. Welcher Zusammenhang besteht zwischen A und B, oder wie verändert sich A, wenn ich B verändere? In der Linguistik also bspw.: Welcher Zusammenhang besteht zwischen dem Alter eines Kindes und dem Umfang seines Wortschatzes? Oder auch: Dauert das Lesen von Sätzen länger, wenn sie syntaktisch komplexer werden? Mit der Hypothese formulieren Sie die vermutete Antwort auf eine wissenschaftliche Fragestellung.
[23]
Hypothese
Hypothesen sind in ihrer allgemeinen Form Vermutungen. Sie sind vorläufige Antworten auf wissenschaftliche Fragestellungen. In der Versuchsplanung sind sie gerichtete Behauptungen über die Beziehungen (Relationen) zwischen Variablen.
Klassifikation von Hypothesen
Es gibt verschiedene Möglichkeiten, Hypothesen zu klassifizieren. Wir können jetzt in Anlehnung an Huber (2005) dazu den Begriff der Falsifikation verwenden. Zur Erinnerung: Eine Hypothese gilt als falsifiziert, wenn sie als falsch, als verifiziert, wenn sie als wahr bewiesen wurde. Das ist eine Vereinfachung, aber sie ist für unsere Zwecke ausreichend. Für unsere Klassifikation ist auch noch wichtig, ob man alle Personen oder Fälle der Grundgesamtheit oder nur einen Teil davon, also nur eine Stichprobe, untersuchen kann.
Universelle Hypothesen sind Aussagen, die für alle Fälle gelten sollen. Unbeschränkt oder strikt universelle Hypothesen (Allaussagen) gelten für alle Fälle ohne Einschränkung, also bspw. für alle Menschen an allen Orten und zu allen Zeiten. Schränken Sie die Fälle ein (bspw.: nur Männer oder nur Frauen), wird aus einer strikt-universellen eine quasi-universelle Hypothese. Wie Sie schon wissen, kann man universelle Hypothesen widerlegen. Findet man nur einen einzigen Fall, auf den ein Sachverhalt nicht zutrifft, ist eine universelle Hypothese falsifiziert (Poppers schwarzer Schwan!). Wenn man alle Fälle untersuchen könnte, und nur dann, könnte man eine universelle Hypothese auch verifizieren. Ein solches Vorgehen scheitert aber nicht nur an praktischen, sondern auch aus prinzipiellen Gründen. Man müsste nicht nur sehr viele Personen untersuchen, sondern auch gleichzeitig zu allen Zeitpunkten ganz unterschiedliche Verhaltensweisen der Personen erfassen können. Da universelle Hypothesen, deren Gültigkeit an Stichproben untersucht wird, prinzipiell nicht verifizierbar sind, gelten sie als bestätigt, solange sie nicht als falsch bewiesen wurden.
Existenzielle Hypothesen beziehen sich auf mindestens einen Fall aus allen möglichen Fällen. Es können aber durchaus auch mehrere Fälle existieren. Sie lassen sich nur dann falsifizieren, wenn man alle möglichen Fälle untersuchen könnte. Ansonsten sind sie nur verifizierbar. Wenn ich behaupte, dass es Menschen gibt, die mehr als zwanzig Sprachen beherrschen, genügt ein Fall einer sogenannten Inselbegabung, um diese Hypothese bestätigen zu können. Denken Sie an berühmte Savants, bspw. an Emil Krebs, dem die Kenntnis von über 60 Sprachen nachgesagt wird.
Die Behauptung „bei 5% aller Rechtshänder ist die rechte Hirnhälfte bei der Sprachverarbeitung dominant“ ist eine sogenannte Hypothese über Anteile. Da man zumeist nur Stichproben untersuchen kann, ist sie weder verifizierbar noch falsifizierbar. Sie bewährt sich mit statistischen Verfahren.
Hypothesen kann man auch danach unterscheiden, wie sie Ereignisse beschreiben und auf welchen Bereich sie sich beziehen. Bei den sogenannten deterministischen Hypothesen muss ein Ereignis unter bestimmten Bedingungen eintreten. Es ist also determiniert. So wird die Einnahme einer kritischen Menge eines Giftes jeden Menschen immer und überall umbringen. Statistische oder stochastische Hypothesen behaupten, dass ein Ereignis unter bestimmten Bedingungen mit einer gewissen Wahrscheinlichkeit [24]eintritt. Das ist eigentlich der Standardfall in der linguistischen Forschung. Singuläre Hypothesen beziehen sich nur auf einen einzelnen Fall. Sie schränken also den Personenkreis, die zu betrachtende Situation oder die dort auszuführenden Tätigkeiten ein: Person A hat zum Zeitpunkt X eine bestimmte sprachliche Konstruktion verwendet. Solche Hypothesen spielen vor allem in der klinischen Forschung im Rahmen von Einzelfallstudien eine Rolle.
Es gibt noch einen weiteren Grundbegriff, der für alle empirischen Wissenschaften eine zentrale Bedeutung hat: die Operationalisierung. Der Ausgangspunkt einer empirisch-wissenschaftlichen Untersuchung ist eine Frage. Entscheidend ist: Diese Frage muss so formuliert werden, dass man sie mit Daten beantworten kann. Der Inhalt (die Bedeutung) muss sich also empirisch bestimmen lassen. Dazu müssen die in der Frage enthaltenen theoretischen Begriffe beobachtbaren Größen zugeordnet werden können.
Operationalisierung
Die Operationalisierung verknüpft Begriffe mit Verfahren (Operationen), mit denen sich der Inhalt der Begriffe empirisch bestimmen lässt. Sie gibt Anweisungen, wie bezeichnete Sachverhalte gemessen werden sollen.
Wenn in Ihrer Hypothese bspw. die Größe des mentalen Lexikons eine Rolle spielt, müssen Sie also überlegen, wie Sie diesen Umfang messen wollen. Was bedeutet hier „mentales Lexikon“? Was gehört alles dazu, was nicht? Welche sprachlichen Einheiten wollen Sie betrachten (Lemma, Lexem, Wort, Silbe etc.), und wie sollen diese erfasst werden? Bei der Operationalisierung geht es also nicht nur darum, empirische Indikatoren zu finden. Sie fordert auch eine Präzisierung der verwendeten Begriffe und zwingt Sie dazu, über das Messen nachzudenken. Viele gute Ideen scheitern an diesem Konkretisierungsschritt, der Messbarmachung. Auch deshalb werden wir uns noch genauer mit dem Messen beschäftigen.
Auf Popper und seine Mitstreiter geht auch der sogenannte Kritische Rationalismus