image

Karin Roller | Stephanie Eismann

PATTERN

Alles über harmonische Pattern,
von Bat bis Shark

TRADING

FBV

Weitere Informationen zum Verlag finden Sie unter

www.finanzbuchverlag.de

INHALT

Was erwartet Sie in diesem Buch?

Ein wenig Geschichte

Erste Zeitreihe: Technische Analyse

Zweite Zeitreihe: Informationstechnologie

Pattern-Einteilung

Harmonische Patterns

Wieso harmonische Patterns handeln?

Kompliziert?

Die ersten Schritte

Die Basis-Muster: ABC und ABCD Pattern

ABC Pattern

AB=CD oder auch ABCD Pattern

Die Weiterentwicklung: Vom ABCD zum Gartley und mehr …

Grundsätzliches

Schema F

Gartley Pattern

Bat Pattern

Alternatives Bat Pattern

Butterfly Pattern

Crab Pattern

Deep Crab Pattern

Cypher Pattern

Shark Pattern

5-0 Pattern

Exotische Patterns

Dragon Pattern

Dead Cat Bounce

Pop Gun

Pinocchio Bar

Spike and Ledge

Adam & Eve

Anhang I – Dow-Theorie

Anhang II – Fibonacci-Ratios

Anhang III – Elliott Wave Principle

Anhang IV – Candlesticks

Anhang V – Einstiegsvarianten

Anhang VI – Traders Trick

Anhang VII – Rund um den Ausstieg

Fazit

Über die Autorinnen

Literaturverzeichnis

Abbildungsverzeichnis

Stichwortverzeichnis

WAS ERWARTET SIE IN DIESEM BUCH?

Ein Buch über Patterns? Das sind doch ganz langweilige Muster! Was soll daran spannend sein? Kann man damit als Trader überhaupt Geld verdienen?

Da kaufen wir uns leistungsfähige Computer und für viel Geld eine Chartsoftware, mit der wir dann den Preis in komplizierte Formeln packen – die wir nicht begreifen, und uns viele bunte Linien im oder unterm Chart anzeigen lassen – deren Sinn und Zweck wir nicht verstehen. Wir verbrauchen jede Menge Zeit und Hirnschmalz, um ein Handelssystem zu programmieren – nur um festzustellen, dass dann hier und da noch ein bisschen gefeilt werden muss und es letztendlich doch nicht funktioniert.

Pattern-Trading – wofür dann die Chartsoftware und die vielen teuren Seminare, um sie auch zu beherrschen? Alles für die Katz? Beim Pattern-Trading werden doch nur simple Preischarts verwendet und als zusätzliche Information das Volumen – und das soll funktionieren?

Ja, tut es – und wir zeigen Ihnen, wie es geht!

Wie stellen Ihnen in diesem Buch die Patterns vor, die aus unserer Sicht maßgeblich für den Erfolg beim Trading sind.

2 Basis-Patterns:

imageABC

imageABCD

9 harmonische Patterns:

imageGartley

imageBat

imageAlternatives Bat

imageButterfly

imageCrab

imageDeep Crab

imageCypher

imageShark

image5-0

6 exotische Patterns:

imageDragon

imagePop Gun

imagePinocchio Bar

imageDead Cat Bounce

imageSpike & Ledge

imageAdam & Eve

Was wir Ihnen zeigen wollen, ist, dass erfolgreich Traden auch ohne Indikatoren und Oszillatoren möglich ist. Der erste serienreife Personal Computer wurde von IBM 1981 auf den Markt gebracht. Und erst mit der Erfindung des Internets und dem Online-Brokerage hat sich »Trading« und »Charting« so entwickelt, wie es viele von uns kennen.

Die wichtigsten Meilensteine auf dem Weg dahin präsentieren wir auf den ersten Seiten des Buches mit den beiden Zeitreihen:

1.Entwicklung der technischen Analyse und

2.Entwicklung der Informationstechnologie.

Erfolgreiche Trader und Strategien gab es bereits zu Beginn des letzten Jahrhunderts – ganz ohne PC und Charttools. Es wurden Muster getradet, die »klassischen« Formationen der technischen Analyse. Standard-Patterns wie zum Beispiel Dreiecke, Kopf-Schulter-Formationen, Doppeltops und Doppelböden. Nicht zu vergessen: Unterstützungen, Widerstände und Trends/Trendbrüche.

R. N. Elliott hat zwar die Kursziele seiner Elliott-Waves mit Fibonacci-Ratios bestimmt, aber harmonische Patterns gab es noch nicht. Erst Ende des letzten Jahrtausends wurden Patterns mit Fibonacci-Ratios versehen. In der Zwischenzeit gibt es eine ganze Sammlung harmonischer Patterns, die sich darin unterscheiden, welche Strecke mit welchen Fibonacci-Ratios definiert wird.

Keine Angst, Sie müssen diese Details nicht auswendig lernen. Für die harmonischen Patterns haben wir eine Matrix entwickelt, mit der Sie auf einen Blick das sich entwickelnde harmonische Pattern identifizieren können.

Ein wenig Geschichte

Gehen wir rund 100 Jahre zurück, vor unser digitales Zeitalter. Der Dow Jones Industrial Average ist bereits erfunden worden, Charles Dow hat seine 252 Editorials im Wall Street Journal veröffentlicht und damit die Grundlagen zur technischen Analyse gelegt. In den 1920er-Jahren waren bereits Muster wie die Kopf-Schulter-Formation oder Dreiecke bekannt und sie wurden auch getradet. Dafür braucht es eigentlich nur Papier und Bleistift und die Kursreihen. Ein Computer ist dafür nicht zwingend notwendig. Sicher, der Computer und das Charttool erleichtern uns das Leben, aber erfolgreiche Trader gab es bereits vor 100 Jahren.

Zum gedanklichen Einstieg ins Pattern-Trading präsentieren wir Ihnen an dieser Stelle zwei Zeitreihen, eine über technische Analyse, beginnend in Japan im 18. Jahrhundert, und eine zweite Zeitreihe über Mathematik/Informationstechnologie, die mit Leonardo da Pisa, genannt Fibonacci, beginnt.

Erste Zeitreihe: Technische Analyse

Wir reisen nach Japan ins 18. Jahrhundert. Damals waren Abgaben und Steuern in Form von physischem Reis an die Herrschenden abzutreten. Diese Art der Abgabe, der »Zehnt«, war keine japanische Erfindung, sie war bereits im Altertum über das Mittelalter und die frühe Neuzeit in den verschiedenen Kulturen des Morgen- und Abendlandes verbreitet. In vielen Dörfern und Städten in Deutschland gibt es noch mittelalterliche Zehntscheuern (Lagerhäuser) zu bestaunen, in denen damals die Naturalien an die Herrschenden abgegeben und gelagert wurden.

1697 bekam die Reisbörse in Dōjima, einem Stadtviertel von Osaka, vom Shōgunat die Lizenz zum Reishandel. An dieser zentralisierten Börse wurde die Liquidität gebündelt. Eine Liquiditätsbündelung ist übrigens eines der Kriterien für die Existenz der Börsen.

Mit dem Verkauf von Reis haben die japanischen Herrscher ihre Ausgaben bestritten oder es zumindest versucht. Denn bereits damals waren die Ausgaben höher als die Einnahmen. War der Reis und damit das Geld aufgebraucht, dann wurde die nächste, noch auf dem Feld stehende Ernte verkauft. Heute bezeichnen wir das als Leerverkauf – wir verkaufen etwas, das wir nicht besitzen. Für einen Leerverkauf wurden Belege ausgestellt und diese Belege wurden dann auch gehandelt. Damit war der erste Future geboren und auch der Future-Händler. Auf dem primären Markt wurde nach wie vor physischer Reis gehandelt, aber es entstand ab ca. 1710 ein Sekundärmarkt für die Futures-Kontrakte.

Der legendäre Munehisa Homma (1724–1803) war der berühmteste Reishändler der Reisbörse in Dōjima und verdiente ein Vermögen. Er analysierte die Reaktionen der Märkte (= der Marktteilnehmer) auf unterschiedlichste Einflussfaktoren, wie das Wetter, die Lagerbestände oder das Handelsvolumen, und konnte somit die Reaktionen des Reismarktes vorhersagen. Er nutzte die Preisbewegungen der Vergangenheit, um zukünftige Preisbewegungen vorherzusagen. 1755 veröffentlichte er das erste Buch über die Psychologie des (Reis-)Marktes (San-en Kinsen Hiroku, »Die Quelle des Geldes – Bemerkungen der drei Affen zum Geld«). Für Homma stand fest, dass die Psychologie des Marktes und damit die Emotionen der Reishändler ein wichtiger Aspekt für den Handelserfolg sind und somit einen signifikanten Einfluss auf die Entwicklung des Reispreises haben. Er entwickelte bereits vor über 200 Jahren eine Contrarian-Strategie: Erwartete die Masse fallende Preise, dann war das Grund genug für steigende Preise und er positionierte sich gegen die Masse long – und vice versa.

Damit war die technische Analyse der Finanzmärkte geboren. Die Analysemethoden wurden über Generationen hinweg verfeinert und wohl im Jahr 1868 wurden die Candlesticks in der Form, wie wir sie heute kennen, erstmals angewendet.

Damals gab es keinen Taschenrechner, geschweige denn Computer, um Indikatoren oder Oszillatoren berechnen zu lassen. Es wurden die Candlestick-Formationen mit dem dazugehörigen Volumen analysiert, um zukünftige Preisbewegungen zu antizipieren.

Reisen wir – von Japan aus gesehen – in den Osten, und zwar nach Chicago:

CBOT – Chicago Board of Trade

In Chicago wurde 1848 die CBOT, Chicago Board of Trade, gegründet. An dieser Warenterminbörse startete der organisierte Handel mit landwirtschaftlichen Futures-Kontrakten. Die CBOT wurde nicht gegründet, um den »Zehnten« zu handeln. Sinn und Zweck der Börse war es, den Handel mit landwirtschaftlichen Produkten, wie zum Beispiel Weizen, in geregelte Bahnen zu lenken und den Marktteilnehmern – den Landwirten auf der einen Seite und den großen Verbrauchern auf der anderen Seite – die Absicherung ihrer Handelspositionen zu ermöglichen.

Stellen Sie sich einfach vor, dass im Herbst zur Erntezeit der Markt geradezu mit Weizen überflutet wird. Ein Überangebot eines Produktes bewirkt, dass die Preise in den Keller rauschen. Die Landwirte bekommen fast nichts mehr für ihre Ware. Es ist sogar billiger, die Ernte zu vernichten, als sie einzubringen. Im Frühjahr aber, wenn die großen Verbraucher, wie zum Beispiel Mühlen, ihren Vorrat aufgebraucht haben, explodiert der Preis geradezu, weil das Angebot extrem knapp ist.

Vereinfacht erklärt: Der Landwirt hat jetzt die Möglichkeit, eine bestimmte Menge Weizen zu einem festgelegten Termin in der Zukunft zu einem im Voraus festgelegten Preis zu verkaufen. Er hat Planungssicherheit über seine Einkünfte. Und der Großverbraucher kann seinen physischen Bedarf genau planen und hat bezüglich der Kosten für seine Kalkulation ebenfalls Planungssicherheit. So ein Termingeschäft ist für beide Seiten verpflichtend und die Börse übernimmt die Aufgabe des Marktplatzes, auf dem Angebot und Nachfrage zusammengeführt werden. Der organisierte Handel mit Terminkontrakten macht eine Standardisierung hinsichtlich Basiswert, Menge, Qualität und Liefertermin, den sogenannten Kontraktspezifikationen, erforderlich.

Was hat das mit Patterns zu tun?

Nun, in Japan wurden mit dem Handel an einer geregelten Börse die Candlesticks entwickelt und in den USA die sogenannte »Buchmethode«, die 1901 erstmalig von Charles Henry Dow im Wall Street Journal vorgestellt wurde. Zu diesem Zeitpunkt wurde sie aber schon seit über 20 Jahren verwendet. Aus der Buchmethode haben sich in der Folge die Point & Figure-Charts entwickelt. Da es Ende des 19. Jahrhunderts noch keine Computer gab, die Indikatoren oder Oszillatoren hätten berechnen können, wurden sie noch von Hand mit Bleistift auf Papier gezeichnet. Trotzdem wurde der Markt anhand sich ergebender Muster analysiert, um zukünftige Preisbewegungen zu antizipieren.

Charles Henry Dow

Auf der Zeitlinie der technischen Analyse sind wir jetzt bei Charles Henry Dow (1851–1902) angelangt, dem Sohn eines Landwirts aus Massachusetts und Begründer der technischen Analyse der westlichen Welt. Seine Aufsätze, die er als Herausgeber des Wall Street Journal zum Thema technische Analyse veröffentlicht hat, haben seine geistigen Erben als »Dow-Theorie« bezeichnet. Und die Dow-Theorie ist heute noch das Maß aller Dinge in der technischen Analyse. Mehr zur Dow-Theorie finden Sie im Anhang I (ab Seite 205).

William Delbert Gann

In diese Zeit gehört auch William Delbert Gann (1878–1955), Sohn eines Baumwollfarmers aus Texas. Er wurde zur Börsenlegende, als er 1912 für den Ticker and Investment Digest ein einwöchiges Live-Trading veranstaltete und in dieser Woche von 242 Aktientrades 228 mit Gewinn abschloss. Das eingesetzte Kapital hat er in dieser Woche verzehnfacht – alles unter Aufsicht und nur unter Zuhilfenahme eines Börsentickers und eines Bleistifts.

Gann war ein großer Geheimniskrämer und es gibt von ihm keine Aufzeichnungen seiner Methoden oder seiner Strategien. Alles, was Sie heute über das Gann-Trading und die Gann-Techniken lesen, ist – sagen wir – rekonstruiert.

Ticker Tape (= Börsenticker): Dieses wurde 1867 von Edward A. Calahan (1838-1912) erfunden. Calahan hat die Schule mit 11 Jahren verlassen und begann bei Western Union in Manhatten zu arbeiten. Damals wurden die Aktienkurse auf Zettel geschrieben und diese wurden von Boten (= runners) von der Börse zum Broker gebracht. Calahan realisierte, dass die Aktienkurse mit einem Fernschreiber viel schneller und effizienter versendet werden konnten. So erfand er den Börsenticker. Aus dieser Zeit stammen auch die »ticker symbols« für die US-Aktien, also zum Beispiel AAPL für Apple oder JPM für JPMorgan Chase. Auf dem Papierstreifen des Fernschreibers wurde dann das Tickersymbol, gefolgt von Preis und Umsatz, übermittelt. Für diese Erfindung wurde Calahan 2006 in die National Inventors Hall of Fame aufgenommen.

Heute nehmen wir unser Smartphone in die Hand, öffnen die entsprechende App – und bekommen die aktuellen Aktienkurse – die moderne Variante des Börsentickers.

Jesse Lauriston Livermore

Jesse Lauriston Livermore (1877–1940) gilt als einer der erfolgreichsten Trader aller Zeiten. Der Farmerssohn aus Massachusetts hat mehrere Vermögen gemacht – und auch wieder verloren. Als er 1940 durch Suizid aus dem Leben schied, hat er seiner Frau allerdings ein Millionenvermögen hinterlassen.

Livermore vermachte uns ein wichtiges Konzept: Ein Trade wird mit einer kleinen Positionsgröße eröffnet, und wenn er im Gewinn ist, wird aufgestockt. Verlustpositionen werden hingegen schnell zugemacht. Das führt zu großen Gewinnen und kleinen Verlusten. Ironischerweise hat Livermore sich selbst nicht konsequent an seine eigenen Regeln gehalten – und große Verluste bis hin zur Pleite gemacht.

Elliott-Wave-Principle

Kommen wir zu dem Mann, der das Elliott-Wave-Principle entwickelte, zu Ralph Nelson Elliott.

R. N. Elliott (1871–1948) war als Buchhalter für Eisenbahngesellschaften in Mittelamerika und Mexiko tätig. Nach einer schweren Erkrankung ging er 1929 mit 58 Jahren in Frührente. Seine Krankheit fesselte ihn ans Haus und er beschloss, sich mit dem amerikanischen Aktienmarkt zu beschäftigen. Er studierte Charts von Aktien und auch Indizes – die hatte Dow ja 1884 entwickelt –, und zwar vom Jahreschart bis hinunter zum 30-Minunten-Chart. Darin entdeckte er regelmäßig wiederkehrende Muster – 5-teilige Impulse und 3-teilige Korrekturen –, die in unterschiedlichen Zeithorizonten zu finden waren. Erst 1975 hat der Mathematiker Benoît Mandelbrot für solche selbstähnlichen Strukturen den Begriff »Fraktal« geprägt.

Zurück zu Elliott: Er nahm 1934 Briefkontakt mit Charles J. Collins auf, dem Herausgeber eines wöchentlichen Börsenbriefs. Nachdem Elliott ein Korrekturtief des Dow Jones 1935 fast auf den Tag genau und auch punktgenau prognostizierte, kam es zum persönlichen Kontakt der beiden. Collins ließ sich von Elliott seine Theorie erklären und hat diese dann niedergeschrieben. 1938 erschien sein Buch The Wave Principle. 1946 folgte Nature’s Law – The Secret of the Universe, in dem er seine Wellentheorie mit den Fibonacci-Zahlen und Fibonacci-Ratios verknüpfte.

Elliott hat letztendlich die Dow-Theorie weiterentwickelt – ohne Taschenrechner und Computer. Er hat nicht getradet und war beratend tätig.

Mehr zum Elliott Wave Principle finden Sie im Anhang III (ab Seite 265).

Ichimoku Kinko Hyo

Goichi Hosoda (1898–1982) hat in Japan in den 1930er-Jahren seine Indikatorentechnik »Ichimoku Kinko Hyo1« entwickelt.

Als Erster überhaupt verwendete er mathematische Ableitungen vom Preis – nichts anderes sind Indikatoren; wobei Ichimoku aus der Indikatorentechnik, einer Wellentheorie, einer Zeittheorie und der Kurszielbestimmung besteht.

Ein Tross Helfer musste Goichi Hosoda bei der Berechnung der fünf Linien mit Papier und Bleistift unterstützen, bis er die Standardeinstellungen für die Indikatoren gefunden hatte. Bei Ichimoku werden nur Mittelwerte verwendet, es sind also keine komplizierten Berechnungen erforderlich. Ichimoku Kinko Hyo ist heute noch in japanischen Handelsräumen sehr populär und hat auch in der westlichen Welt viele Anhänger gefunden.

Harold M. Gartley

Harold M. Gartley (1899–1972) – der Namensgeber des Gartley Patterns – wurde in Newark im US-Bundesstaat New Jersey geboren. Er machte seinen Bachelor-Abschluss in Commercial Science und seinen Master in Business Administration an der New York University. An der Wall Street lernte er das Börsengeschäft von der Pike auf, er war unter anderem Händler, Analyst und Ausbilder. 1935 veröffentlichte er seine Lehrgangsunterlagen als eine Art Ringbuch mit dem Titel »Profits in the Stock Market« – das Exemplar für 1.500 US-Dollar. Das entsprach zur damaligen Zeit immerhin drei Autos der Marke Ford! Die Käufer bekamen dafür umfangreiches Lernmaterial über Trends, die Dow-Theorie, Dreiecke, Gleitende Durchschnitte und Kurslücken (Gaps) – und über Muster (Patterns).

Zweite Zeitreihe: Informationstechnologie

Starten wir jetzt die zweite Zeitreihe, und zwar geht es nun um die Entwicklung der Informationstechnologie … nicht in epischer Tiefe, sondern nur die wichtigsten Meilensteine.

Irgendwann haben die Menschen begonnen zu zählen. Sie haben Zahlen entwickelt und damit gerechnet. Die Zahl, die »Nichts« repräsentiert, ist keine Erfindung der Neuzeit, sondern es gab bereits in Babylon eine Vorstufe zur Null. Die Null, wie wir sie kennen, stammt ebenso wie das Dezimalsystem aus Indien. Der erste gesicherte Nachweis der Zahl Null stammt aus dem Jahr 786. Dieses mathematische »Nichts« ist wichtig, denn ohne die Null ist keine höhere Mathematik möglich.

Die römischen Ziffern kennen keine Null. Es ist ein einfaches Additionssystem, bei dem sich der Wert einer Zahl durch Addieren der Werte ihrer Ziffern errechnet. Ein Beispiel: MMXVII = 1000 + 1000 + 10 + 5 + 1 + 1 = 2017. Das Jahr, in dem wir uns aktuell befinden.

Leonardo da Pisa

Im Jahr 476 ging zwar das Römische Reich im Westen unter, es wurde aber mangels einer Alternative in Europa weiterhin mit römischen Ziffern gerechnet. Die Alternative wurde im Jahr 1202 von Leonardo da Pisa (~1170–~1240), genannt Fibonacci, präsentiert. Er hat 1202 in seinem Buch Liber Abaci das Rechnen mit den indisch-arabischen Ziffern – 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 – vorgestellt und damit den Grundstein für die Ablösung der römischen Ziffern gelegt.

Mit den Ziffern 0 bis 9 wurde auch ein Stellenwertsystem eingeführt. Das heißt, dass nicht nur der Wert der Ziffer zählt, sondern auch ihre Position. Einfaches Beispiel: Die Ziffern 1 und 4 können als 14 oder als 41 zusammengesetzt werden. Je nachdem, welche Ziffer an welcher Position steht, sind Sie Teenager oder schon im besten Alter angekommen.

Die Änderung des Zahlensystems ging nicht von heute auf morgen vonstatten, sondern dauerte ein paar Jahrhunderte. Der deutsche Rechenmeister Adam Ries (~1492–1559) – genau der »nach Adam Riese« – hat entscheidend dazu beigetragen, dass die römischen durch die indisch-arabischen Zahlen ersetzt wurden.

Mehr zu Fibonacci, den Fibonacci-Zahlen und den Fibonacci-Ratios finden Sie in Anhang II ab Seite 231. Denn insbesondere die Fibonacci-Ratios sind wichtig bei der Identifikation der Patterns.

Gottfried Wilhelm Leibniz

Einen wichtigen Schritt in Richtung Informationstechnologie machte der deutsche Universalgelehrte Gottfried Wilhelm Leibniz (1646–1716). Er vollendete 1672/73 die Arbeiten an seiner Rechenmaschine mit Staffelwalze für die vier Grundrechenarten und – noch wichtiger! – er entwickelte das duale Stellenwertsystem mit der Basis 2 und den Ziffern 0 und 1. Diese binäre Logik ist nicht weniger als die Basis der elektronischen Datenverarbeitung.

Was glauben Sie, wieso Leibniz dieses duale Stellenwertsystem entwickelt hat? Für den tiefreligiösen Leibniz galt die Devise: »Ohne Gott ist nichts.« Philosophisch betrachtet gab es für ihn damit nur zwei Zustände: Mit Gott die Eins und für den Rest, das Nichts, die Null.

Die Rechenmaschinen wurden weiterentwickelt und um 1820 herum wurde das Relais entwickelt. Ein durch elektrischen Strom betriebener Schalter mit zwei Schaltstellungen, an/offen oder auch aus/geschlossen.

Gottfried Wilhelm Leibniz ist übrigens der Namensgeber für den »Keks mit 52 Zähnen«, dieser wurde 1891 auf den Markt gebracht.

Hermann Hollerith

Der US-Amerikaner Hermann Hollerith (1860–1929), Sohn deutscher Einwanderer, hat zwei technische Errungenschaften der damaligen Zeit kombiniert: Der französischer Mechaniker Joseph-Marie Jacquard (1785–1834) hatte die Idee, Webstühle mit Endlos-Lochkarten zu steuern. Und die Eisenbahnschaffner lochten die Fahrkarten an bestimmten Stellen, um Merkmale der Passagiere wie Alter, Geschlecht oder Hautfarbe zu codieren, sodass ein Ticket nicht von mehreren Personen genutzt werden konnte.

Mit diesen beiden Grundideen konstruierte Hollerith ein System zur Erfassung von Daten auf Lochkarten, das er 1889 zum Patent anmeldete. Bereits ein Jahr später, 1890, wurde sein System bei der US-amerikanischen Volkszählung verwendet.

1896 gründete Hollerith die Tabulating Machine Company, die er 1911 verkaufte. Die Tabulating Machine Company fusionierte mit der Computing Scale Corporation und der International Time Recording Company zur Tabulating Recording Corporation (C-T-R). Diese wurde 1924 in International Business Machines Corporation (IBM) umbenannt.

IBM hatte damals ein weltweites Monopol bei Lochkartenmaschinen und der Auswertung der damit erfassten Daten.

Computer der Generation 0

Bereits 1935 war IBM mit der Lochkartenmaschine IBM 601 am Start, jedoch wurde an der Erfassung und Auswertung von großen Datenmengen nicht allein in den Vereinigten Staaten gearbeitet.

Der Berliner Konrad Zuse (1910–1995), Ingenieur und Unternehmer, baute zwischen 1934 und 1938 den ersten »Computer« (Z 1): eine programmgesteuerte Rechenanlage auf mechanischer Basis, die mit dem binären Zahlensystem arbeitete und so groß wie ein Zimmer war. Im weiterentwickelten Z 3 von 1941 waren bereits Relais am Werk.

Computer der ersten Generation

Ab Ende der 1940er-Jahre wurden die Relais durch Elektronenröhren ersetzt. Diese Röhren-Rechner werden als Computer der ersten Generation bezeichnet; sie wurden bis in die 1960er-Jahre gebaut.

1961 kam der erste elektronische Tischrechner auf Basis von Elektronenröhren auf den Markt. Er hieß »ANITA Mk VII«, beherrschte die vier Grundrechenarten und wurde von der englischen Bell Punch Company angeboten.

Computer der zweiten Generation

In Computern der zweiten Generation wurden ab 1954 Transistoren verbaut. Der erste funktionierende Bipolartransistor wurde in den Bell Laboratories 1947 vorgestellt. Für die Erfindung bekamen die Physiker Bardeen, Shockley und Brattain, Mitarbeiter der Bell Labs, 1956 den Nobelpreis für Physik.

Der erste elektronische Tischrechner mit Transistoren wurde 1963 von der italienischen Firma Industria Macchine Elettroniche verkauft. Der »IME 84« brachte immer noch stolze 25 Kilogramm auf die Waage.

Computer der dritten Generation

Zunächst war eine Erfindung nötig, bevor ab 1961 die nächste Generation Computer gebaut werden konnte: der Mikrochip. Er wurde von zwei US-Amerikanern unabhängig voneinander erfunden: Jack Kilby (1923–2005), damals Mitarbeiter von Texas Instruments, entwickelte 1958 eine funktionierende Schaltung auf einem Halbleiter. Im Februar 1959 wurde dafür das Patent eingereicht. Der zweite Erfinder war Robert Norton Noyce (1927–1990), seinerzeit Mitarbeiter bei Fairchild Semiconductors. Er fertigte einen monolithisch integrierten Schaltkreis (Integrated Circuit =IC), dessen Entwicklung im Juli 1959 zum Patent angemeldet wurde.

Die beiden beteiligten Firmen, Texas Instruments und Fairchild Semiconductors, stritten erbittert um die Patente und die damit verbundene Ehre, als Erfinder des Mikrochips in die Annalen einzugehen. Nach zehn Jahren entschied das amerikanische Patentgericht zugunsten von Noyce, dessen Fertigungsverfahren dem von Kilby deutlich überlegen war.

Die beiden Erfinder hatten dagegen weniger Probleme im gegenseitigen Umgang: Sie einigten sich auf den Sprachgebrauch, dass Kilby die grundlegende Struktur und Noyce das Herstellungsverfahren des Mikrochips erfunden hat.

Für diese Erfindung, die Basis der heutigen Elektronik, wurde Kilby im Jahr 2000 der Nobelpreis für Physik verliehen (Noyce war bereits verstorben).

1968 verließ Noyce Fairchild Semiconductors und gründete zusammen mit Gordon E. Moore die Intel Corporation. Gordon E. Moore postulierte unter anderem das Moore’sche Gesetz, welches besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12 bis 24 Monate als Zeitraum genannt. Im Kern besagt es, dass sich die Integrationsdichte in Chips alle 1,5 bis zwei Jahre verdoppelt. In den Medien ist bis heute meist von einer Verdoppelung der Integrationsdichte alle 18 Monate die Rede.

Insbesondere die Rüstungsindustrie und die Raumfahrt waren die ersten Hauptabnehmer für integrierte Schaltkreise. Sie wurden als Embedded Systems 1963 bei den von Boeing gefertigten US-Interkontinentalraketen vom Typ »Minuteman« und 1966 von der NASA im Apollo-Flugcomputer eingesetzt, der von der Firma Raytheon beigesteuert wurde.

Apollo 11

Am 21. Juli 1969 betrat der erste Mensch den Mond. Die NASA hatte bei dieser Mission fünf Rechner vom Typ IBM S/360 im Einsatz. Zum Vergleich: Ein heutiges Smartphone ist um ein Vielfaches leistungsfähiger als die Computer, die Apollo 11 zum Mond und wieder zurückgebracht haben!

Computer der vierten Generation

Computer der vierten Generation qualifizieren sich dadurch, dass in ihnen hoch und sehr hoch integrierte Schaltkreise (IC) bei der Herstellung der Prozessoren verbaut werden.

Anfangs wurde die kommerzielle Bedeutung der ICs unterschätzt. Aber nicht nur das. Das Potenzial des Computers wurde verkannt, insbesondere für den Heimcomputer. Es wurden Großrechenanlagen entwickelt (Mainframes) und die Mitarbeiter bekamen einfache Terminals auf den Schreibtisch ins Büro gestellt.

Von Thomas Watson, Chairman von IBM, stammt der legendäre Satz aus dem Jahr 1943: »Ich denke, dass es weltweit einen Markt für vielleicht fünf Computer gibt.« Und dann verhalf ausgerechnet IBM dem PC, wie wir ihn heute kennen, zum Durchbruch und machte ihn zum Massenprodukt.

In der Folgezeit hat sich viel getan bis zum ersten PC. Firmen wie Intel, Apple und Microsoft wurden gegründet und machten bahnbrechende Entwicklungen.

In den 1980er-Jahren wurden die ersten PCs auf den Markt gebracht, von Xerox, Atari, Commodore und Apple. Aber sie schafften es nicht, den Markt zu erobern. Erst als IBM 1981 den ersten Personal Computer auf den Markt bringt, bekommt die Branche Flügel. Und seither boomt auch die Entwicklung von Indikatoren und Oszillatoren.

Computer der fünften Generation

Das Zauberwort bei dieser Computergeneration ist künstliche Intelligenz = KI oder auch Artificial Intelligence (engl.) = AI. Zwar ist der Begriff »Intelligenz« nicht genau definiert, aber mit KI ist gemeint, dass intelligentes Verhalten automatisiert werden soll.

Praktische Anwendungen, die beim Erforschen der KI Einzug in unser tägliches Leben gefunden haben, sind unter anderem Internet-Suchmaschinen, Übersetzungsprogramme (z. B. Google Übersetzer), Handschriftenerkennung (bei PDAs, Smartphones oder Tablets), Spracherkennung (z. B. Siri, Google Now, Cortana oder Amazon Echo), selbstfahrende Autos oder wissensbasierte Systeme (z. B. Watson oder Siri, Google Now, Cortana oder Amazon Echo).

Um zurück zur technischen Analyse zu kommen: Es gibt auch Analyse- und Prognosesysteme für Kursentwicklungen, die auf KI basieren und durch künstliche neuronale Netze unterstützt werden. Neuronale Netze sind selbstlernende Systeme.

image

Abbildung 1: Meilensteine der beiden Zeitreihen

1Ichimoku Trading von Karin Roller, erschienen im FinanzBuch Verlag

PATTERN-EINTEILUNG

Die technische Analyse der westlichen Welt ist ungefähr 120 Jahre alt. Glaubwürdige Unternehmensbilanzen als Basis der fundamentalen Analyse wurden erst ab den 1940er-Jahren entwickelt. Auch wenn die technische Analyse älter ist, gilt die fundamentale Analyse als »zuverlässiger« und ist weiter verbreitet – obwohl wir alle wissen, dass kreative Buchhalter Bilanzen nicht nur »aufhübschen«, sondern mit der entsprechenden kriminellen Energie auch massiv fälschen können und auch gefälscht haben.

Ein Chart hingegen drückt glasklar die Marktmeinung der diesen Wert handelnden Personen aus. Wichtig ist aber, dass es genügend Marktteilnehmer gibt, denn sie hinterlassen mit jedem ausgeführten Trade ihre Spuren im Chart. Und ein guter Fährtenleser kann aus diesen Spuren jede Menge an Informationen herauslesen.

Viele Trader glauben nun, dass ein Chart, vollgepackt mit mathematischen Ableitungen vom Preis (= Indikatoren und Oszillatoren), uns treffsicher durch den sprichwörtlichen Dschungel leitet und uns genaue Anweisungen geben kann: da long und dort short, hier die Position absichern und dort die Gewinne mitnehmen. Die Anweisungen bekommen wir – allerdings lässt das Ergebnis oft genug zu wünschen übrig: Dauerhaft verdienen die wenigsten Trader ihr Geld mit automatischen Handelssystemen.

Patterns – das sind regelmäßig wiederkehrende Muster im Chart. Ein Dreieck, eine Flagge, ein Doppelter Boden, ein Gartley Pattern oder ein Dead Cat Bounce. Jedes dieser Muster spiegelt die Absichten und die Verfassung der Marktteilnehmer wider. In welche Richtung der Markt getrieben werden soll, ob nur ein paar kleine Privatanleger handeln oder Profis von den Banken. Vielleicht wird auch nur auf die anstehende Zinsentscheidung gewartet oder der große Verfallstag wirft seine Schatten voraus.

Nehmen wir als Beispiel die Aktie der Audi AG. Es gibt insgesamt 43.000.000 Aktien (Angabe im Geschäftsbericht 2014). Die Volkswagen AG hält 99,55 % der Audi AG Aktien, also 42.807.797 Stück. Die ausstehenden 0,45 % = 192.203 der Aktien befinden sich im Streubesitz. Von diesen werden höchstens ein paar Dutzend am Tag gehandelt. Das sind viel zu wenige Marktteilnehmer, als dass da eine Meinung über die Entwicklung der Audi AG kundgetan wird. Der eine verkauft zum Beispiel, weil er Geld für ein Geburtstagsgeschenk braucht, der andere kauft vielleicht mit dem Audi-Automobil gleich eine Audi-Aktie dazu.

Anders verhält es sich zum Beispiel bei der Daimler AG. Hier werden mehrere Millionen Stück am Tag gehandelt und damit wird die Marktmeinung vieler Marktteilnehmer kundgetan, denn sie schlägt sich im Chart nieder.

Tauchen wir wieder in die Vergangenheit ein und machen eine Zeitreise zurück zum Anfang des 20. Jahrhunderts. Computer, wie wir sie heute kennen, gab es noch nicht, daher wurden Liniencharts und Point & Figure-Charts von Hand gezeichnet. Technische Analyse bestand im Wesentlichen darin, wiederkehrende Muster zu analysieren, zu beschreiben und dann zu identifizieren.

Patterns lassen sich unter anderem einteilen in:

imageStandard-Patterns und in

imageharmonische Patterns oder auch Advanced Patterns.

Bereits in den 1920er-Jahren wurden folgende Standard-Patterns beschrieben:

imagedie Kopf-Schulter- und inverse Kopf-Schulter-Formationen

imagedie Untertassen und inverse Untertassen

imagedas symmetrische Dreieck als Top- und als Bodenformation

imageDreiecke

imageder Doppelboden und das Doppeltop

imageder komplexe Boden (multiple Kopf-Schulter)

imagedas broadening Top oder Bottom oder auch umgekehrte Dreieck

Auch Gaps waren schon beschrieben, was insofern nicht verwundert, da die Märkte damals nicht rund um die Uhr gehandelt wurden, sondern in festen Handelszeiten tagsüber mit einer großen Pause über Nacht. Ausbruchslücken (Breakaway Gap) und Erschöpfungslücken (Exhaustion Gap) deuten auf eine Trendumkehr hin. Fortsetzungslücken (Continuation Gap) und das common gap auf eine Fortsetzung des Trends.

Im Gegensatz zu den Standard-Patterns werden bei den harmonischen Mustern, wie zum Beispiel dem Gartley, Fibonacci-Ratios verwendet.

Sowohl die Standard-Patterns, als auch die harmonischen Patterns können weiter in

imageUmkehrformationen oder auch Reversal Patterns und

imageFortsetzungsformationen oder auch Continuation Patterns

unterteilt werden.

Harmonische Patterns

Unter harmonischen Patterns versteht man Chartmuster, die mithilfe von Fibonacci-Ratios definiert werden. Diese Muster werden in der Regel aus fünf Punkten und vier Segmenten gebildet. Sie tragen Namen wie »Gartley«, »Bat«, »Butterfly«, »Crab« oder auch »Shark«. Die einzelnen Patterns unterscheiden sich darin, an welchen Fibonacci-Ratios eine Umkehr ausgebildet wird und bis zu welchem Fibonacci-Ratio eine Bewegung läuft … nein … Sie müssen sich jetzt nicht sofort die spezifischen Fibonacci-Ratios merken, die ein bestimmtes Pattern beschreiben. In diesem Punkt werden wir Sie mit einer speziellen Erkennungsmatrix und mit aussagekräftigen Grafiken unterstützen.

Wieso harmonische Patterns handeln?

Die Frage, die Sie sich natürlich zu Recht stellen, lautet: Wieso soll ich ausgerechnet harmonische Patterns handeln? Jeder Trading-Autor schreibt doch in seinem Buch: Das ist der Heilige Gral, mit dieser Methode werden Sie nur noch Gewinne einfahren. Morgen sind Sie reich!

Nein – mit Pattern-Trading sind Sie morgen nicht reich! Und auch beim Pattern-Trading gibt es Verlusttrades. Aber Sie können Ihr Strategie-Portfolio um einige profitable Strategien erweitern.

Mit Pattern-Trading kombinieren Sie einige sehr mächtige und effektive Tools der technischen Analyse:

imageDow-Theorie/Markttechnik

imageUnterstützung und Widerstand

imageFibonacci

Beim Pattern-Trading wird ausschließlich die Preisbewegung analysiert. Sie machen sich damit unabhängig vom Interpretationsspielraum der Indikatoren und/ oder Oszillatoren. Auf mathematische Ableitungen vom Preis – Indikatoren sind nichts anderes – wird also verzichtet. Zumal fast alle Indikatoren lagging, also nachlaufend sind und ihre Signale mit einer zum Teil erheblichen zeitlichen Verzögerung ausbilden.

Aber nicht nur die Wahl der verwendeten Methoden ist ein Argument für das Pattern-Trading, sondern:

imageJeder Trade wird in Ruhe im Voraus vorbereitet und geplant. Wir nennen das Schema F, denn beim Trading mit harmonischen Patterns folgen wir immer demselben Prinzip: Identifizieren, Prognostizieren, Entscheiden und Ausführen.

imageEs wird nicht »einfach so« in den Markt gesprungen!

imageSet and forget – will heißen: Vorab werden mögliche Einstiege, Stops und Take Profits definiert. Die Order wird entsprechend den Regeln aufgegeben – und vergessen.

imageIn Abhängigkeit der Kontogröße und des persönlichen Risk- und Money-managements wird vorab die Positionsgröße ermittelt, bei der Sie noch gut schlafen können und Ihr Konto bei einem Verlusttrade nicht ausradiert ist.

imageNach Eröffnen der Position folgt das Trade-Management. Da in der Regel in höheren Zeitebenen gehandelt wird, artet das nicht in Stress aus.

imageDa bereits vor dem Einstieg der Stop und der Take Profit festgelegt werden, kann das CRV (= Chance-Risiko-Verhältnis) berechnet werden und Sie wissen bereits vorab, ob sich dieser Trade lohnt oder ob Sie besser auf die nächste Gelegenheit warten.

imageDer Einstieg erfolgt in der Regel früh, der Stop liegt oft auch sehr dicht am Einstieg und ist »billig«.

imagePattern-Trading ist geradezu prädestiniert für höhere Zeitebenen wie H4 (4-Stunden-Chart) und Daily. Damit ist es eine Methode, die auch berufstätige Trader verwenden können. Pattern-Trading in höheren Zeitebenen ist auf jeden Fall wesentlich entspannter und weniger zeitaufwendig als Scalpen!

image