Verlustfreie Datenkomprimierungsalgorithmen: Was sie über Märkte sagen

Ursprünglicher Autor: Stuart Reid
  • Übersetzung


In unserem Blog über Habré betrachten wir nicht nur verschiedene Technologien des Finanzmarktes, sondern beschreiben auch verschiedene Tools, die Analysten im Verlauf ihrer Analyse verwenden. Insbesondere haben wir vor nicht allzu langer Zeit darüber geschrieben, wie die Random-Walk-Hypothese verwendet werden kann , um den Zustand des Finanzmarkts vorherzusagen. Stuart Reed, ein quantitativer Analyst beim NMRQL-Hedgefonds, veröffentlichte die Ergebnisse seiner Forschung auf der Turing Finance-Website, auf der er diese Hypothese anwendete, um die Zufälligkeit des Marktverhaltens zu testen.

Die Idee war folgende: Zufallszahlengeneratoren „durchlaufen“ die NIST-Testgruppe, um zu verstehen, wo eine Sicherheitsanfälligkeit auftritt, die es ermöglicht, Marktineffizienzen für Gewinn auszunutzen. Während des Experiments kam der Autor zu dem Schluss, dass das Marktverhalten nicht durch einfaches Umwerfen einer Münze beschrieben werden kann, wie einige angesehene Wissenschaftler glauben. Einige Tests haben es geschafft, ein bestimmtes Maß an „Lärm“ im Verhalten des Marktes zu beheben. Einer von ihnen - der lineare Komplexitätstest - erregte die Aufmerksamkeit des Autors, weil er an die Idee einer Beziehung zwischen Zufälligkeit und Kompressionsverhältnis erinnert.

In einem neuen Artikel versuchte Reid herauszufinden, welche Vorteile Datenkomprimierungsalgorithmen für eine zuvor gestellte Aufgabe bringen können. Wir präsentieren Ihnen eine angepasste Übersetzung dieser Arbeit.

Marktleistung und Random-Walk-Hypothese


In ihrem extremen Ausdruck besagt die Markteffizienzhypothese, dass alle Informationen, ob öffentlich oder für Privatpersonen verfügbar, sofort und genau im Wert des Preises berücksichtigt werden. Daher sollte jede Preisprognose für morgen auf der aktuellen Marktlage basieren, da die aktuellen Kurse den aktuellen Stand der Dinge korrekt und ziemlich vollständig widerspiegeln.

Nach dieser Theorie wird keine detaillierte wirtschaftliche oder fundamentale Analyse der Vergangenheit eine genauere Prognose für die Zukunft liefern. Auf dem effizienten Markt in Bezug auf Vollständigkeit und ausreichende Informationen ist die Zukunft nicht definiert, da sie von unbekannten Daten abhängt, die „morgen“ erscheinen werden. Basierend auf der Position des heutigen Beobachters sind zukünftige Änderungen zufällig. Nur Analysten, die wissen, wie man in der Zeit reist, können den Markt „hacken“.

Diese Hypothese hat ihre Vorzüge, auch wenn wir ein komplexeres Verständnis der Situation, des Einflusses von Evolutions- und Verhaltensfaktoren befürworten. Die Vorzüge dieser Theorie sind unbestreitbar. Erstens ist es wirklich schwierig, das Marktverhalten vorherzusagen. Zweitens gibt es wirklich keine Abfolge von Aktionen, mit denen der durchschnittliche Spieler den Markt knacken kann. Drittens erklärt die Effizienzhypothese ganz logisch das Auftreten von Finanzinnovationen wie beispielsweise Derivaten.

Die schwerwiegendste Kritik an der Effizienzhypothese stammt aus der Verhaltensfinanzanalyse, die Zweifel an ihren grundlegenden Postulaten aufkommen lässt. Im Rahmen dieses Ansatzes wird argumentiert, dass sich Anleger nicht rational verhalten und Aktien keinen „fairen“ Preis geben können. In der Praxis haben die Spieler keine gemeinsamen Erwartungen an den Preis.

Die Evolutionstheorie der Marktentwicklung ergänzt dies um einige weitere Argumente. Sie glaubt, dass das System aus unterschiedlichen Agenten besteht, die unter Berücksichtigung der Evolutionsgesetze miteinander interagieren. In dieser Interaktion treten Zufälligkeit, Dynamik, Wert und Vermögensumschlag (Umkehrung) in den Vordergrund. Keines dieser Bewertungskriterien hat Vorrang vor dem Rest. Ihre Auswirkungen auf die Marktbedingungen ändern sich, wenn sich die Spieler an ihre Auswirkungen anpassen. Die Effizienzhypothese nennt solche Dinge Marktanomalien, was nicht ganz richtig ist. Ihr Erscheinungsbild ist ziemlich vorhersehbar und die Auswirkungen auf den Markt können quantifiziert werden.

Als Reaktion auf Kritik haben Befürworter der Markteffizienz zwei neue Hypothesen entwickelt. Man behauptet, dass nur öffentliche Informationen in Anführungszeichen wiedergegeben werden. Ein anderer geht so weit, die Auswirkung historischer Daten auf die aktuellen Aktienkurse zu erkennen. Die Hauptposition bleibt jedoch dieselbe: Die Preisbewegung folgt der Verteilung der Markov-Kette, Random Walk.

Es stellt sich heraus, dass wir die Random-Walk-Hypothese duplizieren, die fast allen modernen Preismodellen zugrunde liegt. Akademiker und Marktpraktiker beschäftigen sich jahrzehntelang mit der relativen Effektivität und Zufälligkeit von Märkten. In einem früheren Artikel stellte Stuart Reed einen der Tests zur Überprüfung der Zufälligkeit vor - den inhomogenen Dispersionsrelationstest von Lo und McKinley. Dieses Mal konzentrieren wir uns unter anderem auf den Lempel-Ziv-Komprimierungsalgorithmus.

Algorithmische Informationstheorie und Zufälligkeit


Für die quantitative Analyse ist die Untersuchung der Zufälligkeit nicht neu. Kryptographie, Quantenmechanik und Genetik machen das schon lange. Es überrascht nicht, dass einige Ideen und Ansätze aus diesen Wissenschaften übernommen wurden. Zum Beispiel haben Ökonomen aus der algorithmischen Informationstheorie die Idee übernommen, dass eine zufällige Sequenz inkompressibel ist. Versuchen wir zunächst, den Kontext dieses interessanten Gedankens zu ermitteln.

In den 1930er Jahren führte Alan Turing ein abstraktes Rechenmodell ein, das er als automatische Maschine bezeichnete. Heute ist es als Turingmaschine bekannt. In dieser Hinsicht interessiert uns nur die folgende Aussage: "Es spielt keine Rolle, welche Berechnungsalgorithmen festgelegt sind, die Maschine muss die Logik des Algorithmus selbst imitieren."



Turing Maschinenmodell

In seiner vereinfachten Form ist der Algorithmus eine deterministische Folge von Schritten zum Transformieren eines Satzes von Eingabedaten in einen Satz von Ausgaben. Es ist einfach, einen solchen Algorithmus für eine Folge von Fibonacci-Zahlen zu konstruieren: Die nächste Zahl ist die Summe der beiden vorherigen. Laut einem anderen großen Mathematiker, Andrei Kolmogorov, kann die Komplexität einer Sequenz anhand der Länge des kürzesten Rechenprogramms gemessen werden, das diese Sequenz als Ausgabe generiert. Wenn dieses Programm kürzer als die ursprüngliche Sequenz ist, haben wir die Sequenz komprimiert, dh codiert.

Was passiert, wenn wir eine zufällige Sequenz S in eine Turing-Maschine einfügen? Wenn die Verteilung der Daten keine Logik enthält, muss die Maschine nichts simulieren. Die einzige Möglichkeit, eine zufällige Sequenz zu erhalten, ist das Drucken S. Dieses Programm ist jedoch länger als eine zufällige Sequenz S. Daher ist seine Komplexität per Definition höher. Das meinen sie, wenn sie sagen, dass eine zufällige Sequenz inkompressibel ist. Eine andere Frage: Wie können wir bestätigen, dass das gefundene Programm das kürzestmögliche ist? Um zu diesem Schluss zu kommen, sollten wir eine unendliche Anzahl von Kombinationen aussortieren.

Einfach ausgedrückt ist Kolmogorovs Komplexität nicht berechenbar. Daher ist die Zufälligkeit nicht berechenbar. Wir können nicht beweisen, dass die Reihenfolge zufällig ist. Dies bedeutet jedoch nicht, dass wir die Möglichkeit, dass die Sequenz zufällig ist, nicht testen können. Hier kommen statistische Zufälligkeitstests ins Spiel, von denen einige Komprimierungsalgorithmen verwenden.

Komprimierung und Marktzufälligkeit: Problemstellung


Nur wenige Wissenschaftler haben versucht, Komprimierungsalgorithmen anzupassen, um die Marktleistung zu testen. Die Idee selbst ist einfach, aber hinter dieser Einfachheit verbergen sich spezifische Herausforderungen.

Herausforderung 1: endliche Sequenz und Unendlichkeit

Unsere Definition von Zufälligkeit in der Informationstheorie bedeutet, dass wir uns mit unendlichem Ausmaß auseinandersetzen müssen. Jede endliche Folge kann bereits allein aufgrund der Wahrscheinlichkeit leicht komprimiert werden. Wenn wir die Komprimierung verwenden, um nach relativ kurzen Sequenzen auf dem Markt zu suchen, ist es uns egal, ob der Algorithmus sie komprimieren kann. Wir fragen uns, ob die Komprimierungsrate statistisch signifikant sein wird.

Herausforderung 2: Marktdrift

Es gibt verschiedene Arten von Zufälligkeiten. Der erste Typ heißt Martingale oder Kolmogorovs wirklicher Unfall. Es wird am häufigsten mit Informatik und Informationstheorie in Verbindung gebracht. Der zweite Typ ist die Markov-Zufälligkeit, die in der Finanzanalyse und der Random-Walk-Hypothese verwendet wird.

Dies bedeutet, dass wir bei der Auswahl eines statistischen Tests für die Marktzufälligkeit äußerst vorsichtig sein müssen. Ein statistischer Test, der für die erste Art von Zufälligkeit entwickelt wurde, hat ein anderes Konfidenzintervall als der Markov-Zufälligkeitstest.

Es sollte sich jetzt etwas aufklären. Angenommen, wir haben zwei Modelle: Brownsche Bewegung und geometrische Brownsche Bewegung mit einer Abweichung ungleich Null. In unserem Beispiel ist das erste Modell für beide Arten von Zufälligkeiten geeignet. Der zweite ist nur für Markovs Chance. Das Testergebnis des zweiten Modells wird verzerrt.



Modell 1 (Brownsche Bewegung) - Im Durchschnitt führen alle Pfade ohne Abweichung nirgendwo hin. Während der Binarisierung verwandelt sich dieses Modell in eine Folge von Münzwürfen



Modell 2 (geometrische Brownsche Bewegung) - die Pfade führen nach oben und die Abweichung ist ungleich Null. Während der Binarisierung wird eine Verzerrung in die Ergebnisse eingeführt

Dies ist ein ernstes Problem für diejenigen, die die Hypothese des zufälligen Durchgangs der Komprimierung widerlegen möchten. Da sich die Theorie nur mit der übermäßigen Vorhersehbarkeit der Marktdrift befasst, dh mit der Fähigkeit von jemandem, den Markt zu knacken.

Herausforderung 3: Stochastische Volatilität und Lücken

Das nächste Problem ist, dass die Instabilität der Volatilität dazu führen kann, dass bestimmte Marktbewegungen entgegen theoretischen Berechnungen wie regelmäßige und häufige Phänomene aussehen. Dieses Problem wird auch als "dicke Schwänze" bezeichnet. Wenn wir davon ausgehen, dass das Rauschen von Marktänderungen ungeachtet von Lücken und stochastischer Volatilität gegen Null tendiert, können wir uns die Änderungen im Binärcode vorstellen und das Problem lösen.

Kompressionstest für Marktzufälligkeit


In der akademischen Wissenschaft wurden bereits verlustfreie Datenkomprimierungsalgorithmen angewendet, um die Marktleistung zu bewerten. Die Essenz der meisten Forschungsarbeiten lautet wie folgt: Industrieländer weisen ein hohes Maß an Effizienz auf, Schwellenländer weisen eine übermäßige Kompressibilität und ein gewisses Maß an Ineffizienz auf. Diese Nichteffekte können nur durch bestimmte Muster erklärt werden, die in bestimmten Zeitintervallen eine höhere Wahrscheinlichkeit aufweisen als erwartet.

Überprüfungsmethode

Die Methode basiert auf drei bekannten Komprimierungsalgorithmen: {gzip, bzip2 und xz}.

  • Sie müssen Marktindizes von Quandl.com herunterladen.
  • Berechnen Sie dann die logarithmischen Renditen der Indizes und bezeichnen Sie sie als r.
  • Berechnen Sie ihren Durchschnitt (Abweichungskomponente) - μ r .
  • Um die Richtwirkung (detrend) r zu entfernen, wird μ r davon abgezogen .
  • Dann wird r in das Binärsystem übersetzt, wobei Werte größer als Null durch Eins und Werte kleiner als Null durch Null ersetzt werden.
  • Dann wird r durch Auferlegen diskreter Fenster - W für jeweils 7 Jahre in m unterteilt.
  • Jedes Fenster wird in hexadezimales wh konvertiert (4-Tage-Teilsequenz).
  • Jedes w h , w hc wird komprimiert und der Kompressionskoeffizient berechnet .
  • Dieser Durchschnitt verteilt sich auf alle Fenster - c .
  • Das erwartete Kompressionsverhältnis wird unter Verwendung von Pseudozufallsdaten berechnet - E [c ∗].
  • Wenn c > = min (1,0, E [c ]) ist, weist der Markt keine übermäßige Kompressibilität auf, was seine Wirksamkeit impliziert.
  • Wenn c ∗]), dann liegt eine übermäßige Kompressibilität vor, was eine Ineffizienz des Marktes impliziert.

R Test- und Parsing-Algorithmus


R brauchte nicht so viel Code, um einen solchen Test durchzuführen, da es bereits über die Funktionen memCompress und memDecompress verfügt. In Python gibt es ähnliche Funktionen.

compressionTest <- function(code, years = 7, algo = "g") {
  # The generic Quandl API key for TuringFinance.
  Quandl.api_key("t6Rn1d5N1W6Qt4jJq_zC")
  # Download the raw price data.
  data <- Quandl(code, rows = -1, type = "xts")
  # Extract the variable we are interested in.
  ix.ac <- which(colnames(data) == "Adjusted Close")
  if (length(ix.ac) == 0) 
    ix.ac <- which(colnames(data) == "Close")
  ix.rate <- which(colnames(data) == "Rate")
  closes <- data[ ,max(ix.ac, ix.rate)]
  # Get the month endpoints.
  monthends <- endpoints(closes)
  monthends <- monthends[2:length(monthends) - 1]
  # Observed compression ratios.
  cratios <- c()
  for (t in ((12 * years) + 1):length(monthends)) {
    # Extract a window of length equal to years.
    window <- closes[monthends[t - (12 * years)]:monthends[t]]
    # Compute detrended log returns.
    returns <- Return.calculate(window, method = "log")
    returns <- na.omit(returns) - mean(returns, na.rm = T)
    # Binarize the returns.
    returns[returns < 0] <- 0
    returns[returns > 0] <- 1
    # Convert into raw hexadecimal.
    hexrets <- bin2rawhex(returns)
    # Compute the compression ratio
    cratios <- c(cratios, length(memCompress(hexrets)) / 
                   length(hexrets))
  }
  # Expected compression ratios.
  ecratios <- c()
  for (i in 1:length(cratios)) {
    # Generate some benchmark returns.
    returns <- rnorm(252 * years)
    # Binarize the returns.
    returns[returns < 0] <- 0
    returns[returns > 0] <- 1
    # Convert into raw hexadecimal.
    hexrets <- bin2rawhex(returns)
    # Compute the compression ratio
    ecratios <- c(ecratios, length(memCompress(hexrets)) / 
                    length(hexrets))
  }
  if (mean(cratios) >= min(1.0, mean(ecratios))) {
    print(paste("Dataset:", code, "is not compressible { c =", 
                mean(cratios), "} --> efficient."))
  } else {
    print(paste("Dataset:", code, "is compressible { c =", 
                mean(cratios), "} --> inefficient."))
  }
}
bin2rawhex <- function(bindata) {
  bindata <- as.numeric(as.vector(bindata))
  lbindata <- split(bindata, ceiling(seq_along(bindata)/4))
  hexdata <- as.vector(unlist(mclapply(lbindata, bin2hex)))
  hexdata <- paste(hexdata, sep = "", collapse = "")
  hexdata <- substring(hexdata,
                       seq(1, nchar(hexdata), 2),
                       seq(2, nchar(hexdata), 2))
  return(as.raw(as.hexmode(hexdata)))
}

Github-Code

Das Folgende ist eine kurze Beschreibung der drei Komprimierungsschemata, die im Komprimierungsalgorithmus verwendet werden.

  • GZIP-Kompression . Basierend auf dem DEFLATE-Algorithmus, der die Codierung von LZ1 und Huffman kombiniert. LZ1 ist nach Abraham Lempel und Jacob Ziv benannt. Es ersetzt sich wiederholende Muster in einer Sequenz und platziert Links zu Kopien dieser Muster in der unkomprimierten Originalversion. Jede Übereinstimmung wird durch ein langes Paar codiert, das die folgenden Informationen für den Decoder enthält: Parameter y ist gleich allen Parametern über den Abstand x danach. Der zweite Algorithmus, benannt nach David Huffman, erstellt einen optimalen Präfixbaum anhand der Häufigkeit des Auftretens von Mustern in der Sequenz.
  • BZIP2-Komprimierung . Es werden drei Komprimierungsmechanismen verwendet: die Burroughs-Wheeler-Transformation, die Motion-to-Start-Transformation (MTF) und die Huffman-Codierung. Die erste davon ist eine reversible Methode zum Umordnen einer Sequenz in einen Strom ähnlicher Zeichen, um das Komprimierungsverfahren durch Standardmethoden zu vereinfachen. Die MTF-Konvertierung ersetzt die Buchstaben in der Sequenz durch ihre Indizes auf dem Stapel. Somit wird eine lange Folge identischer Buchstaben durch eine kleinere Zahl ersetzt, seltene Buchstaben durch eine große.
  • XZ-Komprimierung . Es funktioniert mit der Lempel-Ziv-Markov-Algorithmussequenz, die im 7z-Komprimierungsformat entwickelt wurde. Dies ist im Wesentlichen ein Wörterbuchkomprimierungsalgorithmus, der dem LZ1-Algorithmus folgt. Seine Ausgabe wird unter Verwendung eines Modells codiert, das eine probabilistische Vorhersage jedes Bits liefert, das als adaptiver Binärbereichscodierer bezeichnet wird.

Alle drei Algorithmen sind beispielsweise in der Sprache R über die Funktionen memCompress und memDecompress verfügbar. Das einzige Problem bei diesen Funktionen ist, dass die Eingabe in Form einer hexadezimalen Sequenz erfolgen muss. Sie können die bin2rawhex-Funktion zum Übersetzen verwenden.

Ergebnisse und ihre o (Dämonen-) Bedeutung


Für das Experiment wurden 51 globale Marktindizes und 12 Währungspaare verwendet. Die Sequenzen wurden wöchentlich und täglich getestet.

Alle Assets wurden mit den Algorithmen gzip, bzip2 und xz unter Verwendung der Walk-Forward-Methode komprimiert. Mit Ausnahme des Dollar / Rubel-Paares zeigte keines der Vermögenswerte eine übermäßige Kompressibilität. Tatsächlich zeigte keiner von ihnen überhaupt eine Kompressibilität. Diese Ergebnisse bestätigten die Ergebnisse eines früheren Experiments mit einem linearen Komplexitätstest. Sie widersprechen jedoch den Ergebnissen der NIST-Tests und den Ergebnissen des Lo-McKinley-Tests. Es bleibt zu verstehen, warum.

Option 1. Die erste Schlussfolgerung besteht darin, (zur Freude der Wissenschaftler) zu erkennen, dass die globalen Märkte relativ effizient sind. Ihr Verhalten sieht ziemlich zufällig aus.

Option 2. Oder wir können zugeben, dass mit Komprimierungsalgorithmen ohne Datenverlust in Bezug auf die Überprüfung der Effizienz und Zufälligkeit der Finanzmärkte definitiv etwas nicht stimmt.

Um diese Hypothesen zu testen, musste der Autor des Experiments einen Test entwickeln, um den Kompressionstest zu testen.

Kompressionstest


Gegner der Random-Walk-Hypothese bestehen in der Tat nicht auf einem 100% igen Marktdeterminismus. Es geht darum zu beweisen, dass das Marktverhalten nicht zu 100% zufällig ist. Mit anderen Worten, Märkte haben zwei Aspekte: Signal und Rauschen. Ein Signal manifestiert sich in Hunderten von Anomalien, und Rauschen wirkt als offensichtlicher Zufall und Effizienz. Dies sind zwei Seiten der Medaille. Der nächste Schritt besteht darin, zu erkennen, dass das vom System erzeugte Rauschen die Signale nicht aufhebt. Es bleibt eine Gelegenheit, den Markt zu „hacken“, indem solche Signale gefunden und verwendet werden.

Auf der Grundlage des Vorstehenden bietet der Autor die folgende Formel zum Testen eines Kompressionstests an:



Wenn wir die Standardabweichung der Geräuschkomponente erhöhen, beobachten wir, wie sich die Marktkomprimierbarkeit zu verschlechtern beginnt. Wenn die Standardabweichung die Marke von 0,01 überschreitet, beginnt der Kompressionstest zu scheitern:



Beispiele für Schlussfolgerungen im Test für σ = 0,010, σ = 0,020 und σ = 0,040 lauten wie folgt:

Bild

Im Kompressionstest sind alle diese Märkte zufällig oder effizient, da sie nicht komprimiert werden können verlustfreie Datenkomprimierungsalgorithmen. Ja, sie scheinen zufällig zu sein. Sie bestehen jedoch aus Signalen und Rauschen, sodass die Zufälligkeit nicht vollständig sein kann.

Für eine angemessenere Überprüfung ist es erforderlich, die Wettstrategie / den Wettalgorithmus zu verwenden, um zum Durchschnitt zurückzukehren:

  • Schlussfolgerung: Fenstergröße w = 4;
  • Für den Zeitparameter t berechnen wir die kumulative Rendite zum vergangenen w-minus Tag t - c.
  • Wenn mit <0,0, behalten wir 100% des Vermögenswerts (wir wetten, dass der Vermögenswert steigen wird);
  • In jedem anderen Fall lassen wir die Aktien fallen.

Unten finden Sie zwei Diagramme für jeden Geräuschpegel. Die erste zeigt 30 Aktienkurven, die durch die Rückkehr zur Durchschnittszinsstrategie generiert wurden. Die zweite zeigt die durchschnittlichen Markteinnahmen aus dem vorherigen Beispiel im Vergleich zu den Einnahmen aus der Anwendung der Strategie.

Bild

Dies ist ein vereinfachtes Beispiel, aber es hilft, einen Widerspruch zu identifizieren:

Wenn der Markt nicht gequetscht wird, folgt daraus, dass er effizient ist, aber wenn er wirklich effektiv wäre, wäre es unmöglich, eine Wettstrategie auf ihn anzuwenden, die ihn „hackt“.


Wir müssen dies „verstehen und vergeben“, da die Zufälligkeit nicht beweisbar ist und die Reihenfolge tatsächlich nicht zufällig ist. Laut dem Autor ist der Kompressionstest fehlgeschlagen, da er empfindlicher gegenüber Rauschen ist als die Handelsstrategie (in der Simulation ergibt er eine 10-fache Empfindlichkeit gegenüber Rauschen). Der Grund kann die Verwendung von Komprimierungsalgorithmen ohne Datenverlust sein.

Den Code für den Verifikationstest finden Sie hier .

Schlussfolgerungen


In dieser Studie wurde die Idee vorgestellt, wie es möglich ist, die Zufälligkeit von Märkten mithilfe von Komprimierungsalgorithmen zu testen, und dass dies ein Verständnis ihrer Wirksamkeit vermittelt. Dann wurde ein "Metatest" gestartet, der die hohe Empfindlichkeit solcher Tests gegenüber jeglichem Rauschen anzeigte. Infolgedessen können mehrere Schlussfolgerungen gezogen werden:

  • Nach dem Trend zeigt der Markt genügend Rauschen und wird für Komprimierungsalgorithmen ohne Datenverlust (gzip, bzip2 und xz) „unpassierbar“.
  • Wenn die Empfindlichkeit des Tests gegenüber Lärm höher ist als die der Handelsstrategie (im Beispielartikel erwies sich ein solcher Test als zehnmal empfindlicher gegenüber Lärm als eine einfache Wettstrategie), bedeutet ein negatives Ergebnis nicht, dass der analysierte Markt effektiv ist. In dem Sinne, dass es nicht "gehackt" werden kann.
  • Mit anderen Worten, solche Tests beweisen nicht die Richtigkeit von Akademikern, die auf einer starren Interpretation der Hypothese des zufälligen Marktwanderns bestehen. Es stellte sich einfach als komplizierter heraus, als es auf den ersten Blick schien.
  • Statistische Tests zur Bestimmung der Marktzufälligkeit variieren in Größe, Reichweite und Empfindlichkeit. Ein zuverlässiges Ergebnis kann nur eine Kombination mehrerer Tests ergeben.

Andere verwandte Materialien von ITinvest :



Jetzt auch beliebt: