Statistische Prozesskontrolle Statistische Prozesskontrolle (SPC) kann Ihnen helfen, das Prozessverhalten zu überwachen. Das erfolgreichste SPC-Tool ist das Steuerungsdiagramm, das ursprünglich von Walter Shewhart in den frühen 1920er Jahren entwickelt wurde. Ein Kontrolldiagramm hilft Ihnen, Daten aufzuzeichnen und lässt Sie sehen, wenn ein ungewöhnliches Ereignis, z. B. Eine sehr hohe oder niedrige Beobachtung im Vergleich zu ldquotypischenrdquo Prozessleistung, tritt auf. Kontrolldiagramme versuchen, zwischen zwei Arten von Prozessvariation zu unterscheiden: Häufige Ursachenvariation, die dem Prozess innewohnt und immer vorhanden ist. Spezielle Ursachenvariationen, die aus externen Quellen stammen und darauf hinweisen, dass der Prozess nicht statistisch kontrolliert wird. Verschiedene Tests können helfen, festzustellen, wann ein Out-of-Control-Ereignis aufgetreten ist. Wenn jedoch mehr Tests angewendet werden, erhöht sich auch die Wahrscheinlichkeit eines Fehlalarms. Hintergrund Ein deutlicher Anstieg der Verwendung von Kontrollkarten während des Zweiten Weltkrieges in den Vereinigten Staaten, um die Qualität der Munition und andere strategisch wichtige Produkte zu gewährleisten. Die Verwendung von SPC verminderte sich nach dem Krieg etwas, wurde aber in Japan mit großer Wirkung aufgenommen und setzt sich bis heute fort. (Für mehr, siehe die Geschichte der Qualität) Viele SPC-Techniken wurden von amerikanischen Firmen in den letzten Jahren entdeckt worden, vor allem als Bestandteil von Qualitätsverbesserungsinitiativen wie Six Sigma. Der weit verbreitete Einsatz von Control-Charting-Prozeduren wurde durch statistische Softwarepakete und immer anspruchsvollere Datenerfassungssysteme unterstützt. Im Laufe der Zeit wurden andere Prozessüberwachungsinstrumente entwickelt, darunter: Kumulative Summe (CUSUM) Diagramme: Die Ordinate jedes aufgetragenen Punktes repräsentiert die algebraische Summe der vorherigen Ordinate und die jüngsten Abweichungen vom Ziel. Exponentiell gewichtete Moving Average (EWMA) Diagramme: Jeder Diagrammpunkt repräsentiert den gewichteten Mittelwert des aktuellen und aller vorherigen Untergruppenwerte, was dem letzten Prozessverlauf mehr Gewicht verleiht und Gewichte für ältere Daten verringert. In jüngster Zeit befürworteten andere die Integration von SPC mit Engineering Process Control (EPC) - Tools, die regelmäßig Prozesseingaben zur Leistungsverbesserung verändern. Beitrag von Keith M. Bower, einem Statistiker und Webmaster von KeithBower. Tutorial: Statistische Qualitätskontrolle gegen statistische ProzesskontrolleExploring Die exponentiell gewichtete Moving Average Volatilität ist das häufigste Maß an Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, siehe Volatilität verwenden, um zukünftiges Risiko zu beurteilen.) Wir haben Googles aktuelle Aktienkursdaten verwendet, um die tägliche Volatilität auf der Grundlage von 30 Tagen Lagerbestand zu berechnen. In diesem Artikel werden wir die einfache Volatilität verbessern und den exponentiell gewichteten gleitenden Durchschnitt (EWMA) diskutieren. Historische Vs. Implizite Volatilität Zuerst können wir diese Metrik in ein bisschen Perspektive bringen. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Lesung siehe die Verwendungen und Grenzen der Volatilität.) Wenn wir uns nur auf die drei historischen Ansätze konzentrieren (links oben), haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Bewerben Sie ein Gewichtungsschema Zuerst haben wir Berechnen Sie die periodische Rückkehr. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rückkehr in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. h. der Preis heute geteilt durch den Preis gestern und so weiter). Dies führt zu einer Reihe von täglichen Renditen, von u i zu u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. In dem vorherigen Artikel (mit Volatility To Gauge Future Risk), haben wir gezeigt, dass unter ein paar akzeptablen Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadrierten Renditen: Beachten Sie, dass dies summiert jede der periodischen Renditen, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, es ist wirklich nur ein Durchschnitt der quadratischen periodischen Rückkehr. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor ist (speziell 1 m), dann sieht eine einfache Varianz so aus: Die EWMA verbessert sich auf einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern (sehr neuere) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden Durchschnitts (EWMA) behoben, bei dem neuere Renditen ein größeres Gewicht auf die Varianz haben. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadrierte Rendite mit einem Multiplikator wie folgt gewichtet: Zum Beispiel neigt RiskMetrics TM, ein Finanzrisikomanagement-Unternehmen, dazu, ein Lambda von 0,94 oder 94 zu verwenden. In diesem Fall ist das erste ( (1 - 0,94) (94) 0 6. Die nächste quadratische Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von Exponential in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muss) des vorherigen Tagegewichts. Dies stellt eine Varianz sicher, die gewichtet oder voreingenommen auf neuere Daten ist. (Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Googles-Volatilität an.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google ist unten dargestellt. Die einfache Volatilität wirkt effektiv jede periodische Rendite um 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Kursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass Spalte P ein Gewicht von 6, dann 5.64, dann 5.3 und so weiter zuteilt. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die ganze Serie (in Spalte Q) zusammengefasst haben, haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA im Googles-Fall Sein signifikant: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (siehe die Kalkulationstabelle für Details). Anscheinend hat sich die Googles-Volatilität in jüngster Zeit niedergelassen, eine einfache Varianz könnte künstlich hoch sein. Heutige Varianz ist eine Funktion von Pior Days Variance Youll bemerken wir brauchten, um eine lange Reihe von exponentiell abnehmenden Gewichten zu berechnen. Wir werden die Mathematik hier nicht machen, aber eines der besten Features der EWMA ist, dass die ganze Serie bequem auf eine rekursive Formel reduziert: Rekursive bedeutet, dass heutige Varianzreferenzen (d. h. eine Funktion der vorherigen Tagesabweichung) ist. Sie finden diese Formel auch in der Kalkulationstabelle, und sie erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der vulkanischen Varianz (gewichtet durch Lambda) plus gestern quadrierte Rückkehr (gewogen von einem Minus Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtete Varianz und gestern gewichtet, quadratische Rückkehr. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. RiskMetrics 94) zeigt einen langsamen Abfall in der Serie an - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsamer abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, zeigen wir einen höheren Zerfall an: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, also kannst du mit seiner Empfindlichkeit experimentieren). Zusammenfassung Volatilität ist die momentane Standardabweichung eines Bestandes und die häufigste Risikometrität. Es ist auch die Quadratwurzel der Varianz. Wir können die Abweichung historisch oder implizit (implizite Volatilität) messen. Wenn man historisch misst, ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Abweichung ist, dass alle Renditen das gleiche Gewicht bekommen. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch die Zuordnung von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionische Schildkröte.) Der Gesamt-Dollar-Marktwert aller einnehmen039s ausstehenden Aktien. Die Marktkapitalisierung erfolgt durch Multiplikation. Frexit kurz für quotFrench exitquot ist ein französischer Spinoff des Begriffs Brexit, der entstand, als das Vereinigte Königreich stimmte. Ein Auftrag mit einem Makler, der die Merkmale der Stop-Order mit denen einer Limit-Order kombiniert. Ein Stop-Limit-Auftrag wird. Eine Finanzierungsrunde, in der Anleger eine Aktie von einer Gesellschaft mit einer niedrigeren Bewertung erwerben als die Bewertung, Eine ökonomische Theorie der Gesamtausgaben in der Wirtschaft und ihre Auswirkungen auf die Produktion und Inflation. Keynesianische Ökonomie wurde entwickelt. Ein Bestand eines Vermögenswerts in einem Portfolio. Eine Portfolioinvestition erfolgt mit der Erwartung, eine Rendite zu erzielen. Dies ist ein wichtiger Bestandteil der Finanzdaten und die Einbindung in unsere Modelle kann eine realistischere Schätzung des Risikos erzielen. Das Volumen der Volatilitätsclustering: EWMA und GARCH (1,1). Volatilität Clustering ist aus der Tatsache, dass die heutige Volatilität ist positiv korreliert mit gestern Volatilität. Also, wenn gestern beobachtet hohe Volatilität, heute auch wir sind wahrscheinlich, hohe Volatilität zu beobachten. Dies bedeutet, dass die Volatilität von der verbleibenden Volatilität abhängig ist (bedingte Volatilität). Es gibt zwei Methoden, um dies zu berechnen: Exponential Weighted Moving Average (EWMA) EWMA ist eine häufig verwendete Methode zur Schätzung der Volatilität bei den finanziellen Erträgen. Diese Methode zur Berechnung der bedingten Varianz (Volatilität) gibt den aktuellen Beobachtungen mehr Gewicht als die bisherigen Beobachtungen. Der EWMA-Schätzer hat die folgende Form: r stellt die Renditen dar. Ist der Zerfallsfaktor, auch bekannt als Glättungskonstante. Dieser Faktor bestimmt das exponentiell abnehmende Gewichtungsschema der Beobachtungen. Auf diese Weise berücksichtigt EWMA die zeitabhängigen Abweichungen. Sorgt dafür, dass die heutige Varianz positiv mit der veränderten Volatilität korreliert ist. Ein hohes Lambda zeigt einen langsamen Abfall in der Reihe an, das heißt, eine hohe Varianz neigt dazu, für eine längere Zeit zu bestehen. RiskMetrics verwendet ein Lambda von 0,94, das für die Analyse von Tagesdaten geeignet ist. EWMA ist eigentlich eine Teilmenge von GARCH (1,1). Erfahren Sie mehr über EWMA Generalized Autoregressive Conditional Heteroscedasticity (GARCH (1,1)) GARCH ist ein weiteres Modell für die Schätzung der Volatilität, die sich um das Problem der Volatilität kümmert. GARCH wird von ARCH abgeleitet, d. h. autoregressive bedingte Heterosedastizität. AR bedeutet, dass die Modelle autoregressive Modelle in quadratischen Renditen sind, d. h. es gibt eine positive Korrelation zwischen dem Risiko gestern und dem Risiko heute. Bedingung bedeutet, dass die nächste Jahre Volatilität von den in diesem Zeitraum verfügbaren Informationen bedingt ist. Heterosedastizität bedeutet nicht konstante Volatilität. Es bedeutet, dass die Zeitreihe einer Zufallsvariablen eine zeitvariable Varianz aufweist. G steht für Generalized, was bedeutet, dass es sich um eine verallgemeinerte Version handelt, die unterschiedliche Faktoren in verschiedenen Märkten berücksichtigen kann. Die häufigste Form des GARCH-Modells ist GARCH (1,1). Dieses Modell wird dargestellt als: Das Schlüsselkonzept hier ist, dass die Volatilität eine Funktion von quadratischen verzögerten Renditen und verzögerten Abweichungen ist. Der Begriff (1,1) gibt diese 1 Verzögerung für jede quadrierte Rückkehr und quadrierte Varianz des Vortages an. Wo: ist das Gewicht für verzögerte quadratische Rückkehr ist das Gewicht für verzögerte Abweichungen ist eine Konstante gleich x V L, wobei V L die Langzeit-Varianz ist und sein Gewicht ist
No comments:
Post a Comment