Sunday 26 November 2017

Loess Vs Gleitender Durchschnitt


Es gibt eine Reihe von Ansätzen zur Modellierung von Zeitreihen. Wir skizzieren einige der häufigsten Ansätze unten. Trend, saisonale, restliche Zerlegungen Ein Ansatz besteht darin, die Zeitreihe in eine Trend-, Saison - und Restkomponente zu zerlegen. Eine dreifache exponentielle Glättung ist ein Beispiel für diesen Ansatz. Ein anderes Beispiel, genannt saisonale Löss, basiert auf lokal gewichteten kleinsten Quadraten und wird von Cleveland (1993) diskutiert. Wir sprechen nicht über jahreszeitlichen Löss in diesem Handbuch. Häufigkeit basierte Methoden Ein weiterer Ansatz, der üblicherweise in wissenschaftlichen und technischen Anwendungen verwendet wird, besteht darin, die Serie im Frequenzbereich zu analysieren. Ein Beispiel für diesen Ansatz bei der Modellierung eines sinusförmigen Typs Datensatz ist in der Strahlablenkung Fallstudie gezeigt. Die spektrale Darstellung ist das primäre Werkzeug für die Frequenzanalyse von Zeitreihen. Autoregressive (AR) - Modelle Ein gemeinsamer Ansatz zur Modellierung univariater Zeitreihen ist das autoregressive (AR) Modell: Xt delta phi1 X phi2 X cdots phip X At, wobei (Xt) die Zeitreihe ist (At) ist weißes Rauschen und Delta Links (1 - sum p phii rechts) mu. Mit (mu) den Prozessmittel bedeuten. Ein autoregressives Modell ist einfach eine lineare Regression des aktuellen Wertes der Serie gegen einen oder mehrere vorherige Werte der Serie. Der Wert von (p) heißt die Reihenfolge des AR-Modells. AR-Modelle können mit einer von verschiedenen Methoden analysiert werden, einschließlich standardmäßiger linearer Quadrate-Techniken. Sie haben auch eine einfache Interpretation. Moving Average (MA) Modelle Ein weiterer gemeinsamer Ansatz zur Modellierung univariater Zeitreihenmodelle ist das gleitende Mittelwert (MA) Modell: Xt mu At - theta1 A - theta2 A - cdots - thetaq A, wobei (Xt) die Zeitreihe ist (mu ) Ist der Mittelwert der Reihe, (A) sind weiße Rauschbegriffe, und (theta1, ldots, thetaq) sind die Parameter des Modells. Der Wert von (q) heißt die Reihenfolge des MA-Modells. Das heißt, ein gleitender Durchschnittsmodell ist konzeptionell eine lineare Regression des aktuellen Wertes der Reihe gegen das weiße Rauschen oder zufällige Schocks eines oder mehrerer vorheriger Werte der Reihe. Die zufälligen Schocks an jedem Punkt werden von der gleichen Verteilung, typischerweise einer Normalverteilung, mit der Position bei Null und konstantem Maßstab angenommen. Die Unterscheidung in diesem Modell ist, dass diese zufälligen Schocks zu zukünftigen Werten der Zeitreihen übertragen werden. Die Anpassung der MA-Schätzungen ist komplizierter als bei AR-Modellen, da die Fehlerterme nicht beobachtbar sind. Dies bedeutet, dass iterative nichtlineare Anpassungsverfahren anstelle von linearen kleinsten Quadraten verwendet werden müssen. MA-Modelle haben auch eine weniger offensichtliche Interpretation als AR-Modelle. Manchmal wird das ACF und PACF darauf hindeuten, dass ein MA-Modell eine bessere Modellwahl wäre und manchmal auch AR - und MA-Begriffe im selben Modell verwendet werden sollten (siehe Abschnitt 6.4.4.5). Beachten Sie jedoch, dass die Fehlertermine nach dem Modell unabhängig sind und den Standardannahmen für einen univariaten Prozess folgen. Box und Jenkins popularisierten einen Ansatz, der den gleitenden Durchschnitt und die autoregressiven Ansätze in dem Buch Time Series Analysis: Prognose und Kontrolle (Box, Jenkins und Reinsel, 1994) kombiniert. Obwohl sowohl autoregressive als auch gleitende durchschnittliche Ansätze bereits bekannt waren (und ursprünglich von Yule untersucht wurden), war der Beitrag von Box und Jenkins in der Entwicklung einer systematischen Methodik zur Identifizierung und Schätzung von Modellen, die beide Ansätze beinhalten könnten. Das macht Box-Jenkins Modelle zu einer leistungsstarken Klasse von Modellen. Die nächsten paar Abschnitte werden diese Modelle im Detail besprechen. LOESS ist eine von vielen modernen Modellierungsmethoden, die auf klassischen Methoden basieren, wie lineare und nichtlineare Reklamationen der kleinsten Quadrate. Moderne Regressionsmethoden sollen Situationen ansprechen, in denen die klassischen Verfahren nicht gut funktionieren oder nicht ohne unnötige Arbeit effektiv angewendet werden können. LOESS kombiniert viel von der Einfachheit der linearen kleinsten Quadrate Regression mit der Flexibilität der nichtlinearen Regression. Dies geschieht durch die Anpassung einfacher Modelle an lokalisierte Teilmengen der Daten, um eine Funktion aufzubauen, die den deterministischen Teil der Variation der Daten beschreibt. Punkt für Punkt. In der Tat ist eine der Hauptattraktionen dieser Methode, dass der Datenanalytiker nicht verpflichtet ist, eine globale Funktion irgendeines Formulars anzugeben, um ein Modell an die Daten anzupassen, nur um Segmente der Daten zu passen. Der Kompromiss für diese Features ist eine erhöhte Berechnung. Weil es so rechnerisch intensiv ist, wäre LOESS praktisch unmöglich gewesen, in der Ära zu verwenden, wenn die kleinste Rekord-Regression entwickelt wurde. Die meisten anderen modernen Methoden zur Prozessmodellierung sind in dieser Hinsicht ähnlich wie bei LOESS. Diese Methoden wurden bewusst entworfen, um unsere derzeitige Berechnungsfähigkeit in vollem Umfang zu nutzen, um Ziele zu erreichen, die nicht leicht durch traditionelle Ansätze erreicht werden können. Definition eines LOESS Model LOESS, ursprünglich von Cleveland (1979) vorgeschlagen und weiterentwickelt von Cleveland und Devlin (1988). Speziell bezeichnet eine Methode, die (eher) beschreibender als lokal gewichtete polynomische Regression bekannt ist. An jedem Punkt des Datensatzes wird ein Polynom mit niedrigem Grad an eine Teilmenge der Daten angepasst, wobei erklärende Variablenwerte nahe dem Punkt liegen, dessen Antwort geschätzt wird. Das Polynom ist mit gewichteten kleinsten Quadraten fit, was mehr Gewicht auf Punkte in der Nähe des Punktes, dessen Antwort geschätzt wird und weniger Gewicht auf Punkte weiter entfernt. Der Wert der Regressionsfunktion für den Punkt wird dann durch Auswertung des lokalen Polynoms unter Verwendung der erläuternden Variablenwerte für diesen Datenpunkt erhalten. Der LOESS-Fit ist abgeschlossen, nachdem die Regressionsfunktionswerte für jeden der (n) Datenpunkte berechnet wurden. Viele der Details dieser Methode, wie der Grad des Polynommodells und die Gewichte, sind flexibel. Die Auswahlmöglichkeiten für jeden Teil der Methode und typische Vorgaben werden als nächstes kurz diskutiert. Lokalisierte Subsets von Daten Die Teilmengen von Daten, die für jede gewichtete kleinste Quadrate in LOESS verwendet werden, werden durch einen nächsten Nachbaralgorithmus bestimmt. Eine benutzerdefinierte Eingabe für die Prozedur, die Bandbreite oder Glättungsparameter genannt wird, bestimmt, wieviel der Daten für jedes lokale Polynom verwendet wird. Der Glättungsparameter (q) ist eine Zahl zwischen ((d1) n) und (1), wobei (d) den Grad des lokalen Polynoms bezeichnet. Der Wert von (q) ist der Anteil der in jeder Passung verwendeten Daten. Die Teilmenge der Daten, die in jeder gewichteten kleinsten Quadrate-Anpassung verwendet wird, besteht aus den (nq) (gerundeten bis zu den nächsten grßten Integer-Punkten), deren erklärende Variablenwerte am nächsten an dem Punkt liegen, an dem die Antwort geschätzt wird. (Q) heißt Glättungsparameter, weil er die Flexibilität der LOESS-Regressionsfunktion steuert. Große Werte von (q) erzeugen die glattesten Funktionen, die am wenigsten in Reaktion auf Schwankungen der Daten wackeln. Je kleiner (q) ist, desto näher wird die Regressionsfunktion den Daten entsprechen. Die Verwendung eines zu kleinen Wertes des Glättungsparameters ist jedoch nicht wünschenswert, da die Regressionsfunktion schließlich beginnt, den zufälligen Fehler in den Daten zu erfassen. Nützliche Werte des Glättungsparameters liegen typischerweise im Bereich von 0,25 bis 0,5 für die meisten LOESS-Anwendungen. Grad der lokalen Polynome Die lokalen Polynome passen zu jeder Teilmenge der Daten sind fast immer vom ersten oder zweiten Grad, der entweder lokal linear (im Geradensinn) oder lokal quadratisch ist. Mit einem Null-Grad-Polynom wird LOESS zu einem gewichteten gleitenden Durchschnitt. Solch ein einfaches lokales Modell könnte für einige Situationen gut funktionieren, kann aber nicht immer die zugrunde liegende Funktion gut genug approximieren. Hochmoderne Polynome würden in der Theorie arbeiten, aber liefern Modelle, die nicht wirklich im Geist von LOESS sind. LOESS basiert auf den Ideen, dass jede Funktion in einer kleinen Nachbarschaft durch ein niederwertiges Polynom gut angenähert werden kann und dass einfache Modelle einfach zu Daten passen können. Hochgradige Polynome würden dazu neigen, die Daten in jeder Teilmenge zu übertreiben und sind numerisch instabil, was genaue Berechnungen schwierig macht. Wie oben erwähnt, gibt die Gewichtsfunktion den Datenpunkten, die dem Punkt der Schätzung am nächsten sind, und dem geringsten Gewicht zu den am weitesten entfernten Datenpunkten das Gewicht. Die Verwendung der Gewichte beruht auf der Idee, dass Punkte, die sich in dem erklärenden variablen Raum nahe beieinander befinden, eher auf einander bezogen sind als Punkte, die weiter voneinander entfernt sind. Nach dieser Logik, Punkte, die wahrscheinlich folgen die lokalen Modell am besten beeinflussen die lokalen Modell Parameter Schätzungen am meisten. Punkte, die weniger wahrscheinlich sind, sich tatsächlich an das lokale Modell anzupassen, haben weniger Einfluss auf die lokalen Modellparameterschätzungen. Die traditionelle Gewichtsfunktion, die für LOESS verwendet wird, ist die Tri-Cube-Gewichtsfunktion, w (x) links (1 - x3) 3 mboxmike, zuerst installieren R (falls noch nicht bereits), R ausführen und das TeachingDemos Paket installieren (genau wie hängt davon ab Auf deinem System), lade das Paket mit der Bibliothek (TeachingDemos) dann tipp loess. demo, um die Hilfeseite aufzurufen, um zu sehen, wie man es ausführt, kannst du nach unten scrollen, wo das Beispiel ist und kopiere und füge diesen Code in den Befehl R39s ein Zeile, um die Beispiele zu sehen, dann mit eigenen Daten weiter zu erkunden. Ndash Greg Snow Mar 23 12 at 17:15 Hier ist eine einfache, aber detaillierte Antwort. Ein lineares Modell passt zu einer Beziehung über alle Datenpunkte. Dieses Modell kann die erste Ordnung (eine andere Bedeutung von linear) oder Polynom zur Berücksichtigung von Krümmung oder mit Splines, um für verschiedene Regionen mit einem anderen Regierungsmodell Rechnung zu tragen. Ein LOESS Fit ist eine lokal bewegte gewichtete Regression basierend auf den ursprünglichen Datenpunkten. Was bedeutet, dass ein LOESS-Fit die ursprünglichen X - und Y-Werte eingibt, sowie einen Satz von Output-X-Werten, für die neue Y-Werte berechnet werden (in der Regel werden die gleichen X-Werte für beide verwendet, aber oft werden weniger X-Werte für passende XY-Paare verwendet Wegen der erhöhten Berechnungen erforderlich). Für jeden Ausgang X-Wert wird ein Teil der Eingangsdaten verwendet, um einen Fit zu berechnen. Der Teil der Daten, im allgemeinen 25 bis 100, aber typischerweise 33 oder 50, ist lokal, dh es ist derjenige Teil der ursprünglichen Daten, der dem jeweiligen Ausgangswert X am nächsten liegt. Es ist eine bewegliche Passform, da jeder Ausgabe-X-Wert eine andere Teilmenge der Originaldaten mit unterschiedlichen Gewichten erfordert (siehe nächster Absatz). Diese Untermenge von Eingangsdatenpunkten wird verwendet, um eine gewichtete Regression durchzuführen, wobei Punkte am nächsten zu dem ausgegebenen X-Wert bei größerem Gewicht liegen. Diese Regression ist in der Regel erste Ordnung zweiter Ordnung oder höher ist möglich, aber erfordern größere Berechnungsleistung. Der Y-Wert dieser gewichteten Regression, berechnet am Ausgang X, wird als Modell Y-Wert für diesen X-Wert verwendet. Die Regression wird an jedem Ausgangswert X neu berechnet, um einen vollständigen Satz von Ausgangssignalen Y zu erzeugen. Beantwortet Feb 21 15 um 21:08

No comments:

Post a Comment