Saturday 14 January 2017

Ewma Gleitender Durchschnitt Python

Angesichts einer Zeitreihe xi möchte ich einen gewichteten gleitenden Durchschnitt mit einem Mittelungsfenster von N Punkten berechnen, wobei die Gewichtungen für neuere Werte über ältere Werte sprechen. Bei der Wahl der Gewichte verwende ich die bekannte Tatsache, daß eine geometrische Reihe gegen 1 konvergiert, d. H. Sum (frac) k, sofern unendlich viele Begriffe genommen werden. Um eine diskrete Zahl von Gewichtungen zu erhalten, die zu einer Einheit summieren, nehme ich einfach die ersten N-Terme der geometrischen Reihe (frac) k und normalisiere dann ihre Summe. Bei N4 ergeben sich zum Beispiel die nicht normierten Gewichte, die nach Normalisierung durch ihre Summe ergibt. Der gleitende Mittelwert ist dann einfach die Summe aus dem Produkt der letzten 4 Werte gegen diese normierten Gewichte. Diese Methode verallgemeinert sich in der offensichtlichen Weise zu bewegten Fenstern der Länge N und scheint auch rechnerisch einfach. Gibt es einen Grund, diese einfache Methode nicht zu verwenden, um einen gewichteten gleitenden Durchschnitt mit exponentiellen Gewichten zu berechnen, frage ich, weil der Wikipedia-Eintrag für EWMA komplizierter erscheint. Was mich fragt, ob die Lehrbuchdefinition von EWMA hat vielleicht einige statistische Eigenschaften, die die obige einfache Definition nicht oder sind sie in der Tat gleichwertig? Zuerst gehen Sie davon aus 1), dass es keine ungewöhnlichen Werte Und keine Pegelverschiebungen und keine Zeittrends und keine saisonalen Dummies 2), dass das optimale gewichtete Mittel Gewichte aufweist, die auf eine gleichmäßige Kurve fallen, die durch einen Koeffizienten 3 beschreibbar ist), dass die Fehlerabweichung konstant ist, dass es keine bekannten Ursachenreihen gibt Annahmen. Ndash IrishStat Okt 1 14 am 21:18 Ravi: In dem gegebenen Beispiel ist die Summe der ersten vier Ausdrücke 0,9375 0,06250,1250.250,5. Die ersten vier Ausdrücke haben also 93,8 des Gesamtgewichts (6,2 ist im abgeschnittenen Schwanz). Verwenden Sie diese, um normierte Gewichte zu erhalten, die zu einer Einheit durch Reskalierung (dividieren) um 0,9375 zusammenkommen. Dies ergibt 0,06667, 0,1333, 0,267, 0,5333. Ndash Assad Ebrahim Ich habe festgestellt, dass die Berechnung der exponentiell gewichteten laufenden Durchschnitte mit overline leftarrow overline alpha (x - overline), alphalt1 ist eine einfache einzeilige Methode, die leicht, wenn auch nur annähernd interpretierbar in Bezug auf Eine effektive Anzahl von Proben Nalpha (vergleichen Sie diese Form an die Form für die Berechnung der laufenden Mittelwert), erfordert nur das aktuelle Datum (und den aktuellen Mittelwert), und ist numerisch stabil. Technisch integriert dieser Ansatz alle Geschichte in den Durchschnitt. Die beiden Hauptvorteile bei der Verwendung des Vollfensters (im Gegensatz zum verkürzten, in der Frage diskutierten) liegen darin, dass es in einigen Fällen die analytische Charakterisierung der Filterung erleichtern kann, und es reduziert die Fluktuationen, die bei sehr großen (oder kleinen) Daten induziert werden Wert ist Teil des Datensatzes. Zum Beispiel betrachten das Filter-Ergebnis, wenn die Daten sind alle Null, außer für ein Datum, dessen Wert 106. beantwortet Nov 29 12 bei 0:33


No comments:

Post a Comment