Lineare Vorhersage - Linear prediction

Die lineare Vorhersage ist eine mathematische Operation, bei der zukünftige Werte eines zeitdiskreten Signals als eine lineare Funktion früherer Abtastwerte geschätzt werden .

In der digitalen Signalverarbeitung wird die lineare Prädiktion oft als Linear Predictive Coding (LPC) bezeichnet und kann daher als Teilmenge der Filtertheorie betrachtet werden . In der Systemanalyse , einem Teilgebiet der Mathematik , kann die lineare Vorhersage als Teil der mathematischen Modellierung oder Optimierung betrachtet werden .

Das Vorhersagemodell

Die gebräuchlichste Darstellung ist

wobei der vorhergesagte Signalwert, die vorher beobachteten Werte mit und die Prädiktorkoeffizienten sind. Der durch diese Schätzung erzeugte Fehler ist

wo ist der wahre Signalwert.

Diese Gleichungen gelten für alle Arten der (eindimensionalen) linearen Vorhersage. Die Unterschiede liegen in der Wahl der Prädiktorkoeffizienten .

Für mehrdimensionale Signale wird die Fehlermetrik oft definiert als

wobei eine geeignete gewählte Vektornorm ist . Vorhersagen, wie sie routinemäßig in Kalman-Filtern und Glättern verwendet werden, um aktuelle bzw. vergangene Signalwerte zu schätzen.

Schätzen der Parameter

Die häufigste Wahl bei der Optimierung von Parametern ist das quadratische Mittelwertkriterium, das auch als Autokorrelationskriterium bezeichnet wird. Bei dieser Methode minimieren wir den Erwartungswert des quadratischen Fehlers , was die Gleichung

für 1 ≤ jp , wobei R die Autokorrelation des Signals x n ist , definiert als

,

und E ist der Erwartungswert . Im mehrdimensionalen Fall entspricht dies einer Minimierung der L 2 -Norm .

Die obigen Gleichungen werden Normalgleichungen oder Yule-Walker-Gleichungen genannt . In Matrixform können die Gleichungen äquivalent geschrieben werden als

wobei die Autokorrelationsmatrix eine symmetrische Toeplitz-Matrix mit Elementen ist , der Vektor der Autokorrelationsvektor und der Parametervektor ist.

Ein anderer, allgemeinerer Ansatz besteht darin, die Summe der Quadrate der Fehler zu minimieren, die in der Form definiert sind minimize

wobei das Optimierungsproblem, das über alles durchsucht, nun mit eingeschränkt werden muss .

Wenn andererseits der mittlere quadratische Vorhersagefehler auf Eins beschränkt ist und die Vorhersagefehlergleichung über den normalen Gleichungen enthalten ist, wird der erweiterte Satz von Gleichungen erhalten als

wobei der Index von 0 bis reicht und eine Matrix ist.

Die Spezifikation der Parameter des linearen Prädiktors ist ein weites Thema, und es wurden zahlreiche andere Ansätze vorgeschlagen. Tatsächlich ist das Autokorrelationsverfahren das gebräuchlichste und wird beispielsweise zur Sprachcodierung im GSM- Standard verwendet.

Die Lösung der Matrixgleichung ist rechnerisch ein relativ aufwendiger Prozess. Die Gaußsche Elimination für die Matrixinversion ist wahrscheinlich die älteste Lösung, aber dieser Ansatz nutzt die Symmetrie von nicht effizient aus . Ein schnellerer Algorithmus ist die 1947 von Norman Levinson vorgeschlagene Levinson-Rekursion , die die Lösung rekursiv berechnet. Insbesondere können die obigen Autokorrelationsgleichungen durch den Durbin-Algorithmus effizienter gelöst werden.

1986 schlugen Philippe Delsarte und YV Genin eine Verbesserung dieses Algorithmus vor, die als geteilte Levinson-Rekursion bezeichnet wird und etwa die Hälfte der Multiplikationen und Divisionen erfordert. Es verwendet eine spezielle symmetrische Eigenschaft von Parametervektoren auf nachfolgenden Rekursionsebenen. Das heißt, Berechnungen für die den optimalen Prädiktor enthaltenden Terme verwenden ähnliche Berechnungen für die den optimalen Prädiktor enthaltenden Terme.

Eine andere Möglichkeit, Modellparameter zu identifizieren, besteht darin, Zustandsschätzungen unter Verwendung von Kalman-Filtern iterativ zu berechnen und maximale Wahrscheinlichkeitsschätzungen innerhalb von Erwartungs-Maximierungs-Algorithmen zu erhalten .

Für gleich beabstandete Werte ist eine Polynominterpolation eine Linearkombination der bekannten Werte. Wenn geschätzt wird, dass das diskrete Zeitsignal einem Gradpolynom gehorcht, dann werden die Prädiktorkoeffizienten durch die entsprechende Reihe des Dreiecks der Binomialtransformationskoeffizienten gegeben. Diese Schätzung könnte für ein sich langsam änderndes Signal mit geringem Rauschen geeignet sein. Die Vorhersagen für die ersten paar Werte von sind

Siehe auch

Verweise

Weiterlesen

Externe Links