AR-Algorithmen
In der AR (AutoRegressive) Spektralprozedur werden Algorithmen zur autoregressiven Schätzung verwendet.
Die AR-Koeffizienten können auf verschiedene Weisen berechnet werden. Sie können von Schätzungen der Autokorrelation, aus den partiellen Autokorrelationskoeffizienten und über Kleinste-Quadrate-Algorithmen berechnet werden. Bei der Berechnung des AR-Modells über die Korrelationsmethode hängt das Ergebnis von der maximalen Verzögerung (maximum lag) ab, für die die Autokorrelation berechnet wird. Bei der partiellen Autokorrelationsmethode hängt es von der spezifischen Definition des Reflexionskoeffizienten ab. Bei den Kleinste-Quadrate-Methoden hängt das Ergebnis davon ab, wie die Daten an den Rändern behandelt werden und ob die Datenmatrix oder die Normalengleichungen approximiert werden.
Autokorrelationsmethode
Der auf einfacher Autokorrelation basierende Algorithmus, Autokorrelation, bietet die niedrigste Auflösung. Durch die den Versatz beschränkende Schätzung der Autokorrelationssequenz (die unendliche Sequenz wird durch eine endliche approximiert) treten Endpunkt-Effekte auf. Dies ist der AR-Algorithmus, den man in vielen Paketen zur Analyse von Zeitreihen und in Statistik-Paketen findet. Er wird oft als Yule-Walker-Methode bezeichnet. Der abgestimmte Algorithmus, der hier verwendet wird, führt immer zu einem stabilen AR-Filter, bei dem alle Wurzeln innerhalb des Einheitskreises liegen. Da Rekursion angewendet wird, werden auch die Koeffizienten für alle niedrigeren Ordnungen berechnet.
Versionen der Autokorrelations-AR-Prozedur können im STARPACK Packet und in den Publikationen von Marple (p.239) und Kay (p. 260) gefunden werden. FlexPro's Implementierung basiert auf STARPACK.
Maximale-Entropie-Methode
Der Algorithmus von Burg ist die wahrscheinlich bekannteste AR-Prozedur. Wegen seiner Ableitung aus dem Kontext der Maximale-Entropie-Methoden wird er häufig mit "MEM" gekennzeichnet. Der Algorithmus berechnet die AR-Koeffizienten direkt aus den Daten durch Abschätzung der partiellen Autokorrelationskoeffizienten für aufeinander folgende Ordnungen. Da die berechneten Koeffizienten den harmonischen Mittelwert der Vorwärts- und Rückwärts-Autokorrelationsschätzungen darstellen, wird dieser auch oft als der "harmonische" Algorithmus bezeichnet. Der Algorithmus zeigt eine Unausgewogenheit bei der Schätzung der Mittenfrequenzen von Spektralkomponenten und Approximationen höherer Ordnung neigen zum "Splitten", einem Phänomen, das dazu führt, dass mehrere Peaks erzeugt werden, obwohl nur eine einzige Komponente vorhanden ist. Die Burg-Methode produziert ebenfalls stabile AR-Filter, bei denen alle Wurzeln im Einheitskreis liegen. Er ist ebenfalls rekursiv und berechnet daher die Koeffizienten aller niedrigeren Ordnungen auf dem Weg zur Lösung.
Versionen des Burg-Algorithmus können im CMLIB-Packet gefunden werden sowie in den Publikationen von Marple (p. 240) und Kay (p. 265). Eine Version der Burg-Prozedur findet sich auch im Buch von Press. FlexPro's Burg-Implementierung entspricht dem CMLIB-Algorithmus.
Kleinste-Quadrate-Algorithmen
Die verbleibenden Methoden verwenden simultan nach der Methode kleinster Quadrate approximierte Schätzungen der AR-Koeffizienten. Die Normalengleichungen-Modelle verwenden die Normalengleichungen wie sie in typischen Kleinste-Quadrate-Schätzungen verwendet werden. Es werden quadratische Matrizen für Summen von Vorwärts- und Rückwärts-Datenelementen gebildet.
Normalengleichungen VR ist die Variante des Normalengleichungen-Ansatzes mit Vorwärts-Rückwärtsprädiktion. Die Summen führen zu einem Verlust an Genauigkeit, was zu einer geringeren Auflösung (im Vergleich mit den direkten Datenmatrix-Methoden) und zu geringerer Stabilität führen kann. Wenn etwas Rauschen vorhanden ist, dann liefern die Normalengleichung jedoch allgemein brauchbare Ergebnisse. Diese Algorithmen berechnen die Koeffizienten nur für die angegebene Ordnung.
Die Datenmatrix VR Modelle implementieren die "modifizierte Kovarianz"-Methode der linearen Prädiktion. Die Kovarianz hat in diesem Zusammenhang nichts mit der Approximation einer Kovarianzmatrix zu tun. Stattdessen wird die vollständige Daten- oder Trajektorienmatrix, die üblicherweise rechteckig ist, an die Datenreihe approximiert. Datenmatrix VR ist ein schneller Algorithmus, der sich die Symmetrie der Datenmatrix zunutze macht. Der Algorithmus erzeugt eine optimale Kleinste-Quadrate-Approximation ohne den Auflösungsverlust des Normalengleichungen-Ansatzes. Unter den AR-Methoden ist der Datenmatrix VR Algorithmus wahrscheinlich der genaueste Frequenzschätzer für ungedämpfte Sinusfunktionen.
Version der "modifizierte Kovarianz"-Methode finden sich in den Büchern von Marple (p.248) und Kay (p. 262). FlexPro's Datenmatrix VR Prozedur implementiert den Marple-Algorithmus. Die Normalengleichungen Prozeduren sind speziell für FlexPro entwickelt worden.
Kleinste-Quadrate-Algorithmen mit SVD
Bei FlexPro’s AR-Prozeduren kann keine Anzahl und kein Schwellenwert für die Peaks angegeben werden. Das Leistungsspektrum eines AR-Modells ist ein Polynom mit ausschließlich Polstellen, dessen Wurzeln die genauen Frequenzen der Peaks beschreiben.
Die AR-Prozeduren von FlexPro sind so ausgelegt, dass diese optional mit SVD verwendet werden können. Ohne SVD werden alle Pole als relevante Peaks betrachtet. Um das Spektrum auf die ausschließliche Darstellung interessierender Signalkomponenten zu beschränken, muss ein SVD-Algorithmus verwendet werden.
Geben Sie einen Signal-Unterraum von 2 für jede Spektralkomponente im Signal an. Um z. B ein Signal mit sechs sinusförmigen Komponenten zu modellieren muss ein Signal-Unterraum von 12 verwendet werden. Die Ordnung sollte auf 40 bis 80 gesetzt werden, so dass das Rauschen effektiv erfasst werden kann.
Außer der längeren Berechnungszeiten haben die SVD-Algorithmen keine Nachteile und es existiert eine Vielzahl von Vorteilen wenn die Modellierung von harmonischen Spektralkomponenten das vordringlichste Ziel ist. Eine SVD-Approximation, bei der der Signal-Unterraum gleich der Modellordnung gesetzt wird, führt zum gleichen Ergebnis wie eine Prozedur ohne SVD.
Zur Suche von sinusförmigen Komponenten ist der Datenmatrix VR SVD Algorithmus hervorragend geeignet. Er entspricht der Hauptkomponenten-AR-Prozedur (PCAR = Principal Component AR). Für große Datensätze kann er jedoch recht langsam sein. Wenn Rauschen vorliegt (dies ist der hauptsächliche Grund SVD zu verwenden) erzeugt der Normalengleichungen VR SVD-Algorithmus vergleichbare Ergebnisse in wesentlich kürzerer Zeit.
Die meisten AR-Algorithmen in FlexPro basieren auf der Methode der kleinsten Quadrate da diese die besten Spektralschätzungen liefert. Kleinste-Quadrate-Methoden mit integrierter Signal-Rauschen-Trennung durch SVD sind die besten AR-Methoden von FlexPro. Die SVD ist dabei in die AR-Prozeduren integriert.
Alle SVD-basierten Prozeduren sind speziell für FlexPro entwickelt worden.
Literatur
Eine exzellente Darstellung der AR Spektralalgorithmen finden Sie in:
•S. Lawrence Marple, Jr., "Digital Spectral Analysis with Applications", Prentice-Hall, 1987, p.172-284.
•Steven M. Kay, "Modern Spectral Estimation", Prentice Hall, 1988, p.153-270.
Eine Implementierung des Burg-Algorithmus enthält:
•W. H. Press, et. al, "Numerical Recipes in C", Cambridge University Press, 1992, p.564-575.