Eigenwertzerlegung
Eigenwertzerlegungen (Eigendecomposition) werden in diversen Algorithmen von FlexPro berechnet. Sie stellen das Grundprinzip des:
•Eigen (MUSIC, EV) Spektralschätzer
dar. Eigenwertzerlegungen sind des weiteren Bestandteil aller Prozeduren mit Singulärwertzerlegung (SVD=Singular Value Decomposition):
•AR (AutoRegressive) Spektralschätzer
•ARMA (AutoRegressive Moving Average) Spektralschätzer
Die Verarbeitung der Eigenmoden (Eigenvektoren und Eigenwerte/Singulärwerte) von Datenreihen ist ein wichtiges Werkzeug der Signalanalyse. Im Gegensatz zur Fourier-Zerlegung, bei der ein Signal in harmonische Schwingungen, d. h. parametrische Sinus- und Kosinusfunktionen, zerlegt wird, wird das Signal bei der Eigenwertzerlegung durch adaptive nicht-parametrische Funktionen nach Signalstärke zerlegt. Signalkomponenten können daher anhand ihrer unterschiedlichen Leistung separiert werden.
Nomenklatur
Die Identifikation, Isolation und Rekonstruktion von Signalkomponenten durch Eigenwertzerlegung ist unter den Begriffen "Singulärwert-Spektralanalyse" (Singular Spectral Analysis), "Hauptkomponentenanalyse" (Principal Component Analysis) und "Eigenwertfilterung" (Eigenfiltering) bekannt. FlexPro verwendet ausschließlich den Begriff "Eigenwertzerlegung", da dieser die numerische Methode am besten beschreibt.
Eigenwerte und Singulärwerte
Während die Begriffe Eigenvektor und Singulärvektor austauschbar sind, ist ein Eigenwert das Quadrat des entsprechenden Singulärwertes dividiert durch die Ordnung der Dekomposition.
Kovarianz oder Datenmatrix
Eine Eigendekomposition kann auf verschiedene Weisen erreicht werden. Der erste Schritt ist immer die Aufstellung einer Datenmatrix mit verzögerten Kopien von Ausschnitten der Datenreihe. Dies kann eine einfache Daten- oder Trajoktorienmatrix sein, wie die bei der Autoregressive Modellierung verwendeten Vorwärtsprädiktions- (V), Rückwärts-Prädiktions- (R) oder Vorwärts-Rückwärts-Prädiktions-Matrizen (VR). Diese Matrizen sind in der Regel rechteckig und die Eigenvektoren und Singulärwerte werden mittels SVD extrahiert. Solange keine Kleinste-Quadrate-Berechnungen der Koeffizienten des parametrischen Modells eingesetzt werden, gibt es keine Unterschiede zwischen der V- und der R-Datenmatrix. Eine VR-Prädiktion weist die doppelte Zeilenanzahl der V- oder R-Matrix auf und benötigt daher eine größere Berechnungszeit.
Eine andere Methode besteht darin, eine Kovarianzmatrix anhand von verzögerten Kopien der Daten zu erstellen. Dies ist eine quadratische Matrix, deren Eigenvektoren und Singulärwerte entweder mittels der SVD- oder der EISPACK-Routinen zur Eigenwertzerlegung berechnet werden können. Obwohl die Berechnungszeit etwas größer ist, verwendet FlexPro ausschließlich SVD für alle Eigenwertzerlegungen. Die EISPACK-Routinen finden u. U. nicht alle Eigenmoden was bei den SVD-Prozeduren nie der Fall sein sollte.
Eine Kovarianz-basierte Routine, die Toeplitz-Symmetrie erzwingt (alle Elemente entlang jeder Diagonale haben den gleichen Wert), wird als günstig für kleine Datenreihen angesehen. Meistens bilden jedoch nicht-Toeplitz-symmetrische Matrizen die Varianz in Datenreihen besser ab.
Schließlich besteht eine weitere Möglichkeit darin, eine quadratische Matrix basierend auf den Normalengleichungen zu konstruieren. Dies entspricht dem Kovarianz-Ansatz dahingehend, dass bei großen Datensätzen eine quadratische Matrix schneller ausgewertet werden kann als eine vollständige Datenmatrix. Andererseits können durch die Konstruktion der Normalengleichungsmatrix Verluste in der Genauigkeit entstehen, die sich auf die Berechnung der Modellkoeffizienten auswirken kann.
Ordnung der Eigenwertzerlegung
Die Ordnung der Eigenwertzerlegung ist die Anzahl der Datenelemente aus dem Datensatz, die für jeden Ausschnitt aus der Datenreihe entnommen wird und nicht die Anzahl der Ausschnitte. Für rechteckige Matrizen gibt die Ordnung oder "einbettende Dimension" die Anzahl der Spalten und die Anzahl der Segmente die Anzahl der Zeilen vor. Bei einer Kovarianzmatrix entspricht sowohl die Zeilen- als auch die Spaltenanzahl der Ordnung.
Es ist wichtig, dass die Ordnung der Eigenwertzerlegung hoch genug ist, um eine gute Trennung von Signal und Rauschen zu erhalten. Die Ordnung muss hoch genug sein, um die Rauschanteile vollständig zu separieren und um dadurch zu verhindern, dass diese die Signal-Eigenmoden beeinflussen. Im Allgemeinen gilt, dass die Trennung um so besser ist, je höher die Ordnung ist, da dann mehr Eigenmoden zur Behandlung des zufälligen Rauschens zur Verfügung stehen.
Trennung von Signal und Rauschen in Spektren
Die häufigste Anwendung der Eigenwertzerlegung ist die Trennung von Signal und Rauschen. In den Spektralprozeduren mit SVD werden die Rauschanteile herausgefiltert, so dass diese bei der Berechnung der AR- und ARMA-Koeffizienten unberücksichtigt bleiben. Die Eigenwertanalyse-Spektralschätzer-Prozedur verwendet die Eigenwertzerlegung direkt, da die Rauschen-Eigenvektoren zur Frequenzschätzung verwendet werden. Diese Algorithmen sind zur Rekonstruktion der Datenreihe nicht in der Lage.
Signal- und Rauschkomponenten
Der erste Eigenmode entspricht der dominantesten Spektralkomponente, der zweite der nächst-dominanten Komponente und so weiter. Es ist hierbei irrelevant, ob die Komponente sinusförmig, rechteckförmig oder sägezahnförmig oder nicht harmonisch ist. Auch kann das Signal eine niederfrequente nicht-harmonische Oszillation oder eine hochfrequente sinusförmige Schwingung sein. Die Eigenmoden verhalten sich adaptiv, da sie die Varianz der Datenreihe in nicht-parametrischer Form, nach Eigenwerten geordnet, erfassen.
Zwei Eigenmoden werden zur Erfassung einer Oszillation benötigt. Ein Paar von Eigenmoden mit nahezu identischen Eigenwerten bezeichnet eine harmonische oder nichtharmonische Schwingung im Signal. Eine Stärke der Eigenwertzerlegung ist die Isolation von sekundären Signalkomponenten niedriger Leistung. Solche sekundären Komponenten können in Fourier-Spektren wegen des Leckeffektes und der beschränkten Auflösung unerkannt bleiben. Diese können auch in AR- und ARMA-Modellen unsichtbar sein, da diese die Hauptkomponenten betonen. Das gleiche gilt für parametrische Modelle mit sinusförmigen Funktionen, da die mit den Komponenten hoher Leistung assoziierte Varianz die Kleinste-Quadrate-Approximation von der genauen Erkennung sekundärer Komponenten mit niedriger Leistung abbringt. Eigenwertzerlegung stellt eine Möglichkeit dar, Komponenten mit hoher und niedriger Leistung sowohl für die Spektralanalyse als auch die Approximation zu trennen. Das Gleiche gilt für parametrische Modelle mit sinusförmigen Funktionen da die Varianz, die den Komponenten mit hoher Leistung zugeordnet ist, oft die korrekte Berücksichtigung von Komponenten niedrigerer Leistung bei der Approximation verhindert. Die Eigenwertzerlegung bietet die Möglichkeit, die Komponenten hoher und niedriger Leistung für die getrennte Signalanalyse und Approximation zu isolieren.
Literatur
Eine exzellente Beschreibung der Eigenwertzerlegung bietet:
•J. B. Elsner and A. A. Tsonis, "Singular Spectral Analysis", Plenum Press, 1996.
Siehe auch
Analyseobjekt Spektralschätzer - Eigenwertanalyse-Spektralschätzer