Décomposition en éléments propres
Les décompositions d'Eigend sont utilisées dans divers algorithmes à travers FlexPro. Ils constituent la principale méthodologie dans le :
•Estimateur spectral propre (MUSIC, EV)
Les décompositions d'élévation font aussi intrinsèquement partie de toutes les procédures FlexPro qui incluent des méthodes SVD (décomposition de la valeur singulière) :
•Estimateur spectral AR (autorégressif)
•Estimateur spectral ARMA (Moyenne glissante auto-régressive)
Le traitement des modes propres (vecteurs propres et valeurs propres/valeurs singulières) d'une série de données est un outil important dans l'analyse des signaux. Contrairement aux décompositions de Fourier, qui partitionnent les signaux en fonction de la fréquence harmonique à l'aide de sinus et de cosinus paramétriques, une décomposition eigend partitionne les signaux en fonction de leur intensité à l'aide de fonctions de base adaptatives non paramétriques. Les composantes du signal peuvent ainsi être séparées par des différences de puissance.
Nomenclature
L'identification, l'isolation et la reconstruction des composantes du signal par la décomposition de l'aiguille sont connues sous différents noms. "L'analyse spectrale singulière", l'"analyse en composantes principales" et le "filtrage propre" sont courants. FlexPro utilise exclusivement la désignation "Eigendecomposition" car elle représente une description plus précise de la méthode numérique.
Valeurs propres et valeurs singulières
Bien que les termes vecteurs propres et vecteurs singuliers soient interchangeables, chaque valeur propre sera le carré de la valeur singulière respective divisée par l'ordre de la décomposition.
Covariance décalée ou Data Matrix
On peut obtenir une décomposition propre de plusieurs façons. La première étape est toujours la création d'une matrice qui utilise des copies décalées de sous-ensembles de la série de données. Il peut s'agir d'une matrice de données ou de trajectoire simple, telle que les matrices de prédiction avant(Fwd ), arrière(Bwd) ou avant-arrière(FB) utilisées dans la modélisation autorégressive. Ces matrices de données sont généralement rectangulaires, et SVD est utilisé pour extraire les vecteurs propres et les valeurs singulières. À moins que la décomposition de l'aiguille n'implique les calculs des moindres carrés des coefficients du modèle paramétrique, il n'y a aucune différence entre l'utilisation d'une matrice de données Fwd et Bwd. Une matrice de prédiction FB contient deux fois plus de lignes qu'une matrice Fwd ou Bwd, et nécessite un temps de traitement plus important.
Une autre option consiste à utiliser l'une des nombreuses méthodes permettant de construire une matrice de covariance à partir de copies décalées des données. Il s'agit d'une matrice carrée dont les vecteurs propres et les valeurs singulières peuvent être calculés à l'aide des procédures SVD ou EISPACK de décomposition des vecteurs propres. Bien que le temps de calcul soit un peu plus élevé, FlexPro utilise exclusivement SVD pour toutes les décompositions d'eigend. Les routines EISPACK peuvent échouer à trouver tous les modes propres alors que la procédure SVD ne devrait jamais échouer.
Une procédure basée sur la covariance, qui respecte la symétrie Toeplitz (tous les éléments de chaque diagonale sont égaux), serait utile pour les enregistrements de données courts. En règle générale, les matrices non-Toeplitz représentent mieux la variance d'une série de données.
Une autre option encore consiste à construire une matrice carrée basée sur les équations normales. Cette approche est similaire à celle de la matrice de covariance dans la mesure où une matrice carrée peut être évaluée beaucoup plus rapidement qu'une matrice de données complète lorsque l'ensemble de données est important. D'autre part, la construction de la matrice des équations normales peut introduire des pertes de précision qui peuvent avoir un impact négatif sur le calcul des coefficients du modèle.
Ordre Décomposition Propre
L'ordre de l'eigendecomposition est le nombre d'éléments de données de la série de données qui sont extraits pour chaque segment ou sous-ensemble de la série globale, et non le nombre de segments. Pour les matrices de données rectangulaires, l'ordre ou la "dimension d'intégration" spécifie le nombre de colonnes de la matrice et le nombre de segments spécifie les rangées. Pour une matrice de covariance, le nombre de colonnes et de lignes sera égal à l'ordre.
Il est essentiel que l'ordre de la décomposition de l'aiguille soit suffisamment élevé pour offrir une bonne séparation signal-bruit. L'ordre doit être suffisant pour partitionner complètement les composantes du bruit et les empêcher de corrompre les modes propres du signal. En général, plus l'ordre est élevé (si la longueur des données le permet), plus le partitionnement est complet, car davantage de modes propres sont disponibles pour capturer le bruit aléatoire.
Séparation signal-bruit dans les spectres
L'utilisation la plus courante de l'eigendécomposition est de séparer le signal et le bruit. Dans les procédures spectrales qui utilisent SVD, les composantes du signal sont seuillées afin que les éléments de bruit ne soient pas pris en compte dans les calculs matriciels des coefficients AR et ARMA. La procédure EigenAnalysis Spectral Estimatorutilise directement la décomposition propre car les vecteurs propres du bruit sont utilisés pour générer des estimations de fréquence. Ces options ne permettent pas de reconstruire un flux de données dans le domaine temporel.
Composants du signal et du bruit
Le premier mode propre capturera la tendance prédominante des données dans le signal, le second la prédominance suivante, et ainsi de suite. Il importe peu que la composante capturée soit sinusoïdale, une onde carrée, une dent de scie ou un modèle anharmonique. En outre, le signal peut être une oscillation anharmonique basse fréquence variant lentement, ou une sinusoïde haute fréquence. Les modes propres sont dits adaptatifs, car ils capturent, dans une séquence ordonnée de valeurs propres, la variance des données d'une manière non paramétrique.
Deux modes propres sont nécessaires pour capturer une tendance oscillatoire. Une paire de modes propres avec des valeurs propres presque identiques signifie généralement une oscillation harmonique ou anharmonique spécifique dans le signal. L'un des points forts de la décomposition de l'aiguille est l'isolation des composantes secondaires du signal contenant très peu de puissance. Ces composantes secondaires peuvent ne pas être visibles dans les spectres de Fourier en raison de fuites spectrales et de considérations de résolution. De même, ces composantes peuvent être invisibles dans les modèles AR et ARMA puisqu'un modèle autorégressif mettra l'accent sur les composantes primaires. Il en va de même pour les modèles sinusoïdaux paramétriques, car la variance totale associée aux composantes de plus grande puissance peut souvent submerger un ajustement par la méthode des moindres carrés qui cherche à inclure également des composantes secondaires de bien moindre puissance. La décomposition en couches offre le moyen d'isoler les composantes de haute et de basse puissance pour une analyse spectrale et un ajustement séparés. Il en va de même pour les modèles sinusoïdaux paramétriques, car la variance totale associée aux composantes de plus grande puissance peut souvent empêcher de comptabiliser correctement les composantes de bien moindre puissance lors de l'ajustement. La décomposition en couches offre le moyen d'isoler les composantes de haute et de basse puissance pour une analyse spectrale et un ajustement séparés.
Références
Une excellente référence pour la décomposition propre se trouve dans :
•J. B. Elsner et A. A. Tsonis, "Singular Spectral Analysis", Plenum Press, 1996.
Voir aussi
Objet d'analyse Estimateurs spectraux - EigenAnalysis Spectral Estimator