Performance asymptotique du MV en traitement d’antenne

Performance asymptotique du MV en traitement d’antenne

Méthodes du maximum de vraisemblance

La localisation angulaire de sources a donné lieu à une pléthore d’algorithmes d’estimation. Ces algorithmes peuvent se diviser en deux parties : – Les méthodes non-paramétriques. Elles n’utilisent pas de modèle de signaux reçus. La plus célèbre est sans nul doute la formation de voies qui est une extension spatio-temporelle de la transformée de Fourier. L’extension la plus connue de la formation de voies est la méthode de Capon [Cap69]. Malheureusement, ces méthodes souffrent d’un désavantage majeur : elles sont limitées en résolution1 par le diagramme d’ambiguïté de l’antenne.

En effet, deux sources placées dans le lobe principale du diagramme d’ambiguïté ne seront pas séparées. On peut donner l’exemple de la formation de voies pour laquelle la résolution limite est définie comme la largeur, noté 2θ3dB, du lobe principal à 3 dB en dessous du maximum. On obtient approximativement dans le cas du modèle ALU avec des capteurs distants d’une demi longueur d’onde :

2θ3dB = 100 N , (en degrés) (2.7) ce qui signifie qu’une antenne composée de deux capteurs ne pourra séparer deux sources dont l’écart angulaire est inférieur à 50 degrés ou qu’il faudra une centaine de capteurs pour séparer deux sources dont l’écart angulaire est égal à 1 degré, conduisant à un coût de fabrication prohibitif. – Les méthodes paramétriques. Elles exploitent un modèle de signaux reçus, par exemple le modèle (2.3).

Ces méthodes sont souvent dites à haute résolution puisqu’elles permettent, sous certaines conditions, d’avoir un pouvoir de résolution infini. Néanmoins, ces méthodes sont beaucoup moins robustes aux erreurs de modèle que les méthodes non-paramétriques. On peut classer ces techniques en deux catégories : les méthodes de sous-espaces et la méthode du maximum de vraisemblance. Les méthodes de sous-espaces s’appuient sur une décomposition de l’espace des observations, grâce à la matrice de covariance des observations, en deux sous-espaces : le sous-espace signal et le sous-espace bruit, et exploitent la propriété d’orthogonalité entre ceux-ci.

Maximum de vraisemblance stochastique Le MVS s’appuie sur l’hypothèse H1, à savoir que les signaux sources sont issus d’un processus aléatoire gaussien stationnaire. Cette hypothèse trouve sa légitimité dans la multitude de  processus naturels régis par cette loi ainsi que dans le théorème de la limite centrale. Sous les hypothèses H1 et H2, les observations suivent une loi gaussienne complexe de moyenne nulle et, les matrices de covariance et de pseudo-covariance des observations s’expriment sous la forme :

E £ y (ti) y H (tj ) ¤ = Σyδij = ¡ A (θ) ΣsAH (θ) + σ 2 IN ¢ δij , (2.9) E £ y (ti) y T (tj ) ¤ = 0. (2.10) Dans ce contexte, les M2 + PM + 1 paramètres inconnus sont ηMV S = £ vecT (Σs) vecT (θ) σ 2 ¤T . (2.11) Sous H3, la vraisemblance des observations est donnée par p (YT | ηMV S) = 1 (πN |Σy|) T e − PT i=1 yH(ti)Σ −1 y y(ti) . (2.12) L’estimateur du MVS de ηMV S est obtenu par maximisation de la vraisemblance ou, de manière équivalente, par minimisation de la log-vraisemblance négative normalisée par T où les termes indépendants des paramètres ont été ignorés, c’est-à-dire :

ηˆMV S = arg min ηMV S ln |Σy| + tr ³ Σ−1 y Σˆ y ´ , (2.13) où Σˆ y = 1 T P T i=1 y (ti) y H (ti) est la matrice de covariance empirique des observations. On peut démontrer que le problème est séparable et qu’il existe une solution analytique Σˆs et σˆ 2 à θ fixé. Après concentration du critère, c’est-à-dire après report de Σˆs et σˆ 2 dans celui-ci, on obtient l’estimateur du MVS pour les paramètres d’intérêts θ [Böh86] [Bre88] [Jaf88] : θˆMV S = arg min θ ln ¯ ¯ ¯ A (θ) Σˆs (θ) AH (θ) + ˆσ 2 (θ) IN ¯ ¯ ¯ = arg min θ ¯ ¯ ¯ A (θ) Σˆs (θ) AH (θ) + ˆσ 2 (θ) IN ¯ ¯ ¯, (2.14) avec σˆ 2 (θ) = 1 N − M tr ³ Π⊥ A (θ) Σˆ y ´ , (2.15) Σˆs (θ) = A† (θ) ³ Σˆ y − σˆ 2 (θ) IN ´ A†H (θ), (2.16) où Π⊥ A (θ) = IN − A (θ) A† (θ) est le projecteur orthogonal sur le noyau de AH (θ)

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *