Traitement des signaux bruités#
Nous présentons trois types de techniques de traitement de signaux bruités :
la détection de signal, c’est-à-dire déterminer si un signal particulier est présent dans des données bruitées,
le débruitage, c’est-à-dire réduire le plus possible le bruit présent dans un signal,
l’approximation, c’est-à-dire estimer le signal sous-jacent dans des données bruitées.
Sauf indication contraire, nous supposons que le bruit est blanc, gaussien et additif : par conséquent, le signal observé \(y\) est la somme d’un signal non bruité \(x\) et d’un bruit \(b\).
Détection de signaux#
Lorsque l’on parle de « détecter un signal », cela signifie répondre à la question : « le signal \(x\) est-il présent dans le signal observé \(y\) ? ». Différentes techniques de détection existent, en fonction des connaissances que l’on a sur le signal recherché \(x\).
Détection de signaux périodiques inconnus de période inconnue#
Dans le cas où l’on cherche dans l’observation un signal \(x\) périodique, mais qu’on ne connait ni sa période ni sa forme, alors l’autocorrélation de \(y\) permet de déterminer si le signal \(x\) est présent et quelle est sa période. On rappelle que l”autocorrélation correspond à mesurer la ressemblance d’un signal avec une version plus ou moins décalée de lui-même.
L’autocorrélation de l’observation \(y = x + b\) est :
où :
\(R_{x}\) est l’autocorrélation de \(x\), elle est périodique de même période que \(x\) ;
\(R_{xb}\) et \(R_{bx}\) sont les intercorrélations entre \(x\) et \(b\) ; elles sont nulles puisque les deux signaux sont décorrélés ;
\(R_{b}\) est l’autocorrélation du bruit \(b\) et elle est nulle (sauf en zéro) puisque le bruit est blanc (ses échantillons sont décorrélés).
Finalement, l’autocorrélation \(R_y\) est égale à l’autocorrélation de \(x\) (sauf en zéro). Si \(x\) est bien présent dans l’observation, alors \(R_y\) est périodique et sa période est égale à la période de \(x\).
Détection de signaux périodiques inconnus de période connue#
Ce cas est plus favorable que le précédent car on dispose d’une information supplémentaire. On cherche à déterminer si l’observation \(y\) correspond au signal périodique \(x\) (de période \(T\)) bruité par un bruit blanc \(b\). Le principe de détection consiste à effectuer l’intercorrélation de \(y\) avec un signal auxiliaire \(z\) périodique et de période \(T\) (par exemple une simple sinusoïde).
En effet, l’intercorrélation de \(y\) et \(z\) est égale à :
\(R_{xz}\) est périodique puisque \(x\) et \(z\) sont de même période, alors que \(R_{bz}\) est nulle puisque \(b\) et \(z\) sont décorrélés. Ainsi, \(R_{yz}\) sera périodique de période \(T\) si le signal \(x\) est présent.
Détection d’un motif#
Un « motif » est un signal déterministe connu et de durée finie. La technique suivante permet de déterminer si le motif est présent dans l’observation \(y\), et si oui à obtenir son instant d’apparition. L’observation est donc modélisée :
où \(k\) est l’instant d’apparition du motif \(x\).
On peut déterminer l’instant \(k\) où le motif apparaît en calculant l’intercorrélation entre \(y\) et \(x\).
Comme l’intercorrélation entre \(y\) et \(x\) est équivalente à la convolution entre \(y\) et le motif \(x\) retourné dans le temps (\(x[-n]\)), cette technique est un filtrage, qu’on appelle « filtrage adapté » (matched filter). On peut montrer qu’elle est la solution optimale pour maximiser le RSB dans le cadre d’un bruit additif. Elle est notamment utilisé dans des applications radar ou en communications numériques.
Débruitage de signaux#
Débruiter un signal, c’est réduire le plus possible le bruit présent dans le signal. Sauf cas très particulier, il n’est pas possible d’éliminer complètement le bruit puisqu’il est inconnu.
Débruitage d’un signal unique#
On observe un signal \(x\) bruité par un bruit blanc gaussien additif :
Pour réduire le bruit dans le signal, on peut remplacer chaque échantillon \(y[n]\) par la moyenne des \(M\) échantillons autour de \(n\). On obtient alors un nouveau signal \(z\) :
où \(M\) est impair.
Exemple
Si le signal observé est :
alors le calcul de la moyenne de \(M=3\) échantillons autour de chaque échantillons de \(y\) donne :
où les deux points d’interrogation correspondent à des échantillons qu’on ne peut pas calculer.
La Fig. 34 représente ces deux signaux.
On peut montrer que cette technique peut s’écrire sous la forme d’une convolution : c’est donc un filtrage appelé « filtre moyenneur ». La réponse impulsionnelle de ce filtre est une porte de longueur \(M\), dont la transformée de Fourier à temps discret est un sinus cardinal. Ainsi, le filtre moyenneur est un filtre passe-bas. Il atténue les fréquences élevées présentes dans le bruit.
Le filtre moyenneur effectue une moyenne glissante pour remplacer chaque échantillon du signal observé par la moyenne des \(M\) échantillons voisins. Comme on l’observe sur la Fig. 35, plus le nombre d’échantillons moyennés \(M\) est grand, plus le bruit sera atténué. Mais la forme du signal d’intérêt \(x\) sera lissée.
Le filtre moyenneur est une très bonne première approche pour débruiter un signal. Elle reste néanmoins limitée (parce qu’elle a tendance à lisser le signal lui-même), et il faut parfois recourir à des techniques plus évoluées.
Le filtre moyenneur étant un filtre passe-bas, il peut aussi être utilisé avant de sous-échantillonner un signal. Cela est bien pratique pour afficher par exemple un signal de mesure contenant beaucoup d’échantillons sur un graphique ou un écran très petit.
Débruitage de plusieurs réalisations d’un même signal#
Dans le cas où l’on dispose de \(I\) mesures d’un même signal \(x\) :
et que le bruit est centré (\(\mathbb{E}[b_i]=0\)), alors la moyenne des \(y_i\) permet d’augmenter le RSB d’un facteur \(10\log(I)\). Aussi, plus il y a de signaux moyennés, meilleur sera le débruitage.
En photographie, le moyennage de plusieurs images d’une même scène permet de réduire le bruit présent dans la photographie. En astronomie par exemple, il n’est pas rare de produire des images qui sont le moyennage de plusieurs dizaines d’observations, elle-même acquises avec un temps de pose très long (plusieurs dizaines de minutes).
Approximation par moindres carrés#
La méthode des moindres carrés (least squares method) a été proposée par Gauss et Legendre à la fin du XVIIe siècle. Dans le cadre de l’approximation, elle permet de décrire un signal bruité par un modèle mathématique.
Problématique#
On considère donc le cas où les observations \(y\) sont la somme d’un signal \(x=f_{\theta}\) bruité :
où :
\(f_{\theta}\) est une fonction paramétrique (sinusoïde, polynôme, etc.) connue,
\(\theta\) est un ensemble de paramètres \(\theta_0, \theta_1, \dots, \theta_M\) inconnus,
\(f_{\theta}[n]\) est la valeur de la fonction \(f_{\theta}\) en \(n\),
\(b\) est un bruit de moyenne nulle.
De manière générale, \(f\) peut être n’importe quelle fonction paramétrée, comme un polynôme d’ordre 2 (\(f_{\theta}[n] = \theta_0 + \theta_1 n + \theta_2 n^2\)) ou une exponentielle (\(f_{\theta}[n] = \theta_0 \exp(\theta_1 n)\)). Mais par simplicité, nous nous concentrons dans cette section sur les fonctions \(f_{\theta}\) linéaires en \(\theta\), et en particulier des fonctions \(f_{\theta}\) polynomiale :
Écriture matricielle#
Dans la suite, les calculs sont effectués avec la représentation vectorielle. Les abscisses des échantillons sont regroupés dans le vecteur \(n = \begin{bmatrix} n_1 & \dots & n_N \end{bmatrix}^T\). Puisque d’après l’équation (3) :
alors l’équation du modèle (2) devient un système de \(N\) équations à \(M+1\) inconnues :
ce système peut s’écrire plus simplement sous forme matricielle :
où :
Minimisation du critère des moindres carrés#
L’objectif est de retrouver \(\theta\) à partir de \(y\). Il est logique de choisir \(\theta\) comme le paramètre qui minimise les différences entre \(y\) et \(f_\theta\). Mathématiquement, il faut donc minimiser
La parenthèse, qui exprime la différence entre \(y\) et \(f_{\theta}\) en chaque échantillon \(n\), est mise au carré car les calculs sont plus simples à effectuer qu’avec une valeur absolue. On cherche donc à minimiser les différences au carrés, d’où le nom de la méthode. Remarquez que \(\mathcal{J}\) est le carré de la norme du signal \(y - f_{\theta}\) :
Trouver la valeur de \(\theta\) qui minimise \(\mathcal{J}\) revient à trouver la valeur qui annule la dérivée de \(\mathcal{J}\), et on peut montrer que :
Et donc :
Cette dernière équation définit donc la valeur de \(\theta\) qui minimise l’erreur des moindres carrés, c’est donc la valeur de \(\theta\) qui permet d’avoir une fonction \(f_{\theta}\) qui approxime au mieux les données \(y\).
Illustration#
La solution obtenue est issue du calcul \(\boldsymbol{\theta} = (\boldsymbol{H}^T\boldsymbol{H})^{-1} \boldsymbol{H}^T\boldsymbol{y}\). Sur l’exemple de la Fig. 37, l’observation \(y\) est une version bruitée d’un polynôme \(x\). L’approximation par moindres carrés est plus appréciable que celle obtenue avec le filtre moyenneur car on bénéficie ici du fait que le signal inconnu est un polynôme.
La figure Fig. 38 représente en orange les différences entre l’observation et l’estimation. C’est la somme de ces différences qui est minimisée par la méthode des moindres carrés.