Corrections#

Rappels de probabilité#

Exercice 1#

\[ \mathbb{E}[x] = \frac{1}{2} \qquad\text{et}\qquad \sigma = \frac{1}{\sqrt{12}} \]

Exercice 2#

\[ \hat{\mathbb{E}}[x] = 0,618 \qquad\text{et}\qquad \hat{\sigma}[x] = 0,574 \]

Le bruit dans les signaux#

Exercice 3#

  • Par définition de l’estimateur de la variance, l’écart-type \(\sigma_b\) du bruit est égal à la puissance du bruit :

    \[ \sigma_b^2 = \frac{1}{N} \sum_{n=1}^N b_n^2 = P_b. \]
  • Expression de l’écart-type du bruit en fonction du RSB et des échantillons du signal \(x\) :

    \[ \sigma_b = 10^{-\text{RSB}/20} \sqrt{ \frac{\sum_n x_n^2}{N} }. \]

Traitement des signaux bruités#

Exercice 4#

  • Intercorrélation \(R_{yx}\) :

    \[ R_{yx}[n] = \sum_{n=-\infty}^{+\infty} y[n+m] x[m] \]
  • Le produit de convolution \((y*h)[n] = \sum_{k=-\infty}^{+\infty} y[k] h[n-k]\) est égal à l’intercorrélation \(R_{yx}[n] = \sum_{n=-\infty}^{+\infty} y[k] x[k-n]\) lorsque \(h[n-k]=x[k-n]\), ce qui signifie que la réponse impulsionnelle \(h[n]\) du filtre est égale à \(x[-n]\). Le filtre adapté est donc bien un filtre dont la réponse impulsionnelle est le signal \(x\) retourné dans le temps.

Exercice 5#

La sortie du filtre moyenneur est :

\[ z[n] = \frac{1}{M} \sum_{m=n-\frac{M-1}{2}}^{n+\frac{M-1}{2}} y[m] = \sum_{m=n-\frac{M-1}{2}}^{n+\frac{M-1}{2}} y[m] \frac{1}{M} = \sum_{m=n-\frac{M-1}{2}}^{n+\frac{M-1}{2}} y[m] h[n-m] \]

\[\begin{split} h[n-m] &= \begin{cases} 1/M \text{ si } m \in \{n-\frac{M-1}{2},\dots,n+\frac{M-1}{2}\} \\ 0 \text{ sinon} \end{cases} \\ &= \begin{cases} 1/M \text{ si } n-m \in \{-\frac{M-1}{2},\dots,\frac{M-1}{2}\} \\ 0 \text{ sinon} \end{cases} \end{split}\]

soit

\[\begin{split} h[n] = \begin{cases} 1/M \text{ si } n \in \{-\frac{M-1}{2},\dots,\frac{M-1}{2}\} \\ 0 \text{ sinon} \end{cases} \end{split}\]

Le filtre moyenneur s’écrit donc bien comme la convolution entre le signal observé \(y\) et une porte \(h\).

Exercice 6#

  • La moyenne des mesures \(y_i\) est :

    \[ \forall n,\qquad \frac{1}{I} \sum_{i=1}^I y_i[n] = \underbrace{ \frac{1}{I} \sum_{i=1}^I x[n] }_{\tilde{x}[n]} + \underbrace{ \frac{1}{I} \sum_{i=1}^I b_i[n] }_{\tilde{b}[n]} \]

    \(\tilde{x}[n] = x[n]\).

  • On montre déjà que l’espérance de \(\tilde{b}\) est nulle (rappelons que les \(b_i\) sont blanc et gaussien, donc d’espérance nulle) :

    \[ \mathbb{E}\left[\tilde{b}\right] = \mathbb{E}\left[\frac{1}{I} \sum_{i=1}^I b_i[n]\right] = \frac{1}{I} \sum_{i=1}^I \mathbb{E}\left[b_i[n]\right] = \frac{1}{I} \sum_{i=1}^I 0 = 0 \]

    On peut donc calculer la variance de \(\tilde{b}\) :

    \[\begin{split} \mathbb{V}\left[\tilde{b}\right] &= \mathbb{E}\left[\tilde{b}^2\right] - \mathbb{E}\left[\tilde{b}\right]^2 \\ &= \mathbb{E}\left[\tilde{b}^2\right] - 0 \\ &= \mathbb{E}\left[\frac{1}{I^2} \left( \sum_{i=1}^I b_i[n] \right)^2 \right] \\ &= \frac{1}{I^2} \sum_{i=1}^I \mathbb{E}\left[b_i[n]^2\right] + \frac{1}{I^2} \sum_{i=1}^I \sum_{j \neq i} \mathbb{E}\left[b_i[n]b_j[n]\right] \end{split}\]

    or, puisque les échantillons \(b_i\) du bruit sont indépendants, alors \(\mathbb{E}\left[b_i[n]b_j[n]\right]=0\) quels que soient \(i\) et \(j\). Il reste donc :

    \[ \mathbb{V}\left[\tilde{b}\right] = \frac{1}{I^2} \sum_{i=1}^I \mathbb{E}\left[b_i[n]^2\right] = \frac{1}{I} \mathbb{V}\left[b_i\right] \]
  • Ce derner résultat implique que le RSB du signal moyenné \(\tilde{\text{RSB}}\) est égal au RSB d’un signal \(y_i\) plus un facteur \(10\log(I)\) :

    \[ \tilde{\text{RSB}} = 10 \log_{10} \left(\frac{P_\tilde{x}}{P_\tilde{b}}\right) = 10 \log_{10} \left(\frac{P_\tilde{x}}{\frac{1}{I}P_{b_i}}\right) = 10 \log_{10}(I) + 10 \log_{10} \left(\frac{P_\tilde{x}}{P_{b_i}}\right) = 10 \log_{10}(I) + \text{RSB} \]

Exercice 7#

  • \(\boldsymbol{\theta}=2,5\) est la valeur de la constante qui approxime au mieux les données. On peut calculer \(\mathcal{J}=0,5\).

  • \(\boldsymbol{\theta}=\begin{pmatrix}\frac{7}{3} \\ 1\end{pmatrix}\) regroupe les coefficients de la droite qui approxime au mieux les données.

  • Celle-ci est donc d’équation \(z = \frac{7}{3} + n\). On peut calculer \(\mathcal{J}=\frac{2}{3}\).