Exercices#

Exercice 1#

Calculez le logarithme à base 2 des nombres 1, 2, 8 et 256.

Exercice 2#

Une source émet 100 symboles par seconde parmi un alphabet de trois symboles \(\{A,B,C\}\) dont les probabilités respectives sont égales à \(0,8\), \(0,15\) et \(0,05\). On souhaite savoir si les messages de cette source peuvent être transmis sur un canal binaire pouvant transmettre sans erreur 95 bits par seconde.

  1. Calculez l’auto-information des symboles, puis l’entropie de la source.

  2. Quel est le débit de la source ?

  3. Calculez le taux d’émission de la source.

  4. Quel est le débit du canal ?

  5. Quelle est la capacité du canal ?

  6. La transmission est-elle possible sans erreur ?

Exercice 3#

  1. Le code binaire {00, 11, 0101, 111, 1010, 100100, 0110} est-il à décodage unique ?

  2. Le code ternaire {00, 012, 0110, 0112, 100, 201, 212, 22} est-il à décodage unique ?

Exercice 4#

On considère une source qui émet quatre symboles, par exemple 😀, 😂, 😛, 😎 avec les probabilités

\[ p(😀) = 0,4 \quad p(😂) = 0,3 \quad p(😛) = 0,2 \quad p(😎) = 0,1 \]
  1. Calculez l’entropie de le source.

  2. Pour chacun des codes ci-dessous, indiquez quelles propriétés ils vérifient et calculez leur longueur moyenne.

😀

😂

😛

😎

Code 1

00

01

10

11

Code 2

0

1

10

11

Code 3

0

01

011

0111

Code 4

1

01

001

000

Exercice 5#

Une source \(X\) utilise un alphabet de cinq symboles.

  1. Combien de bits sont nécessaires pour réaliser un code de longueur fixe à décodage unique ?

On décide de transmettre ces symboles en les regroupant deux par deux : cela revient à considérer une nouvelle source \(Y\).

  1. Combien y a-t-il de symboles dans l’alphabet de la source \(Y\) ?

  2. Combien de bits sont nécessaires pour réaliser un code de longueur fixe à décodage unique ?

  3. Cette manière de procéder est-elle plus intéressante que pour la transmission de la source \(X\) ?

Exercice 6#

On considère l’alphabet défini ci-dessous :

Symbole

A

B

C

D

E

F

G

Probabilité

0,35

0,30

0,20

0,10

0,04

0,005

0,005

  1. Calculez l’auto-information des symboles, puis l’entropie de la source

  2. Déterminez le code de Huffman associé à la source.

  3. Calculez la longueur moyenne du code obtenu.

Exercice 7#

Mêmes questions que l’exercice précédent avec l’alphabet défini ci-dessous :

Symbole

A

B

C

D

E

F

G

H

Probabilité

0,36

0,14

0,13

0,12

0,10

0,009

0,004

0,002