Exercices
Contents
Exercices#
Exercice 1#
Calculez le logarithme à base 2 des nombres 1, 2, 8 et 256.
Exercice 2#
Une source émet 100 symboles par seconde parmi un alphabet de trois symboles \(\{A,B,C\}\) dont les probabilités respectives sont égales à \(0,8\), \(0,15\) et \(0,05\). On souhaite savoir si les messages de cette source peuvent être transmis sur un canal binaire pouvant transmettre sans erreur 95 bits par seconde.
- Calculez l’auto-information des symboles, puis l’entropie de la source. 
- Quel est le débit de la source ? 
- Calculez le taux d’émission de la source. 
- Quel est le débit du canal ? 
- Quelle est la capacité du canal ? 
- La transmission est-elle possible sans erreur ? 
Exercice 3#
- Le code binaire { - 00,- 11,- 0101,- 111,- 1010,- 100100,- 0110} est-il à décodage unique ?
- Le code ternaire { - 00,- 012,- 0110,- 0112,- 100,- 201,- 212,- 22} est-il à décodage unique ?
Exercice 4#
On considère une source qui émet quatre symboles, par exemple 😀, 😂, 😛, 😎 avec les probabilités
- Calculez l’entropie de le source. 
- Pour chacun des codes ci-dessous, indiquez quelles propriétés ils vérifient et calculez leur longueur moyenne. 
| 😀 | 😂 | 😛 | 😎 | |
|---|---|---|---|---|
| Code 1 | 00 | 01 | 10 | 11 | 
| Code 2 | 0 | 1 | 10 | 11 | 
| Code 3 | 0 | 01 | 011 | 0111 | 
| Code 4 | 1 | 01 | 001 | 000 | 
Exercice 5#
Une source \(X\) utilise un alphabet de cinq symboles.
- Combien de bits sont nécessaires pour réaliser un code de longueur fixe à décodage unique ? 
On décide de transmettre ces symboles en les regroupant deux par deux : cela revient à considérer une nouvelle source \(Y\).
- Combien y a-t-il de symboles dans l’alphabet de la source \(Y\) ? 
- Combien de bits sont nécessaires pour réaliser un code de longueur fixe à décodage unique ? 
- Cette manière de procéder est-elle plus intéressante que pour la transmission de la source \(X\) ? 
Exercice 6#
On considère l’alphabet défini ci-dessous :
| Symbole | A | B | C | D | E | F | G | 
|---|---|---|---|---|---|---|---|
| Probabilité | 0,35 | 0,30 | 0,20 | 0,10 | 0,04 | 0,005 | 0,005 | 
- Calculez l’auto-information des symboles, puis l’entropie de la source 
- Déterminez le code de Huffman associé à la source. 
- Calculez la longueur moyenne du code obtenu. 
Exercice 7#
Mêmes questions que l’exercice précédent avec l’alphabet défini ci-dessous :
| Symbole | A | B | C | D | E | F | G | H | 
|---|---|---|---|---|---|---|---|---|
| Probabilité | 0,36 | 0,14 | 0,13 | 0,12 | 0,10 | 0,009 | 0,004 | 0,002 |