Entropia de Shannon: diferència entre les revisions
Contingut suprimit Contingut afegit
mt #qq16 |
Cap resum de modificació |
||
Línia 1:
L{{'}}'''entropia de Shannon''', formulada per [[Claude Shannon]]
En el cas particular d'un sistema de [[Telecomunicacions]], l'entropia de la font (emissor) que indica la incertesa que el receptor d'aquesta font serà transmesa. Per exemple, una font considera enviar sempre el mateix símbol, diuen que la lletra 'a', té zero d'entropia, és a dir, mínima. De fet, un receptor que només coneix les estadístiques de la font de transmissió és assegurar-se que el pròxim símbol serà una 'a', sense cometre un error. El receptor no necessita per rebre el senyal per eliminar la incertesa que s'ha transmès per la font, ja que no causa perill. Per contra, si la font es considera enviar una 'a' la meitat de temps i una 'b' l'altra meitat, el receptor no està segur de la lletra següent a rebre. L'entropia de la font en aquest cas és diferent de zero (positiva) i quantitativament representen la incertesa en la informació de la font. Des de la perspectiva del receptor, l'entropia indica la quantitat d'informació que necessita per aconseguir eliminar per complet la incertesa (o dubte) sobre el que la font ha transmès.
== Enllaços externs ==
|