Entropia de Shannon: diferència entre les revisions

Contingut suprimit Contingut afegit
Línia 5:
 
== Història ==
El 1948, mentre treballava a Bell Laboratories , l'enginyer elèctric Claude Shannon va formalitzar matemàticament la naturalesa estadística de la "informació perduda" en senyals de línia telefònica. Per això, va desenvolupar el concepte general d'entropia d'informació, fonamental en la teoria de la informació.<ref>Claude 1E.Shannon [http://pespmc1.vub.ac.be/books/Shannon-TheoryComm.pdf ''A mathematical theory of communication'' '''Bell System Technical Journal''', vol. 27, pp. 379-423 and 623-656, July and October, 1948]</ref>
 
Inicialment, no sembla que Shannon tingués especial coneixement de l'estreta relació entre la seva nova mesura i el treball anterior en termodinàmica . El terme entropia va ser suggerit pel matemàtic John von Neumann per la raó que aquesta noció s'assemblava a la que ja es coneixia com entropia en física estadística, i hauria afegit que aquest terme es va entendre malament per triomfar qualsevol debat.<ref>M. Tribus, E.C. McIrvine, “Energy and information”, Scientific American, 224 2(September 1971).</ref>
 
El 1957, Edwin Thompson Jaynes demostrà el vincle formal entre l'entropia macroscòpica introduïda per Clausius el 1847, la microscòpica introduïda per Gibbs i l'entropia matemàtica de Shannon. Aquest descobriment va ser descrit per Myron Tribus com una "revolució passada desapercebuda".<ref>La 3référence est dans [http://deming.eng.clemson.edu/pub/den/sys_entropy.pdf ce document] ([[Portable Document Format|PDF]])</ref>
 
== Preàmbul ==
Línia 22:
 
El mètode aplicat als textos dels diaris i als lectors actuals mostra que es pot endevinar una lletra de dos, la redundància del llenguatge actual era, per tant, un factor de 2, i el contingut informatiu d'una lletra en aquest context Només 2,35 bits.
 
== Referències ==
{{Referències}}