Claude Elwood Shannon: diferència entre les revisions

Contingut suprimit Contingut afegit
m Correcció: espais que falten darrere de punt
Cap resum de modificació
Línia 1:
{{MT|data=febrer de 2013}}
{{millorar ortografia|data=abril de 2013}}
{{Infotaula persona
| Box_width = px 300
Linha 16 ⟶ 15:
| empleat = enginyer, investigador a la [[Bell]]
}}
'''Claude Elwood Shannon''' ([[30 d'abril]] de [[1916]] - [[24 de febrer]] de [[2001]]), va ser un [[enginyeria electrònica|enginyer electrònic]] i [[matemàtic]] [[estatunidenc]], recordat per ser el pare de la [[teoria de la informació]].
 
== Biografia ==
Va estudiar [[enginyeria elèctrica]] i [[matemàtiques]] a la [[Universitat de Michigan]] el [[1932]]. Per usos, inclosa l'[[àlgebra de Boole (lògica)|Àlgebra de Boole]] per al seu control el suport de [[1938]] a [[Massachusetts Institute of Technology]] (MIT). En ell s'explica com construir màquines [[Relé Electromecànic]] utilitzant l'àlgebra de Boole per a descriure l'estat del relè (1: Tancat, 0: obert).
 
Shannon treballattreballà vint anys a [[Massachusetts Institute of Technology|MIT]] de [[1958]] a [[1978]]. Paral·lelament a les seves activitats acadèmiques, també va treballar amb [[Laboratoris Bell]] de [[1941]] a [[1972]].
 
Claude Shannon és conegut no només pel seu treball en telecomunicacions, sinó també per l'amplitud i l'originalitat de les seves aficions, com els jocs [[malabars]], la pràctica del [[monocicle]] i la invenció de màquines extravagants : el ratolí intel·ligent mecànic que sap trobar el seu camí a través d'un laberint, un robot malabarista, un jugador d'escacs (torre contra rei Rei), etc. Un d'aquests "gadgets", però això, té un gran interès conceptual, com ho demostren [[Philip Baker]] i [[Alain Cohen]] Enen ''El Tresor [[paradoxa]]'' ([[Edicions Belin]] 2007): "Claude Shannon seriava desenvolupar una " màquina de forma gratuïta, sense fi: es posa en moviment alen pressionar, com amb qualsevol dispositiu electromecànic, amb un interruptor "d'"encesa", però després les coses prenen un gir sorprenent, ja que aquest ajust activa un mecanisme que condueix a aturar immediatament el gadget a través de l'interruptor de "d'apagat !". Aquest tipus de comportament estrany passa en situacions on la comunicació ubiqua rau, paradoxalment, en l'absència de comunicació, la utilitat en la manca d'utilitat. Exemples: "La moda és el que passa de moda" ([[Jean Cocteau]]), la "Creació de l'Escola ([[l'escola freudiana]]) per dissoldre" ([[Jacques Lacan]]); "Ens adonem que el son, al despertar-nos" ([[John Lennon]]); "El bon funcionament de tot el sistema d'estalvi per a l'habitatge implica, paradoxalment, que alguns propietaris de dret (els "bons germans") renunciïn específicament al seu dret a un préstec després d'un període d'estalvi "(Pierre Chaillol);" Els ideals revolucionaris només poden ser pertorbat quan s'assoleixen: la necessitat que segons ell va ser condemnat a perdre per aconseguir, menys distorsionat i traït pels seus enemics per les mateixes persones que volien fer complir "([[Jean Starobinski]])," La virginitat es perd per provar-la"([[Fernand Crommelynck]]). Un avatar geoestratègic d'aquest autòmat paradoxal Shannon està en el concepte de [[dissuasió]] potències nuclears construint una bomba atòmica per tal de ... prohibir qualsevol intent d'utilitzar aquestes armes, es neutralitza l'un a l'altre i: no s'utilitza !
 
Va patir la malaltia de [[malaltia d'Alzheimer]] en els últims anys de la seva vida,; Claude Shannon va morir als 84 anys el 24, de febrer, de 2001 a [[Medford (Massachusetts)|Medford]], [[Massachusetts]].
 
==La seva obra ==
Durant la Segona Guerra Mundial, Shannon va treballar per als serveis secrets militars, en criptografia, a càrrec de localitzar automàticament en el Codi de les parts que significa enemic ocult enmig de la interferència. La seva obra s'exhibeix en un informe secret (desclassificat tan sols en la dècada de 1980), que dóna a llum després de la guerra a un element, ''Teoria Matemàtica de la Comunicació'' (1948), que va ser incorporada a [[1949]] com a llibre amb una addició de [[Warren Weaver]], el seu superior en la intel·ligència. Aquest llibre se centra en el problema de la transmissió de senyals.
 
===L'esquema de Shannon ===
Linha 37 ⟶ 36:
* Font? codificador? del senyal? descodificador? abordar en el context de la interferència.
 
Adequada per a descriure la comunicació entre màquines, aquesta comunicació imperfecta dels models de patró humà <nowiki>{{}}referència obligada}}</nowiki>. No obstant això, el seu èxit és aclaparadoraaclaparador, i va estar molt involucrat en la creació d'un camp disciplinari, el de les [[Ciències de la Informació i la Comunicació]]. Una explicació d'aquest èxit és que combina a la perfecció l'enfocament amb un enfocamentel [[comportament]] dels mitjans de comunicació. D'altra banda, aquest sistema canònic dóna una canònica diu que la coherència i l'aparença de respectabilitat científica.
 
=== Unitat de mesura===
A l'article, com en el llibre, es va popularitzar l'ús de la paraula [[Bit (ordinador)|bit]] com una mesura bàsica de la informació [[digital]]. [[John W. Tukey]] va ser, però, el primer a utilitzar el terme. Més precisamentPrecisament, el bit és el nombre de bits necessaris per codificar una gran quantitat d'informació. Per tant, es necessita com a mínim un bit per codificar els dos estats (per exemple, Bateria Pressupost cara o, més generalment 0 i 1), dos bits utilitzatutilitzats per a codificar quatre estats (00, 01, 10, 11). Les 26 lletres de l'alfabet, requereixen com a mínim 5 bits, ja que: <math> (2^4 = 16) <26\le (2^5 = 32) </math>
<math> (2^4 = 16) <26\le (2^5 = 32) </math>
 
Més enEn general, si ''p '' és el nombre d'estats possibles, ''n '' el nombre de bits necessaris per codificar tots els controls:
 
<math>2^{(n-1)} <\ p 2^n </math>
 
En un cas ideal en quequè s'utilitzi tota la informació disponible, <math> p = 2^n </math>.
 
===Telecomunicacions===
Linha 64 ⟶ 62:
===L'Entropia de Shannon ===
{{principal|Entropia de Shannon}}
UnaHi ha una contribució clau de l'obra de Shannon en el concepte d'[[Entropia de Shannon|entropia]]. Si tenimes té en compte els esdeveniments N de probabilitat p <sub> 1 </sub>, p <sub> 2 </sub> ... p <sub> N </sub>, independents els uns dels altres, llavors la seva entropia de Shannon es defineix com:
 
<math> Entropia = -\sum_ i = 1{}^p_i N log_2 (p_i) </math>
Linha 72 ⟶ 70:
* Demostrar l'equivalència d'aquest concepte amb l'[[entropia]] de [[Ludwig Boltzmann]] de [[termodinàmica]].
 
El descobriment del concepte d'obertobrí el camí pera mètodes anomenats de màxima [[entropia]] (veure [[probabilitat]]), llavors el [[Imatge mèdica|Scanner]], salut, [[Reconeixement d'escriptura a mà|reconeixement automàtic de caràcters]] i l'[[aprenentatge automàtic]].
 
===Teoremes ===
El seu nom està associat amb diversos teoremes, lael [[Teorema de mostreig de Nyquist-Shannon]] en el mostreig, [[primer teorema de Shannon]] en el límit teòric de la [[compressió de dades|compressió]], i el [[segon teorema de Shannon]] en la capacitat d'un [[canal de comunicació|canal de transmissió]].
en el mostreig, [[primer teorema de Shannon]] en el límit teòric de la [[compressió de dades|compressió]] el [[segon teorema de Shannon]] en la capacitat d'un [[canal de comunicació|canal de transmissió]].
 
==Anècdotes ==
 
* El 1981, Claude Shannon va començar a escriure un article titulat '' Aspectes científics de malabarisme, '' en l'art de ladels [[malabars]]. Aquest article va ser programat per a la seva publicació en '' [[Scientific American]] '', però no era en última instància el cas. No obstant això, aquest projecte va ser la base per a la formalització dels moviments dedel malabarisme '' [[siteswap]] ''.<ref>{{en}}'' [http://www.jugglingdb.com/compendium/index.php ? id = 255 La invenció de les notacions Juggling] '' </ref>
 
== Vegeu també ==