Variància: diferència entre les revisions

Contingut suprimit Contingut afegit
m Inclusió de dos exemples
m incorporació de més exemples
Línia 8:
Està relacionada amb la [[desviació típica]], que se sol designar amb la lletra grega <math>\sigma</math> i que és l'arrel quadrada de la variància:
 
<center><math> \sigma(X)sigma_X = \sqrt {V(X)} .</math> </center>
 
== Càlcul de la variància en els casos habituals ==
Línia 17:
==== Exemples. ====
 
#'''1.''' Si tenim un dau ordinari, que pren els valors <math> 1,2,\dots, 6</math> amb probabilitats<math display="block">P(X=1)=\cdots=P(X=6)=\frac{1}{6},</math>aleshores,<math display="block">\mu=E(X)=1\cdot\frac{1}{6}+\cdots+6\cdot\frac{1}{6}=\frac{1}{6}\sum_{i=1}^6i=3,5.</math>
 
Aplicant la [[Esperança matemàtica|fórmula del càlcul de l'esperança d'una funció]] d'una variable aleatòria ,
<math display="block">E(X^2)=1^2\, \frac{1}{6}+\cdots+6^2\, \frac{1}{6}=15,17.</math>Ara podem calcular la [[variància]] de <math>X</math>: <math display="block">\text{Variància}V(X)=E(X^2)-\big(E(X)\big)^2=15,17-3.5^2=2,67.</math><br />'''2.''' Sigui <math>X</math> una [[Distribució binomial|variable binomial]] de paràmetres <math>n</math> i <math>p</math>, és a dir, que pot prendre els valors 0,1,...,n, amb probabilitats: <math display="block">P(X=k)=\binom{n}{k}p^k(1-p)^{n-k}, \ k=0,\dots, n,</math>aleshores <math display="block">E(X)=\sum_{k=0}^nk\,\binom{n}{k}p^k(1-p)^{n-k}=np\,\sum_{k=1}^{n}\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k }=_{(*)}np\,\sum_{j=0}^{n-1}\binom{n-1}{j}p^{j}(1-p)^{n-1-j }
=_{(**)}np,</math>on a la igualtat (*) hem fet el canvi <math>k-1=j</math>, i a la igualtat (**) que <math display="block">\sum_{j=0}^{n-1}\binom{n-1}{j}p^j(1-p)^{n-1-j}=\sum_{j=0}^{n-1}P(Y=j)=1,</math>on <math>Y</math>és una variable binomial de paràmetres <math>n-1 \quad \text{i}\quad p</math>.
D'altra banda, per calcular <math>E[X^2]</math> calcularem primer <math>E[X(X_1X-1)]</math>. Utilitzant de nou la [[Esperança matemàtica|fórmula per a calcular l'esperança d'una funció]] d'una variable aleatòria (en aquest cas, la funció <math>g(x)=x(x-1)</math>), tenimi amb arguments similars als anteriors,<math display="block">E[X(X-1)]=\sum_{k=0}^nk(k-1)\,\binom{n}{k}p^k(1-p)^{n-k}=n(n-1)p^2\,\sum_{k=2}^{n}\binom{n-2}{k-2}p^{k-2}(1-p)^{n-k }
=n(n-1)p^2\,\sum_{j=0}^{n-2}\binom{n-2}{j}p^{j}(1-p)^{n-2-j}=n(n-1)p^2.</math>Així,<math display="block">E[X(X-1)]=E[X^2]-E[X]=n(n-1)p^2.</math>Aïllant <math>E[X^2]</math> tenim
<math display="block"> E[X^2]=n^2p^2-np^2+np,</math>
i aleshores, <math display="block"> V(X)=np(1-p).</math><br />'''3.''' Sigui <math>X</math>una [[Distribució de Poisson|variable aleatòria de Poisson]] de paràmetre <math>\lambda>0</math>, és a dir, que pot prendre qualsevol valor natural (0 inclòs) amb probabilitats <math display="block">P(X=k)=e^{-\lambda}\frac{\lambda^k}{k!},\quad k=0,1,\dots</math> D'una banda tenim que <math display="block">E[X]=\sum_{k=0}^\infty k e^{-\lambda}\,\frac{\lambda^k}{k!}=\lambda e^{-\lambda}\sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!}=_{(*)} \lambda e^{-\lambda}\sum_{j=0}^\infty \frac{\lambda^{j}}{j!}=\lambda\,e^{-\lambda}e^{\lambda}=\lambda,</math>on a la igualtat (*) hem fet el canvi <math>k-1=j</math>, i després hem utilitzat que per a qualsevol nombre <math>x\in \mathbb{R}</math>, <math>e^x=\sum_{n=0}^\infty \frac{x^n}{n!}.</math>
 
#[[DistribucióPer binomial|Variablea binomial]] de paràmetrescalcular <math>nE[X^2]</math> ifarem <math>p</math>,com en ésel acas dir,de quela potbinomial prendrei els valors 0,1,...,n, amb probabilitats:calcularem <math display="block">PE[X(X=k)=\binom{n}{k}p^k(-1-p)^{n-k}, \ k=0,\dots, n,]</math>aleshores: Utilitzant arguments anàlegs als anteriors, tenim<math display="block">E[X(X-1)]=\sum_{k=0}^nk\infty k(k-1)\, e^{-\binomlambda}\frac{n\lambda^k}{k!}p=\lambda^k(1-p)2 e^{n-k\lambda}=np\,\sum_{k=12}^\infty \frac{n}\binomlambda^{nk-12}}{(k-12)!}p=\lambda^{k-1}2.</math>D'on es dedueix <math display="block">V(1-pX)^{n-k }=\lambda.</math>
=np.</math><br />
 
D'altra banda, per calcular <math>E[X^2]</math> calcularem primer <math>E[X(X_1)]</math>. Utilitzant de nou la [[Esperança matemàtica|fórmula per a calcular l'esperança d'una funció]] d'una variable aleatòria (en aquest cas, la funció <math>g(x)=x(x-1)</math>), tenim
<math display="block">E[X(X-1)]=\sum_{k=0}^nk(k-1)\,\binom{n}{k}p^k(1-p)^{n-k}=n(n-1)p^2\,\sum_{k=2}^{n}\binom{n-2}{k-2}p^{k-2}(1-p)^{n-k }
=n(n-1)p^2,</math>
d'on aïllant <math>E[X^2]</math> tenim
<math display="block"> E[X^2]=n^2p^2-np^2+np,</math>
i aleshores, <math display="block"> V(X)=np(1-p).</math>
=== Variables aleatòries absolutament contínues ===
Sigui <math>X</math> una variable aleatòria amb funció de densitat <math>f</math>. Aleshores <math display="block">V(X)=\int_{-\infty}^\infty (x-\mu)^2\, f(x)\, dx=\int_{-\infty}^\infty x^2\, f(x)\, dx-\mu^2,</math>on <math>\mu=E[X]=\int_{-\infty}^\infty x\, f(x)\, dx</math>, i suposem <math>\int_{-\infty}^\infty x^2\, f(x)\, dx<\infty.</math>
 
'''Exemple.''' [[Distribució normal|Variable normal]] estàndard. Sigui <math>X</math> una variable aleatòria normal estàndard, amb funció de densitat <math display="block">f(x)=\frac{1}{\sqrt{2\pi}}\, e^{-x^2/2},\quad x\in\R.</math>
Integrant per parts,<math display="block">E(X^2)=\int_{-\infty}^{\infty}x^2\, f(x)\, dx=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}x^2\,e^{-x^2/2}\, dx=1.</math>
D'altra banda, l'esperança de <math>X</math> val
<math display="block">E(X)=\int_{-\infty}^{\infty}x\, e^{-x^2/2}dx= \int_{-\infty}^{0}x\, e^{-x^2/2}dx+\int_{0}^{\infty}x\, e^{-x^2/2}dx=-\int_{0}^{\infty}x\, e^{-x^2/2}dx+\int_{0}^{\infty}x\, e^{-x^2/2}dx=0.</math>
 
== Variables aleatòries sense variància ==
Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb [[distribució de Cauchy]]. Aleshores la fórmula <math>E\big[(X-E[X])^2\big]</math> no tindrà sentit. Es diu que la variància de <math>X</math> no existeix.
 
D'altra banda, també pot passar que una variable <math>X</math> tingui esperança, però que <math>E[X^2]=\infty</math>. Aleshores la fórmula de la variància es pot aplicar, però dóna <math>+\infty</math>. En aquest cas també es diu que la variància de <math>X</math> no existeix o que és infinita. Una variable amb [[distribució t de Student]] amb dos graus de llibertat està en aquest cas.
 
Cal remarcar que si <math>E[X^2]<\infty</math>, aleshores <math>X</math> té esperança. Això es dedueix del fet que per a qualsevol nombre <math>x\in \mathbb{R}</math>, <math>\vert x \vert \le (x^2+1)/2</math>, d'on,<math display="block">\vert X \vert \le \frac{1}{2}(X^2+1).
 
</math>Llavors, traient esperances tenim <math display="block">E[\vert X\vert]\le \frac{1}{2}(E[X^2]+1).</math>La desigualtat <math>\vert x \vert \le (x^2+1)/2</math> es dedueix del fet que <math>(\vert x\vert +1)^2\ge 0.</math>
 
== Propietats de la variància ==
Linha 40 ⟶ 52:
# <math>V(aX+b) = a^2 V(X)</math> essent <math>a</math> i <math>b</math> constants qualssevol.
# <math>V(X)=E[X^2]-\big(E[X]\big)^2</math>
#[[Desigualtat de Txebixev]]: per a qualsevol constant <math>k>0</math><math display="block">P \left ( \left |X-E[X] \right | \leq k \sigmasigma_X \right ) \geq 1 - \frac {1}{k^2}.</math>
#Desigualtat de Cauchy-Schwarz. Si <math>X</math> i <math>Y</math> són dues variables aleatòries, aleshores, <math display="block">E\big[\vert X\,Y\vert\big]\le \sqrt{E[X^2]\,E[Y^2]}.</math>
 
== Variables aleatòries sense variància ==
Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb [[distribució de Cauchy]]. Aleshores la fórmula <math>E\big[(X-E[X])^2\big]</math> no tindrà sentit. Es diu que la variància de <math>X</math> no existeix.
 
D'altra banda, també pot passar que una variable <math>X</math> tingui esperança, però que <math>E[X^2]=\infty</math>. Aleshores la fórmula de la variància es pot aplicar, però dóna <math>+\infty</math>. En aquest cas també es diu que la variància de <math>X</math> no existeix o que és infinita. Una variable amb [[distribució t de Student]] amb dos graus de llibertat està en aquest cas.
 
== Covariància i correlació ==
Linha 57 ⟶ 64:
 
 
La fórmula de la variància de la suma de <math>n</math> variables també es simplifica: Si <math>X_1,\dots,X_n</math>són incorrelacionades dos a dos, és a dir, <math>\text{Cov}(X_i,X_j)=0, </math> per a <math>i\ne j</math>, aleshores <math display="block">V\big(\sum_{i=1}^n X_i\big)=\sum_{i=1}^nV(X_i).</math>Sigui <math>X</math> i <math>Y</math> dues variables aleatòries tals que <math>V(X)\ne 0 \quad i\quad V(Y)\ne 0.</math> Es defineix el '''[[Coeficient de correlació de Pearson|coeficient de correlació]]''' entre <math>X</math> i <math>Y</math> al nombre <math display="block">\rho=\frac{\text{Cov}(X,Y)}{\sqrt{V(X)sigma_X\, V(Y)}\sigma_Y}.</math>Es té que <math>-1\le \rho\le 1</math>. A més, si <math>\rho=1</math>, aleshores existeixen nombres <math>a,\, b</math>, amb <math>a>0</math>, tals que (quasi segurament) <math display="block">Y=aX+b.</math>I si <math>\rho=-1</math>, aleshores existeixen nombres <math>a,\, b</math>, amb <math>a<0</math>, tals que (quasi segurament)<math display="block">Y=aX+b.</math>Per aquest motiu, el coeficient de correlació s'interpreta com una mesura del grau d''''associació lineal''' entre dues variables (però no del grau d'associació general).
 
== Variància d'una població finita ==