Variància: diferència entre les revisions
Contingut suprimit Contingut afegit
m Inclusió de dos exemples |
m incorporació de més exemples |
||
Línia 8:
Està relacionada amb la [[desviació típica]], que se sol designar amb la lletra grega <math>\sigma</math> i que és l'arrel quadrada de la variància:
<center><math> \
== Càlcul de la variància en els casos habituals ==
Línia 17:
==== Exemples. ====
Aplicant la [[Esperança matemàtica|fórmula del càlcul de l'esperança d'una funció]] d'una variable aleatòria ,
<math display="block">E(X^2)=1^2\, \frac{1}{6}+\cdots+6^2\, \frac{1}{6}=15,17.</math>Ara podem calcular la [[variància]] de <math>X</math>: <math display="block">
=_{(**)}np,</math>on a la igualtat (*) hem fet el canvi <math>k-1=j</math>, i a la igualtat (**) que <math display="block">\sum_{j=0}^{n-1}\binom{n-1}{j}p^j(1-p)^{n-1-j}=\sum_{j=0}^{n-1}P(Y=j)=1,</math>on <math>Y</math>és una variable binomial de paràmetres <math>n-1 \quad \text{i}\quad p</math>.
D'altra banda, per calcular <math>E[X^2]</math> calcularem primer <math>E[X(
=n(n-1)p^2\,\sum_{j=0}^{n-2}\binom{n-2}{j}p^{j}(1-p)^{n-2-j}=n(n-1)p^2.</math>Així,<math display="block">E[X(X-1)]=E[X^2]-E[X]=n(n-1)p^2.</math>Aïllant <math>E[X^2]</math> tenim
<math display="block"> E[X^2]=n^2p^2-np^2+np,</math>▼
i aleshores, <math display="block"> V(X)=np(1-p).</math><br />'''3.''' Sigui <math>X</math>una [[Distribució de Poisson|variable aleatòria de Poisson]] de paràmetre <math>\lambda>0</math>, és a dir, que pot prendre qualsevol valor natural (0 inclòs) amb probabilitats <math display="block">P(X=k)=e^{-\lambda}\frac{\lambda^k}{k!},\quad k=0,1,\dots</math> D'una banda tenim que <math display="block">E[X]=\sum_{k=0}^\infty k e^{-\lambda}\,\frac{\lambda^k}{k!}=\lambda e^{-\lambda}\sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!}=_{(*)} \lambda e^{-\lambda}\sum_{j=0}^\infty \frac{\lambda^{j}}{j!}=\lambda\,e^{-\lambda}e^{\lambda}=\lambda,</math>on a la igualtat (*) hem fet el canvi <math>k-1=j</math>, i després hem utilitzat que per a qualsevol nombre <math>x\in \mathbb{R}</math>, <math>e^x=\sum_{n=0}^\infty \frac{x^n}{n!}.</math>
▲D'altra banda, per calcular <math>E[X^2]</math> calcularem primer <math>E[X(X_1)]</math>. Utilitzant de nou la [[Esperança matemàtica|fórmula per a calcular l'esperança d'una funció]] d'una variable aleatòria (en aquest cas, la funció <math>g(x)=x(x-1)</math>), tenim
▲<math display="block"> E[X^2]=n^2p^2-np^2+np,</math>
=== Variables aleatòries absolutament contínues ===
Sigui <math>X</math> una variable aleatòria amb funció de densitat <math>f</math>. Aleshores <math display="block">V(X)=\int_{-\infty}^\infty (x-\mu)^2\, f(x)\, dx=\int_{-\infty}^\infty x^2\, f(x)\, dx-\mu^2,</math>on <math>\mu=E[X]=\int_{-\infty}^\infty x\, f(x)\, dx</math>, i suposem <math>\int_{-\infty}^\infty x^2\, f(x)\, dx<\infty.</math>
'''Exemple.''' [[Distribució normal|Variable normal]] estàndard. Sigui <math>X</math> una variable aleatòria normal estàndard, amb funció de densitat <math display="block">f(x)=\frac{1}{\sqrt{2\pi}}\, e^{-x^2/2},\quad x\in\R.</math>
Integrant per parts,<math display="block">E(X^2)=\int_{-\infty}^{\infty}x^2\, f(x)\, dx=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}x^2\,e^{-x^2/2}\, dx=1.</math>
D'altra banda, l'esperança de <math>X</math> val
<math display="block">E(X)=\int_{-\infty}^{\infty}x\, e^{-x^2/2}dx= \int_{-\infty}^{0}x\, e^{-x^2/2}dx+\int_{0}^{\infty}x\, e^{-x^2/2}dx=-\int_{0}^{\infty}x\, e^{-x^2/2}dx+\int_{0}^{\infty}x\, e^{-x^2/2}dx=0.</math>
== Variables aleatòries sense variància ==▼
Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb [[distribució de Cauchy]]. Aleshores la fórmula <math>E\big[(X-E[X])^2\big]</math> no tindrà sentit. Es diu que la variància de <math>X</math> no existeix. ▼
D'altra banda, també pot passar que una variable <math>X</math> tingui esperança, però que <math>E[X^2]=\infty</math>. Aleshores la fórmula de la variància es pot aplicar, però dóna <math>+\infty</math>. En aquest cas també es diu que la variància de <math>X</math> no existeix o que és infinita. Una variable amb [[distribució t de Student]] amb dos graus de llibertat està en aquest cas. ▼
Cal remarcar que si <math>E[X^2]<\infty</math>, aleshores <math>X</math> té esperança. Això es dedueix del fet que per a qualsevol nombre <math>x\in \mathbb{R}</math>, <math>\vert x \vert \le (x^2+1)/2</math>, d'on,<math display="block">\vert X \vert \le \frac{1}{2}(X^2+1).
</math>Llavors, traient esperances tenim <math display="block">E[\vert X\vert]\le \frac{1}{2}(E[X^2]+1).</math>La desigualtat <math>\vert x \vert \le (x^2+1)/2</math> es dedueix del fet que <math>(\vert x\vert +1)^2\ge 0.</math>
== Propietats de la variància ==
Linha 40 ⟶ 52:
# <math>V(aX+b) = a^2 V(X)</math> essent <math>a</math> i <math>b</math> constants qualssevol.
# <math>V(X)=E[X^2]-\big(E[X]\big)^2</math>
#[[Desigualtat de Txebixev]]: per a qualsevol constant <math>k>0</math><math display="block">P \left ( \left |X-E[X] \right | \leq k \
#Desigualtat de Cauchy-Schwarz. Si <math>X</math> i <math>Y</math> són dues variables aleatòries, aleshores, <math display="block">E\big[\vert X\,Y\vert\big]\le \sqrt{E[X^2]\,E[Y^2]}.</math>
▲== Variables aleatòries sense variància ==
▲Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb [[distribució de Cauchy]]. Aleshores la fórmula <math>E\big[(X-E[X])^2\big]</math> no tindrà sentit. Es diu que la variància de <math>X</math> no existeix.
▲D'altra banda, també pot passar que una variable <math>X</math> tingui esperança, però que <math>E[X^2]=\infty</math>. Aleshores la fórmula de la variància es pot aplicar, però dóna <math>+\infty</math>. En aquest cas també es diu que la variància de <math>X</math> no existeix o que és infinita. Una variable amb [[distribució t de Student]] amb dos graus de llibertat està en aquest cas.
== Covariància i correlació ==
Linha 57 ⟶ 64:
La fórmula de la variància de la suma de <math>n</math> variables també es simplifica: Si <math>X_1,\dots,X_n</math>són incorrelacionades dos a dos, és a dir, <math>\text{Cov}(X_i,X_j)=0, </math> per a <math>i\ne j</math>, aleshores <math display="block">V\big(\sum_{i=1}^n X_i\big)=\sum_{i=1}^nV(X_i).</math>Sigui <math>X</math> i <math>Y</math> dues variables aleatòries tals que <math>V(X)\ne 0 \quad i\quad V(Y)\ne 0.</math> Es defineix el '''[[Coeficient de correlació de Pearson|coeficient de correlació]]''' entre <math>X</math> i <math>Y</math> al nombre <math display="block">\rho=\frac{\text{Cov}(X,Y)}{\
== Variància d'una població finita ==
|