Distribuciones de Probabilidad

Page 1

Stadistics Distribuciones de Probabilidad

OpenUepc.com 1.1.5.4

Ver 01:03/02/2010



NOTA La clasificación decimal de todos los temas de este manual tienen implícito el comienzo 1.1.5.4 correspondiente a

1

SCIENCE

1.1

MATHEMATICS

1.1.5

STATISTICS

1.1.5.4

DISTRIBUCIONES DE PROBABILIDAD

COPYLEFT Este material así como los applets, powerpoints, videos y archivos de sonido asociados, puede ser distribuido bajo los términos y condiciones definidos en Open Publication License versión 1.0 o posterior (La versión más reciente está disponible en http://www.opencontent.org/openpub/). El contenido está sujeto a constantes cambios sin previo aviso. Su fin es didáctico y solo pretende la universalización de la cultura. Está escrito en base a la colaboración de las miles de personas que componen nuestra comunidad OpenUepc. Se ha exigido a los autores que referencien todas las fuentes utilizadas y figuran al final del texto. Cualquier distribución del mismo debe mencionar a OpenUepc como fuente. Miguel Pérez Fontenla miguelperez@edu.xunta.es INDICE AUTORES

Iniciado por: Miguel Pérez Fontenla 12/12/2009



TABLA DE CONTENIDO INTRODUCCIÓN .................................................................................................................... 4 Fuente : http://es.wikipedia.org/wiki/Combinatoria............ ¡Error! Marcador no definido. ¿Es fácil contar? .................................................................. ¡Error! Marcador no definido. History ................................................................................. ¡Error! Marcador no definido. Applications ........................................................................ ¡Error! Marcador no definido. NUMEROS COMBINATORIOS ........................................... ¡Error! Marcador no definido. El factorial de un numero .................................................... ¡Error! Marcador no definido. Propiedades ......................................................................... ¡Error! Marcador no definido. Otras propiedades más avanzadas ....................................... ¡Error! Marcador no definido. m El número combinatorio   ............................................. ¡Error! Marcador no definido. n Propiedades de los números combinatorios ........................ ¡Error! Marcador no definido. EL BINOMIO DE NEWTON ó TEOREMA DEL BINOMIO¡Error! definido.

Marcador

no

La Formula De Leibnitz ...................................................... ¡Error! Marcador no definido. El Triangulo De Pascal o Tartaglia ..................................... ¡Error! Marcador no definido. El triángulo de Pascal y la sucesión de Fibonacci ............... ¡Error! Marcador no definido. TECNICAS DE CONTAR ..................................................... ¡Error! Marcador no definido. El principio fundamental del conteo ................................... ¡Error! Marcador no definido. El principio del palomar ...................................................... ¡Error! Marcador no definido. Diagramas de árbol. Ramificaciones ................................... ¡Error! Marcador no definido. VARIACIONES ...................................................................... ¡Error! Marcador no definido. Definición conjuntista ......................................................... ¡Error! Marcador no definido. Método constructivo de formación de variaciones ............. ¡Error! Marcador no definido. VARIACIONES CON REPETICIÓN .................................... ¡Error! Marcador no definido. Definición conjuntista ......................................................... ¡Error! Marcador no definido. Método constructivo de formación de variaciones con repetición¡Error! definido.

Marcador

no

PERMUTACIONES ............................................................... ¡Error! Marcador no definido. Definición conjuntista ......................................................... ¡Error! Marcador no definido. Método constructivo de formación de permutaciones ........ ¡Error! Marcador no definido. PERMUTACIONES CON REPETICIÓN ............................. ¡Error! Marcador no definido. Particiones con repetición ordenadas .................................. ¡Error! Marcador no definido. Particiones con repetición no ordenadas ............................. ¡Error! Marcador no definido. | 1


Método constructivo de formación de permutaciones con repetición¡Error! Marcador no definido. COMBINACIONES................................................................ ¡Error! Marcador no definido. Definición conjuntista ......................................................... ¡Error! Marcador no definido. Método Constructivo de formación de las combinaciones . ¡Error! Marcador no definido. COMBINACIONES CON REPETICIÓN .............................. ¡Error! Marcador no definido. Método Constructivo de formación de las combinaciones con repetición¡Error! Marcador no definido.

| 2


| 3


VARIABLE ALEATORIA

Introducción

Vamos a definir varios conceptos necesarios para iniciarnos en la teoría de la Probabilidad y, por añadidura, en la Estadística matemática. Pero de todo lo que vamos a decir hay tres conceptos, que no son exageradamente difíciles, pero tampoco nada fáciles de asimilar para un estudiante de secundaria, incluso universitario, si quiere iniciarse de forma consistente en el estudio de la Estadística. Estos tres conceptos son de suma importancia, sin ellos es imposible entender la teoría que se va a desarrollar a partir de aquí. Estos conceptos son: Variable aleatoria Funcion de probabilidad o función de densidad Función de distribución. Repito, no vamos de dejar de encontrarnos con ellos en cualquier libro de Probabilidad o Estadística de forma tan frecuente que si no se dominan a la perfección, es imposible llenar de contenido pleno lo que estés leyendo. El propósito de estos conceptos es, naturalmente, dotar de una estructura matemática a esta teoría y lograr formalizar los resultados que surjan. Antes de empezar a definirlos, vamos a intentar ilustrarlos con algún ejemplo sencillo. Siempre partiremos de un experimento aleatorio del que ya sabemos calcular su espacio muestral Ω y sabemos también calcular las probabilidades de cada suceso de Ω. Ahora vamos a definir una función (variable aleatoria) que nos defina que es lo que al final queremos computar exactamente con ese experimento aleatorio. Por ejemplo, sabemos que al lanzar dos dados puede ocurrir treinta y seis cosas Ω = { (1,1), (1,2), (1,3),... (6,5), (6,6) }, y sabemos la probabilidad de cada una 1/36, pero nuestro objetivo de lanzar ambos dados podría ser muy variada: 1) Saber la suma de ambas caras (típica); 2) Saber la diferencia de ambas caras; 3) Saber el producto de ambas caras; 4) E l número de resultados pares obtenidos; 5) Decir SI o NO si un resultado es múltiplo del otro; 6) Decir SI o NO se obtiene algún doble; 7) El número de seises obtenidos... Y así todas las que te puedas imaginar. Todas ellas son posibles variables aleatorias que puedes definir sobre este espacio muestral Ω. Para cada v.a. que definas habrá una probabilidad distinta de cada posible resultado. Hasta ahora siemrpe hemos estudiado la probabilidad de cada valor en el primero de los casos, “la suma de ambas caras” pero todo cambiaría si lo que pretendemos es cualquiera de las restantes. De hecho, para el primer caso no tiene sentido hablar de la P(0) pues la suma de las dos caras nunca puede dar 0, pero en el segundo caso si ( o en los casos 4, 5, 6, 7), hay seis maneras de que la segunda v.a. nos dé 0, luego P(0) = 1/6. La función que para cada v.a. | 4


asigna a cada posible resultado su probabilidad se llama función de probabilidad, y cuando hay infinitos posibles resultados se llama función de densidad. Finalmente, cuando ya conozcamos la función de probabilidad, construiremos una función un tanto artificiosa y un poco más difícil de comprender de forma intuitiva, llamada “función de distribución” que lo que hace es acumular las probabilidades a cada resultado de la v.a. todas las probabilidades de los valores previos. A partir de aquí, ya no precisaremos usar los espacios muestrales de nuestros experimentos aleatorios, sino que usaremos las funciones de probabilidad. Enfrentémonos a ello:

| 5


VARIABLES ALEATORIAS DISCRETAS

Variable aleatoria. Definición

Supongamos un experimento aleatorio y que Ω es su espacio muestral. Vamos a suponer que ahora, a cada posible suceso le quiero asignar un número real mediante una aplicación. A esta aplicación se le llama variable aleatoria ξ Ω  →

A  → ξ ( A)

Ejemplo 1

En el lanzamiento de dos dados tenemos su conocido espacio muestral Ω = { (1,1), (1,2).....(6,6)} de 36 elementos. Podríamos definir i) La clásica ξ Ω  →

A  → ξ ( A) = Suma de los valores de las caras por lo que cualquier suceso iría en el conjunto de valores Img(ξ)={ 2,3,4,56,7,8,9,10,11,12 } ii) iii)

Pero también podríamos definir ξ(A) = “Número de resultados pares” en cuyo caso Img(ξ)={ 0,1,2 } Puedes inventarte la aplicación que desees por ejemplo  0 Si la suma de sus caras es menor que 6  ξ ( A) = 1/ 2 Si la suma de sus caras es 6  1 Si la suma de sus caras es mayor que 6 

Ejemplo 2

En el experimento de lanzar tres monedas podríamos definir, entre las que tu mismo te puedas imaginar, estas variables aleatorias: • •

ξ (A) = “Número de caras”, donde Img(ξ) = { 0,1,2,3 } ξ (A) = ”Número de cruces” donde Img(ξ) = { 0,1,2,3 } | 6


• • •

ξ (A) = ”Nº de caras multiplicado por 2 más nº de cruces” donde Img(ξ) = { 3,4,5,6 } ξ (A) = ”Nº de caras menos nº cruces” donde Img(ξ) = { -3,-1,1,3 } ξ (A) = ”Nº de caras elevado al nº cruces” donde Img(ξ) = { 0,1,2 }

Total, que una variable aleatoria no es más que cualquier aplicación que nos inventemos que lleve cualquier suceso de Ω en un número real. Dicho con formalidad conjuntista:

Definición Una variable aleatoria ξ es una aplicación intervalo de

es un suceso de

ξ Ω  →

→ ξ ( A) A 

tal que la imagen inversa de cualquier

.

Variable aleatoria discreta

Variable aleatoria discreta es la que puede tomar un número o bien finito o bien finito numerable de valores

Ejemplo 3 Todas las variables estudiadas en los ejemplos 1 y 2 son discretas Sin embargo, si tomamos una variable aleatoria que a cada persona de una población le asigne su peso, o su estatura, o el tiempo que tarda en realizar 10 flexiones, todas ellas son variables aleatorias continuas porque toman valores en el conjunto de los números reales que es no numerable y continuo.

Vamos a hacer ahora una construcción conjuntista que nos va a permitir, dada una variable aleatoria ξ : Ω  → , obviar el espacio muestral Ω y centrar nuestra investigación siempre en , o mejor dicho en la Img(ξ).

| 7


Sea B⊂Img(ξ) y definimos apartir de él un subconjunto A⊂Ω tal que A = {x∊Ω / ξ (x) ⊂ B } Definido de esta manera A y B son sucesos equivalentes, aunque dentro de conjuntos distintos, además P(A) = P(B) con lo que a partir de ahora podemos obviar el espacio muestral Ω que dio lugar a las probabilidades.

Función de Probabilidad

Dada una variable aleatoria discreta ξ, llamamos su función de probabilidad a la función que asigna a cada posible valor la variable aleatoria, la probabilidad de que dicho valor suceda. f Im g ( ξ ) = {a1 ,..., an }  →

ai  → f ( ai ) = P [ξ = ai ]

Verificando las siguientes propiedades 1)

f (ai ) ≥ 0 ∀i n

2)

∑ f (a ) = 1 si la variable aleatoria es discreta i

i =1

Ejemplo 4

En el apartado i) del ejemplo 1 tenemos que f → {2,3, 4, 5, 6, 78, 9,10,11} 

1 36 2 3  → f (3) = P [ξ = 3] = 36 3 4  → f (4) = P [ξ = 4] = 36 ................... 2  → f (2) = P [ξ = 2] =

12  → f (12) = P [ξ = 12] =

1 36

Donde todas las probabilidades pueden quedar reflejadas mediante una tabla ai =

2

3

4

5

6

7

8

9

10

11

12

P[ξ = ai] 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 Y, si quisiésemos representarla tendríamos

| 8


Grafo de la distribución de probabilidad anterior En el apartado ii) del ejemplo 1 queda la tabla ai =

0

1

2

P[ξ = ai] 1/4 1/4 ½ Con el siguiente GRAFO En el apartado iii) del ejemplo 1 queda ai =

0

1/2

1

P[ξ = ai] 10/36 5/36 21/36

GRAFO En el ejemplo 2, la función de probabilidad para el primer caso ξ (A) = “Número de caras”, donde Img(ξ) = { 0,1,2,3 } viene dada por la tabla ai =

0

1

2

3

P[ξ = ai] 1/8 3/8 3/8 1/8

Dejamos el resto como ejercicio

Ejercicio 1 Se lanza una moneda al aire hasta que salga una cara. Calcula la función e probabilidad de esta variable aleatoria.

Solución Sea el experimento lanzar una moneda al aire hasta que salga cara. Entonces ξ Ω = {C , X }  → definimos la variable aleatoria A  → ξ ( A) = "nº lanzamientos hasta que sale cara" → ξ ( XXXC ) = 4 (XXXC)  Es obvio que ξ(A) puede tomar los valores 1,2,3,4,5..... luego Img(ξ) = {1,2,3,4...,n,...}, es decir, todos los números naturales, que son numerables y por tanto ξ es discreta.

| 9


Ahora valos a estudiar su función de probabilidad f → {1, 2,..., n,...} 

1  → f (1) = P [ξ = 1] =

1 2

1 1 1 2  → f (2) = P [ξ = 2] = ⋅ = 2 2 4 ....................... n  → f (n) = P [ξ = n ] =

1 2n

Con lo que queda la siguiente tabla de probabilidades ai =

1

2

3

4

...... n

P[ξ = ai] 1/2 1/4 1/8 1/16 ....

.....

1/2n .....

1 1 Donde se verifica que ∑ n = 2 = 1 por ser la suma de los ilimitados términos de 1 i =1 2 1− 2 una progresión geométrica con a1 = 1/2 y r = 1/2. n

Ejercicio 2 Una urna contiene 5 bolas blancas y 4 rojas. Extraemos 3 bolas al azar y consideramos la v.a. “nº de bolas rojas extraídas”. Escribe la función de probabilidad de este experimento aleatorio.

Solución El espacio muestral contiene C9,3 = 84 elementos posibles. Defino sobre este espacio muestral la v.a. ξ definida por “nº de bolas rojas extraídas” cuyos posibles resultados son 0,1,2 y 3. Calculemos ahora la tabla de probabilidades de ξ xi =

0

1

2

3

P[ξ = xi]

 5    3  = 10  9  84   3

 5  4      2  1  = 40 84 9    3

5 4     1   2  = 30 84 9    3

 4    3 = 4  9  84    3

| 10


| 11


Función de Distribución

Sea ξ una variable aleatoria discreta, con Img(ξ) = {x1, x2, ..., xn....} y sea p su función de probabilidad. F  →

Definimos Función de distribución de ξ a la función

→ F ( x) = P [ξ ≤ x ] = x 

x

p(k )

es

k =−∞

decir, la función que asigna a cada x la suma de las probabilidades de los valores de la variable aleatoria inferiores a x.

Esta función va tomando los siguientes valores en ℝ: F  → x

x  → F ( x ) = P [ξ ≤ x ] =

∑ p(k )

k =−∞

x ∈ ( −∞, x1 )  → F ( x) = 0 x ∈ [ x1 , x2 )  → F ( x) = p ( x1 ) x ∈ [ x2 , x3 )  → F ( x) = p ( x1 ) + p ( x2 ) ................ x ∈ [ xn −1 , xn )  → F ( x) = p ( x1 ) + p ( x2 ) + ... + p ( xn −1 ) n

x ∈ [ xn , ∞ )  → F ( x) = p ( x1 ) + p ( x2 ) + ... + p ( xn ) = ∑ p ( xi ) =1 i =1

Lo cual queda representado en su gráfica, que es la típica de una función de distribución de una variable aleatoria discreta:

| 12


Teorema Si ξ una variable aleatoria discreta se tiene que F ( x) = ∑ p ( xi ) ∀j / x j < x j

Teorema

Sea ξ una v.a. discreta de posibles valores x1, x2, ..... y supongamos que es posible colocar esos valores de manera que x1 < x2 < x3 < .... entonces P ( x j ) = P ξ = x j  = F ( x j ) − F ( x j −1 )

Demostración

F ( x j ) = P ξ = x j U ξ = x j −1 U ... U ξ = x1  = P ( x j ) + P ( x j −1 ) + ... + P ( x1 ) F ( x j −1 ) = P ξ = x j −1 U ξ = x j − 2 U ... U ξ = x1  = P ( x j −1 ) + P ( x j − 2 ) + ... + P ( x1 ) F ( x j ) − F ( x j −1 ) = P ξ = x j  = p ( x j )

NOTA IMPORTANTE Aunque pueda dar lugar a algún tipo de confusión, a partir de ahora, tanto sea discreta como continua la v.a. ξ, en lugar de llamar p a su función de probabilidad, como hemos venido haciendo en el actual caso discreto, le vamos a llamar f , que es como también la denotaremos en el caso continuo y que allí se llamará función de densidad y F a su función de distribución

| 13


Ejemplo 5

Una urna contiene 3 bolas blancas, 2 rojas y 1 bola negra. Extraemos 1 bola al azar y consideramos la v.a. que vale 1 si la bola elegida es blanca, 2 si es roja y 3 si es negra.. Escribe la función de probabilidad y la de distribución de este experimento aleatorio.

Solución ξ Ω  →

La variable aleatoria

1 Si A es blanca  → ξ ( A) = 2 Si A es roja A  3 Si A es negra 

La función de probabilidad viene dada por la tabla xi =

1

2

3

f(x)=P[ξ = xi]

3 6

2 6

1 6 F  →

Si x<1 0 3  Si 1 ≤ x<2 y su gráfica: Y la función de distribución es 6 x  → F ( x) =   5 Si 2 ≤ x<3 6 1 Si 3 ≤ x 

| 14


Ejercicio Sea ξ una v.a. tal que Img(ξ) = { 0, 1, 3 } y que tiene por función de probabilidad k f ( xi ) = xi + 3 a) Determinar el valor de k b) Escribir la tabla de la función de probabilidad c) Dibujar la función e distribución

Solución

Para que f sea una función de probabilidad bien definida deben ser f(xi) > 0 y ∑ f ( xi ) = 1 por lo que

k k k k k k 9k 4 + + = + + = =1⇔ k = 0 + 3 1 + 3 3 + 3 3 4 6 12 3 tenemos la tabla de probabilidades f (0) + f (1) + f (3) =

xi = P[ξ = xi]

0

1

4

3 =4 0+3 9

de

donde

3

4

3 =1 1+ 3 3

4

3 =2 3+3 9

Y la función de distribución es

| 15


| 16


Definición: Esperanza o Valor esperado

Sea ξ una v.a. discreta con Img(ξ) = { x1, x2, ..... xn } y sea p su función de probabilidad y sea n

f su función de probabilidad. Definimos el valor esperado de ξ a E [ξ ] = ∑ xi f ( xi ) i =1

Muchos autores denotan a E[ξ] por la letra griega µ y, en ocasiones, también usaremos esa notación indistintamente con la E[ξ].

Propiedades de la Esperanza.

1) Si ξ una v.a. discreta constante ξ(x) = k para todo x, entonces E[ξ] = k 2) Si k es una constante entonces E[k ξ] = k E[ξ] 3) Si ξ1 y ξ2 son dos v.a. entonces E[ξ1 + ξ2] = E[ξ1] + E[ξ2]

Varianza de una variable aleatoria

Sea ξ una v.a. definimos el la varianza de valor esperado de ξ y se denota por Var(ξ ) o por n

σ2(ξ) a σ 2 (ξ ) = ∑ ( xi − µ ) f ( xi ) = E ξ − E [ξ ]

2

i =1

NOTA Este simbolismo coincide exactamente con el estudiado para la media de una población estadística estudiada en Estadística descriptiva, lo que ocurre es que los matemáticos usamos notación más elegante para diferenciarnos. Nosotros habíamos visto que para una población x1, x2 …, xn con unas frecuencias fr(x1), fr(x2) …, fr(xn) ahora a esos valores xi los denotamos por una simple ξ porque ahora constituyen la Img(ξ) y las frecuencias relativas son ahora las probabilidades de cada xi. La media de una colección de n

valores xi era x = ∑ xi fr ( xi ) que en nuestro caso es E [ξ ] , mientras que la varianza era i =1

n

(

)

σ 2 = ∑ xi − x ⋅ fr ( xi ) y ahora es σ 2 ( ξ ) = E ξ − E [ξ ] . Conviene que lo analices bien si i =1

2

2

te quedan dudas, y asientes en tu cerebro que ambas expresiones son similares, pero en distintos ámbitos.

| 17


Desviación estándar A la raiz cuadrada positiva de σ2(ξ) se le denomina desviación estándar o típica de ξ y se denota por σ (ξ)

Teorema

σ 2 (ξ ) = E ξ 2  −  E (ξ ) 

2

Demostración 2 2 2 σ 2 (ξ ) = E ξ − E (ξ )  = E ξ 2 − 2ξ E (ξ ) +  E (ξ )   = E ξ 2  − 2 E (ξ ) E (ξ ) +  E (ξ )  = ...

... = E ξ 2  −  E (ξ ) 

2

Propiedades de la Esperanza

Sea k una constante o número real. Se verifica que 1) E (ξ + k ) = E (ξ ) + k 2) E ( k ⋅ ξ ) = k ⋅ E ( ξ )

Demostración

n

n

E (ξ + k ) = ∑ ( xi + k ) f ( xi ) = ∑ ( xi ) f ( xi ) + k ⋅ f ( xi )  = ... 1)

i =1

i =1

n

n

... = ∑ ( xi ) f ( xi ) + k ⋅ ∑ f ( xi ) = E (ξ ) + k ⋅1 = E ( ξ ) + k i =1

i =1

n

n

i =1

i =1

2) E ( k ⋅ ξ ) = ∑ ( k ⋅ xi ) f ( xi ) = k ∑ xi f ( xi ) = k ⋅ E (ξ )

Propiedades de la varianza

1. σ 2 (ξ + k ) = σ 2 (ξ ) 2. σ 2 ( k ⋅ ξ ) = k 2 ⋅ σ 2 (ξ )

| 18


3. Sea ξ una v.a. con varianza finita, entonces

σ 2 (ξ ) = E ( ξ − α ) −  E (ξ − α )  2

2

∀α ∈

Demostración

1. σ 2 (ξ + k ) = E (ξ + k ) − E (ξ + k )  = E ξ + k − E (ξ ) − k  = E ξ − E (ξ )  = σ 2 (ξ ) 2

2

2

( )

2 2 2 2. σ 2 ( k ⋅ ξ ) = E ( k ⋅ ξ )  − E ( k ⋅ ξ )  = k 2 E ξ 2 − k 2 E [ξ ] = k 2 ⋅ σ 2 (ξ )  

3. σ 2 (ξ ) = E ( ξ − α ) −  E (ξ − α )  2

2

∀α ∈

PENDIENTE DEMOSTRACION

Hemos definido la esperanza y varianza para una v.a. discreta finita con Img(ξ) = { x1, x2, ..... xn }. Si Img(ξ) = { x1, x2, ..... xn ......} tuviese infinitos valores pero numerables (que también es caso discreto) las fórmulas de la esperanza y la varianza se convierten en ∞

i =1

i =1

E [ξ ] = ∑ xi f ( xi ) y σ 2 ( ξ ) = ∑ ( xi − µ ) f ( xi ) donde estas funciones solo tienen sentido si

las series son convergentes.

Ejemplo 6

En el experimento aleatorio de lanzar tres monedas se define la v.a. ξ = “nº de caras” Determinar su esperanza matemática.

Solución

Hemos visto en muchas ocasiones que el espacio muestral de este experimento es Ω = { (CCC), (CCX) (CXC) (XCC) (CXX) (XCX) (XXC) (XXX)} y la variable aleatoria sería ahora

| 19


ξ Ω  →

0 1  → ξ ( A) =  A  2 3

caras caras . Donde la función de probabilidad asociada resulta: caras caras xi =

0

1

2

3

P[ξ = xi]

1 8

3 8

3 8

1 8

n 1 3 3 1 0 + 3 + 6 + 3 12 La esperanza E [ξ ] = ∑ xi f ( xi ) = 0 ⋅ + 1 ⋅ + 2 ⋅ + 3 ⋅ = = = 1.5 8 8 8 8 8 8 i =1 n 1 3 3 1 0 + 3 + 12 + 9 24 2 Y E ξ 2  = ∑ xi f ( xi ) = 02 ⋅ + 12 ⋅ + 22 ⋅ + 32 ⋅ = = =3 8 8 8 8 8 8 i =1

De donde la varianza es σ 2 (ξ ) = E ξ 2  −  E (ξ )  = 3 − 1.52 = 0.75 2

Ejemplo 6

Un dado está trucado de manera que la probabilidad de salir 5 es el triple que las demás caras. Cuál es la esperanza y la varianza de la variable aleatoria ξ que indica el número obtenido

Solución

El espacio muestral es el habitual Ω = { 1, 2, 3, 4, 5, 6} y la función de probabilidad para ξ = “número obtenido en un lanzamiento” es: xi =

1

2

3

4

5

6

P[ξ = xi]

1 8

1 8

1 8

1 8

3 8

1 8

Luego

la esperanza 1 1 1 1 3 1 1 + 2 + 3 + 4 + 15 + 6 31 E [ξ ] = 1⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ + 5 ⋅ + 6 ⋅ = = = 3.875 8 8 8 8 8 8 8 8 | 20

es


Y para calcular la varianza:

1 1 1 1 3 1 1 + 4 + 9 + 16 + 125 + 36 191 E ξ 2  = 1⋅ + 22 ⋅ + 32 ⋅ + 42 ⋅ + 52 ⋅ + 62 ⋅ = = = 23.875 8 8 8 8 8 8 8 8

σ 2 (ξ ) = E ξ 2  −  E (ξ )  = 23.875 − 3.8752 = 8.85 2

Ejemplo 7

Cuando hace día de sol un chiringuito de playa ingresa 10,000 € y cuando no hace sol ingresa 4,000 €. Si la probabilidad de día soleado es 0.6, calcula la esperanza de ingresos

Solución

El espacio muestral es Ω = { “Sol”, “No sol”} y la función de probabilidad para ξ = “ingresos” es: xi =

10,000 4,000

P[ξ = xi] 0.6

0.4

Luego la esperanza es E [ξ ] = 10000 ⋅ 0.6 + 4000 ⋅ 0.4 = 6000 + 1600 = 7600 Como E ξ 2  = 10000 2 ⋅ 0.6 + 4000 2 ⋅ 0.4 = 66400000 La varianza es σ 2 (ξ ) = E ξ 2  −  E ( ξ )  = 66400000 − 76002 = 8640000 2

Ejercicio

Una moneda está trucada de forma que la probabilidad de sacar cara es el doble de sacar cruz. Lanzamos la moneda hasta que salga una cara o 4 cruces. ¿Cuál es el número esperado de lanzamientos?

| 21


Solución

El espacio muestral es Ω = { C, XC, XXC, XXXC, XXXX } y la función de probabilidad para ξ = “nº lanzamientos” es: xi =

1

2

3

4

P[ξ = xi] 0.667 0.222 0.074 0.025 + 0.012 = 0.037

Luego la esperanza es E [ξ ] = 1⋅ 0.667 + 2 ⋅ 0.222 + 3 ⋅ 0.074 + 4 ⋅ 0.037 = 1.481

| 22


DISTRIBUCION DE BERNUILLI

También llamada dicotómica y debida a Jakob Bernuilli (1654-1705)

Consideremos un experimento aleatorio donde solo pueden darse dos sucesos independientes A y Ac con probabilidades P(A) = p y P(Ac) = q, tales que p + q = 1. Supongamos que realizamos una sola prueba de este suceso. Definimos la variable aleatoria siguiente: ξ Ω  →

0 Si no sucede A A  → ξ ( A) =  Si sucede A 1

A esta v.a. así definida se le llama distribución de Bernuilli y se denota por Ber(p). Es, quizás, la más básica de las distribuciones posibles. Como solo se realiza un único experimento, también se llama prueba de Bernuilli. Las probabilidades de cada valor son P( ξ = 1 ) = p P( ξ = 0 ) = q = 1 – p Por lo que la función de probabilidad viene dada por la tabla xi =

0 1

P[ξ = xi] q p

Y la función de distribución de una Ber(p) resulta F  →

si x<0 0  x  → F ( x) =  q si 0 ≤ x<1   1 si 1 ≤ p

Ejemplo 8 | 23


El ejemplo más típico es el de lanzar una moneda al aitre y comprobar si sale cara C o cruz X. La v.a. que definiríamos es ξ Ω = {C , X }  →

1 Si sucede C → ξ ( A) =  A  0 Si sucede X Con probabilidades P(ξ = 1) = p = ½ y P(ξ = 0) = q = ½ Se puede escribir esto en la tabla ai =

0

1

P[ξ = ai] ½ ½

E [ξ ] =

Esperanza E[ξ]

∑ x p( x ) = 0 ⋅ q + 1⋅ p = p i

i

xi = 0,1

E[ξ2]

E ξ 2  =

∑x

2

i

p ( xi ) = 0 2 ⋅ q + 12 ⋅ p = p

xi = 0,1

Var [ξ ] = E ξ 2  − E [ξ ] = p − p 2 = p (1 − p ) = p ⋅ q

Varianza Var[ξ]

2

Y su función característica, que estudiaremos más adelante, adelantamos ahora que viene dada por φξ (t ) = ∑ ei⋅t ⋅ xi y, en este caso resulta xi ∈ξ

Función característica

φξ (t ) =

∑e

i ⋅t ⋅ xi

p ( xi ) = ei⋅t ⋅0 p (0) + ei⋅t ⋅1 p (1) = q + peit

xi = 0,1

Conocida la función característica, hay un importante resultado, que también veremos en su momento, que nos permite calcular la E[ξ] y la Var[ξ] a partir de ella mediante E [ξ ] = φξ '(0) y

Var [ξ ] = φξ ''(0)

| 24


DISTRIBUCION BINOMIAL

Consideremos un experimento aleatorio donde solo pueden darse dos sucesos independientes A y Ac con probabilidades P(A) = p y P(Ac) = q, tales que p + q = 1. Supongamos que realizamos n pruebas independientes y definimos la variable aleatoria siguiente: ξ Ω  →

A  → ξ ( A) = numero de veces que ocurre A A esta v.a. ξ así definida se le llama binomial de parámetros n y p, es decir B(n.p), y a cada prueba que realicemos es un ensayo de Bernuilli visto en el apartado previo. Podríamos entonces haber definido la distribución Binomial com la suma de n distribuciones de Bernuilli ξ = ξ1 + ξ 2 + ... + ξ n donde ξi ∈ Ber ( p )

Ejemplo 9

El ejemplo más obvio para una situación como esta sería lanzar una moneda. Sólo puede suceder C ó X con probabilidades p = q = 1/2 cada una. Si hacemos este experimento n = 6 veces quedaría ξ Ω  →

(CCCXCX )  → ξ (CCCXCX ) = 4 (CXXCCX )  → ξ (CXXCCX ) = 3

Teorema n n−k Si ξ es una B(n,p) entonces P [ξ = k ] =   p k (1 − p ) k 

Demostración

Supongamos que al realizar n pruebas ocurre A k veces y Ac (n – k) veces., supongamos que ocurre en el siguiente orden AAA... (k... A Ac Ac ...(n-k... Ac como son independientes se tiene que P( AAA... (k...AA Ac Ac. ...(n-k...Ac ) = P(A) P(A)... (k... P(A)P( Ac) P( Ac) ...(n-k... P( Ac) = pk (1-p)n-k

| 25


Pero esta ordenación que hemos hecho hay permutaciones con repetición de estos n n! que coincide elementos donde hay k repetidos y ( n-k ) repetidos, es decir Pnk ,n− k = k !(n − k )! n con el número combinatorio   por lo tanto k  P [ξ = k ] =

n n! n−k n−k p k (1 − p ) =   p k (1 − p ) k !(n − k )! k 

Ejemplo

La probabilidad de que al lanzar 5 veces una moneda salgan exactamente dos veces cara es

5!  1  P [ξ = 2] =   2!3!  2 

2

3

2

3

5

 1   5 1   1   1  10 1 −  =  2      = 10   =  2    2   2   2  32

Y la probabilidad de 5 caras (que obviamente es 1/32) con este modelo coincide: 5

0

5

 5  1   1  1 1 P [ξ = 5] =       = 1  =  2  32  5  2   2 

La función de distribución de la B(n,p) es

F  →

0   [ x]  n x  → F ( x) = ∑   p k q n − k  k =0  k  1 

Esperanz a E[ξ]

si x<0 si 0 ≤ x<n si n ≤ x

E [ξ ] = E [ξ1 + ... + ξn ] = E [ξ1 ] + ..( n.. + E [ξn ] = p + ..( n.. + p = np

| 26


E[ξ2]

2 E ξ 2  = E (ξ1 + ... + ξn )  = n(n − 1) p 2 + np  

Varianza Var[ξ]

Var ξ 2  = E ξ 2  − E [ξ ] =  n(n − 1) p 2 + np  − ( np ) = − np 2 + np = np (1 − p ) = npq 2

2

Y mencionaremos aquí, aunque no la hemos descrito teóricamente todavía, la denomina función característica de cada distribución que, según veremos en su momento, es de gran utilidad para el cálculo de todos los valores previos E[ξ] y Var[ξ], además de otras propiedades.

Función característica

φξ (t ) = φξ +...+ξ (t ) = φξ (t )...φξ (t ) = ( q + peit ) ... ( q + peit ) = ( q + peit ) 1

n

1

n

n

Ejemplo 10 De una familia sabemos que tiene 5 hijos, ¿qué probabilidad hay que sean 3 chicas y 2 chicos? ¿y de haya al menos 4 chicas? ¿y que por lo menos haya una chica?

Solución Es una distribución binomial donde ξ es “número de chicas” y los sucesos chico chica son independientes con probabilidad 0.5, luego las tres respuestas son 5 2 P [ξ = 3] =   0.53 (1 − 0.5 ) = 10 ⋅ 0.125 ⋅ 0.25 = 0.3125  3 3  5 5 −i P [ξ ≥ 4] = 1 − P [ξ ≤ 3] = 1 − ∑   0.5i (1 − 0.5 ) = 1 − 0.8125 = 0.1875 i =1  i 

5 5 P [ξ ≥ 1] = 1 − P [ξ = 0] = 1 −   0.50 (1 − 0.5 ) = 1 − 0.55 = 0.96875 0

Ejemplo 11 Lanzamos 100 veces dos dados ¿ Cuál es la frecuencia esperada de que sumen 7?

Solución | 27


Supongamos el experimento de lanzar Si suman 7 1 ξ = con probabilidades 0 Si no suman 7 xi =

1

los

dos

dados

y

sea

la

v.a.

0

P[ξ = xi] 6/36 30/36

Si lanzo 100 veces, estamos ante una binomial de esperanza np = 100*6/36 = 16.667

Ejemplo 12 Aproximadamente el 45% de los europeos tienen grupo sanguíneo 0+ ó universal. Ocurrido un accidente, necesitamos urgentemente algún donante de tipo 0+ pero, por la premura de tiempo, se eligen al azar a 8 personas que se encuentran accidentalmente en el hospital ¿cuál es la probabilidad de que alguno tenga el grupo sanguíneo 0+?

Solución Si tiene grupo sanguineo 0+ 1 Elegidas una personas al azar definimos ξ =  con 0 Si no tiene grupo sanguineo 0+ probabilidad P[ξ = 1] = 0.45 Si ahora elegimos 8 personas al azar estamos ante una B(8 , 0.45) y P[Al menos uno sea 0+] = 1 – P[ninguno es 0+] = 1 – 0,0083 = 0.9917

Para n grande o probabilidades con varios decimales significativos, estos cálculos pueden resultar complejos. Ponemos a disposición de los estudiantes un tabla de la binomial donde n varía hasta 10 y las probabilidades del suceso A varían desde 0 hasta uno avanzando de 0.05. http://ficus.pntic.mec.es/~jgam0105/sorpresa/291.jpg

No obstante, cualquier calculadora moderna o la misma hoja Excel disponen de esta función incorporada. Por ejemplo, para el ejemplo 10 previo las tres respuestas en Excel se obtienen mediante = DISTR.BINOM(3;5;0,5;0) = 0.3125 | 28


= 1 - DISTR.BINOM(3;5;0,5;1) = 0.1875 = 1 - DISTR.BINOM(0;5;0,5;0) = 0.96875

| 29


| 30


| 31


Probabilidades BINOMIALES.

k n n −i f (k ) = P [ξ ≤ k ] = ∑   pi (1 − p ) i =1  i 

n

k

0,01

0,05

0,10

0,15

0,20

0,25

0,30

0,33

0,35

0,40

0,45

0,49

0,50

2

0 1 2 0 1 2 3 0 1 2 3 4 0 1 2 3 4 5 0 1 2 3 4 5 6 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7

0,9801 0,0198 0,0001 0,9703 0,0294 0,0003 0,0000 0,9606 0,0388 0,0006 0,0000 0,0000 0,9510 0,0480 0,0010 0,0000 0,0000 0,0000 0,9415 0,0571 0,0014 0,0000 0,0000 0,0000 0,0000 0,9321 0,0659 0,0020 0,0000 0,0000 0,0000 0,0000 0,0000 0,9227 0,0746 0,0026 0,0001 0,0000 0,0000 0,0000 0,0000 0,0000 0,9135 0,0830 0,0034 0,0001 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,9044 0,0914 0,0042 0,0001 0,0000 0,0000 0,0000 0,0000

0,9025 0,0950 0,0025 0,8574 0,1354 0,0071 0,0001 0,8145 0,1715 0,0135 0,0005 0,0000 0,7738 0,2036 0,0214 0,0011 0,0000 0,0000 0,7351 0,2321 0,0305 0,0021 0,0001 0,0000 0,0000 0,6983 0,2573 0,0406 0,0036 0,0002 0,0000 0,0000 0,0000 0,6634 0,2793 0,0515 0,0054 0,0004 0,0000 0,0000 0,0000 0,0000 0,6302 0,2985 0,0629 0,0077 0,0006 0,0000 0,0000 0,0000 0,0000 0,0000 0,5987 0,3151 0,0746 0,0105 0,0010 0,0001 0,0000 0,0000

0,8100 0,1800 0,0100 0,7290 0,2430 0,0270 0,0010 0,6561 0,2916 0,0486 0,0036 0,0001 0,5905 0,3281 0,0729 0,0081 0,0005 0,0000 0,5314 0,3543 0,0984 0,0146 0,0012 0,0001 0,0000 0,4783 0,3720 0,1240 0,0230 0,0026 0,0002 0,0000 0,0000 0,4305 0,3826 0,1488 0,0331 0,0046 0,0004 0,0000 0,0000 0,0000 0,3874 0,3874 0,1722 0,0446 0,0074 0,0008 0,0001 0,0000 0,0000 0,0000 0,3487 0,3874 0,1937 0,0574 0,0112 0,0015 0,0001 0,0000

0,7225 0,2550 0,0225 0,6141 0,3251 0,0574 0,0034 0,5220 0,3685 0,0975 0,0115 0,0005 0,4437 0,3915 0,1382 0,0244 0,0022 0,0001 0,3771 0,3993 0,1762 0,0415 0,0055 0,0004 0,0000 0,3206 0,3960 0,2097 0,0617 0,0109 0,0012 0,0001 0,0000 0,2725 0,3847 0,2376 0,0839 0,0185 0,0026 0,0002 0,0000 0,0000 0,2316 0,3679 0,2597 0,1069 0,0283 0,0050 0,0006 0,0000 0,0000 0,0000 0,1969 0,3474 0,2759 0,1298 0,0401 0,0085 0,0012 0,0001

0,6400 0,3200 0,0400 0,5120 0,3840 0,0960 0,0080 0,4096 0,4096 0,1536 0,0256 0,0016 0,3277 0,4096 0,2048 0,0512 0,0064 0,0003 0,2621 0,3932 0,2458 0,0819 0,0154 0,0015 0,0001 0,2097 0,3670 0,2753 0,1147 0,0287 0,0043 0,0004 0,0000 0,1678 0,3355 0,2936 0,1468 0,0459 0,0092 0,0011 0,0001 0,0000 0,1342 0,3020 0,3020 0,1762 0,0661 0,0165 0,0028 0,0003 0,0000 0,0000 0,1074 0,2684 0,3020 0,2013 0,0881 0,0264 0,0055 0,0008

0,5625 0,3750 0,0625 0,4219 0,4219 0,1406 0,0156 0,3164 0,4219 0,2109 0,0469 0,0039 0,2373 0,3955 0,2637 0,0879 0,0146 0,0010 0,1780 0,3560 0,2966 0,1318 0,0330 0,0044 0,0002 0,1335 0,3115 0,3115 0,1730 0,0577 0,0115 0,0013 0,0001 0,1001 0,2670 0,3115 0,2076 0,0865 0,0231 0,0038 0,0004 0,0000 0,0751 0,2253 0,3003 0,2336 0,1168 0,0389 0,0087 0,0012 0,0001 0,0000 0,0563 0,1877 0,2816 0,2503 0,1460 0,0584 0,0162 0,0031

0,4900 0,4200 0,0900 0,3430 0,4410 0,1890 0,0270 0,2401 0,4116 0,2646 0,0756 0,0081 0,1681 0,3602 0,3087 0,1323 0,0284 0,0024 0,1176 0,3025 0,3241 0,1852 0,0595 0,0102 0,0007 0,0824 0,2471 0,3177 0,2269 0,0972 0,0250 0,0036 0,0002 0,0576 0,1977 0,2965 0,2541 0,1361 0,0467 0,0100 0,0012 0,0001 0,0404 0,1556 0,2668 0,2668 0,1715 0,0735 0,0210 0,0039 0,0004 0,0000 0,0282 0,1211 0,2335 0,2668 0,2001 0,1029 0,0368 0,0090

0,4444 0,4444 0,1111 0,2963 0,4444 0,2222 0,0370 0,1975 0,3951 0,2963 0,0988 0,0123 0,1317 0,3292 0,3292 0,1646 0,0412 0,0041 0,0878 0,2634 0,3292 0,2195 0,0823 0,0165 0,0014 0,0585 0,2048 0,3073 0,2561 0,1280 0,0384 0,0064 0,0005 0,0390 0,1561 0,2731 0,2731 0,1707 0,0683 0,0171 0,0024 0,0002 0,0260 0,1171 0,2341 0,2731 0,2048 0,1024 0,0341 0,0073 0,0009 0,0001 0,0173 0,0867 0,1951 0,2601 0,2276 0,1366 0,0569 0,0163

0,4225 0,4550 0,1225 0,2746 0,4436 0,2389 0,0429 0,1785 0,3845 0,3105 0,1115 0,0150 0,1160 0,3124 0,3364 0,1811 0,0488 0,0053 0,0754 0,2437 0,3280 0,2355 0,0951 0,0205 0,0018 0,0490 0,1848 0,2985 0,2679 0,1442 0,0466 0,0084 0,0006 0,0319 0,1373 0,2587 0,2786 0,1875 0,0808 0,0217 0,0033 0,0002 0,0207 0,1004 0,2162 0,2716 0,2194 0,1181 0,0424 0,0098 0,0013 0,0001 0,0135 0,0725 0,1757 0,2522 0,2377 0,1536 0,0689 0,0212

0,3600 0,4800 0,1600 0,2160 0,4320 0,2880 0,0640 0,1296 0,3456 0,3456 0,1536 0,0256 0,0778 0,2592 0,3456 0,2304 0,0768 0,0102 0,0467 0,1866 0,3110 0,2765 0,1382 0,0369 0,0041 0,0280 0,1306 0,2613 0,2903 0,1935 0,0774 0,0172 0,0016 0,0168 0,0896 0,2090 0,2787 0,2322 0,1239 0,0413 0,0079 0,0007 0,0101 0,0605 0,1612 0,2508 0,2508 0,1672 0,0743 0,0212 0,0035 0,0003 0,0060 0,0403 0,1209 0,2150 0,2508 0,2007 0,1115 0,0425

0,3025 0,4950 0,2025 0,1664 0,4084 0,3341 0,0911 0,0915 0,2995 0,3675 0,2005 0,0410 0,0503 0,2059 0,3369 0,2757 0,1128 0,0185 0,0277 0,1359 0,2780 0,3032 0,1861 0,0609 0,0083 0,0152 0,0872 0,2140 0,2918 0,2388 0,1172 0,0320 0,0037 0,0084 0,0548 0,1569 0,2568 0,2627 0,1719 0,0703 0,0164 0,0017 0,0046 0,0339 0,1110 0,2119 0,2600 0,2128 0,1160 0,0407 0,0083 0,0008 0,0025 0,0207 0,0763 0,1665 0,2384 0,2340 0,1596 0,0746

0,2601 0,4998 0,2401 0,1327 0,3823 0,3674 0,1176 0,0677 0,2600 0,3747 0,2400 0,0576 0,0345 0,1657 0,3185 0,3060 0,1470 0,0282 0,0176 0,1014 0,2436 0,3121 0,2249 0,0864 0,0138 0,0090 0,0604 0,1740 0,2786 0,2676 0,1543 0,0494 0,0068 0,0046 0,0352 0,1183 0,2273 0,2730 0,2098 0,1008 0,0277 0,0033 0,0023 0,0202 0,0776 0,1739 0,2506 0,2408 0,1542 0,0635 0,0153 0,0016 0,0012 0,0114 0,0494 0,1267 0,2130 0,2456 0,1966 0,1080

0,2500 0,5000 0,2500 0,1250 0,3750 0,3750 0,1250 0,0625 0,2500 0,3750 0,2500 0,0625 0,0313 0,1563 0,3125 0,3125 0,1563 0,0313 0,0156 0,0938 0,2344 0,3125 0,2344 0,0938 0,0156 0,0078 0,0547 0,1641 0,2734 0,2734 0,1641 0,0547 0,0078 0,0039 0,0313 0,1094 0,2188 0,2734 0,2188 0,1094 0,0313 0,0039 0,0020 0,0176 0,0703 0,1641 0,2461 0,2461 0,1641 0,0703 0,0176 0,0020 0,0010 0,0098 0,0439 0,1172 0,2051 0,2461 0,2051 0,1172

3

4

5

6

7

8

9

10

| 32


8 9 10

0,0000 0,0000 0,0000

0,0000 0,0000 0,0000

0,0000 0,0000 0,0000

0,0000 0,0000 0,0000

0,0001 0,0000 0,0000

0,0004 0,0000 0,0000

0,0014 0,0001 0,0000

0,0030 0,0003 0,0000

0,0043 0,0005 0,0000

0,0106 0,0016 0,0001

0,0229 0,0042 0,0003

| 33

0,0389 0,0083 0,0008

0,0439 0,0098 0,0010


DISTRIBUCIÓN BINOMIAL NEGATIVA

Sobre una sucesión de v.a. de Bernouilli independientes, {ξi }i =1,..,n → Ber ( p) se define la v.a. ξ como el número de fracasos obtenidos hasta la aparición de r éxitos en la sucesión {ξ n } . En este caso se dice que ξ sigue una ley de distribución binomial negativa de parámetros r y p y se denota ξ ↝Bn(r,p). Su ley de probabilidad es

 k + r − 1 r −1 k  k + r − 1 r k f (k ) = P[ξ = k ] =  p = p q ⋅ { p q r −1  k 1442443   exito final r-1 exitos

De nuevo, el conjunto de posibles valores de esta v.a. discreta es k={0,1,2,3,.....} = ℕ

Su función característica es Función característica

 q  φξ (t ) = E e  =  it   1 − pe 

r

itξ

Y su esperanza y varianza

Función probabilidad

 k + r − 1 r k f (k ) =  p q  k 

Esperanza E[ξ]

E [ξ ] =

E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  = E ξ 2  − E [ξ ] =

rq p

2

rq p2

Ejemplo

| 34


Para tratar a un paciente de una afección de pulmón han de ser operados en operaciones independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal que si todo va bien, lo que ocurre con probabilidad de 7/11, el lóbulo queda definitivamente sano, pero si no es así se deberá esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se practicará la cirugía hasta que 4 de sus 5 lóbulos funcionen correctamente. ¿Cuál es el valor esperado de intervenciones que se espera que deba padecer el paciente? ¿Cuál es la probabilidad de que se necesiten 10 intervenciones?

Solución Este es un ejemplo claro de experimento aleatorio regido por una ley binomial negativa, ya que se realizan intervenciones hasta que se obtengan 4 lóbulos sanos, y éste es el criterio que se utiliza para detener el proceso. Identificando los parámetros se tiene: ξ =”número de intervenciones quirúrgicas hasta obtener r = 4 positivas” ξ ↝Bn(r = 4 , p = 7/11).

Lo que nos interesa es medir el número de intervenciones, Y, más que el número de éxitos hasta el r-ésimo fracaso. La relación entre ambas v.a. es muy simple: Y = ξ + r

4⋅ 7 rq 11 + 4 = 11 Luego E [Y ] = E [ξ + r ] = E [ξ ] + r = + r = 4 p 11 Luego el número esperado de intervenciones que deberá sufrir el paciente es de 11. La probabilidad de que el número de intervenciones sea Y = 10, es la de que ξ = 10 – 4 = 6. Por tanto:

 6 + 4 − 1 4 6  4   4  P[Y = 10] = P[ξ = 6] =   p q =     = 0.03185  11   11   6  6

4

NOTA La distribución binomial negativa también se puede definir como el número de pruebas hasta la aparición de r éxitos. Como el número de pruebas contabiliza tanto los éxitos como los fracasos se tendría según ésta definición que

Función probabilidad

 k − 1 k − r r f (k ) =  p q  r −1

k = r , r + 1, r + 2,...., ∞

| 35


Esperanza E[ξ]

E [ξ ] =

E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  =

rp r +r = q p

rp q2

Fuente http://www.bioestadistica.uma.es/libro/node72.htm

| 36


DISTRIBUCION GEOMETRICA

Supongamos un experimento aleatorio consistente en n pruebas ξi de Bernuilli donde p es la probabilidad de éxito y q = (1 – p) probabilidad de fracaso y definimos la siguiente v.a. ξ Ω  →

A  → ξ ( A) = Suma de fracasos hasta producirse el primer exito Se dice que una v.a. ξ sigue la distribución geométrica y denotamos por ξ ↝ Geo(p) si esta es la suma de los fracasos obtenidos hasta la aparición del primer éxito en la sucesión de pruebas de Bernuilli

{ ξi } ↝ Ber(p) i=1,2,...∞ , donde la v.a. puede tomas, en este caso, un núemro infinito numerable de valores, pero que la siguen haciendo discreta Veamos un ejemplo de cómo funciona esta variable aleatoria : ......

ξ1

ξ2

ξ3

ξ4

ξ5

ξ

1

0

0

1

1

....

0

P(0) = p

0

1

0

1

1

....

1

P(1) = qp

0

0

1

0

1

....

2

P(2) = qqp=q2p

0

0

0

1

0

....

3

P(3) = qqqp=q3p

...... ...... ...... ...... ...... ....

....... ......

La ley de probabilidad de ξ viene dada por f(k) = P[ξ = k] = qk p; k=1,2,.., ∞ Donde esta ley cumple la obligatoria propiedad de que la suma de las probabilidades de todos ∞

los valores de la v.a. es la unidad ya que

∑q

k

es la suma de los infinitos términos de una

k =0

progresión ∞

∑ k =0

geométrica

decreciente 1 p = =1 f (k ) = ∑ q k p = p ∑ q k = p 1− q p k =0 k =0 ∞

de

razón

q,

por

lo

tanto:

| 37


Función probabilidad

f (k ) = p ⋅ q k

k = 1, 2,.., ∞

Esperanza E[ξ]

E [ξ ] =

E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  = E ξ 2  − E [ξ ] =

q p

2

q p2

Y su función característica es Función característica

k =0

k =0

φξ (t ) = E  eitξ  = ∑ eitk pq k = p ∑ ( eit q ) = k

p 1 − eit q

Ejemplo

Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento de una hija. Calcular el número esperado de hijos (entre varones y hembras) que tendrá el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos o más.

Solución:

Este es un ejemplo de variable aleatoria geométrica. Vamos a suponer que P(hijo varon)=P(hija hembra) = 1/2. Sea ξ = “nº hijos varones antes de nacer hija hembra”, ξ↝Geo(1/2) con P[ξ = k] = (1/2)k-1 (1/2) = (1/2)k

Por los resultados obtenidos en la teoría tendremos que el número esperado de hijos varones es E[ ξ ] = q/p = 1 por tanto el número esperado en total entre hijos varones y la niña es 2. La probabilidad de que la pareja acabe teniendo tres o más hijos, es la de que tenga 2 o más hijos varones (la niña está del tercer lugar en adelante), es decir, | 38


P [ξ ≥ 2] = 1 − P [ξ < 2] = 1 − P [ξ ≤ 1] = 1 − P [ξ = 0] − P [ξ = 1] = 1 − p − pq =

1 4

Aunque también podríamos haberlo calculado mediante una serie i nfinita, que sería ∞

indudablemente más complejo P [ξ ≥ 2] = ∑ q i p i=2

NOTA La distribución geométrica también puede ser definida como el número de pruebas realizadas hasta la obtención del primer éxito (como hubiese sido más adecuado en el ejemplo anterior). En este caso es un ejercicio sencillo comprobar que ξ sólo puede tomar valores naturales mayores o iguales a 1, y que

Función probabilidad

f (k ) = p ⋅ q k −1

Esperanza E[ξ]

E [ξ ] = 1 +

E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  = E ξ 2  − E [ξ ] =

k = 1, 2,.., ∞

q 1 = p p

2

q p

Fuente http://www.bioestadistica.uma.es/libro/node72.htm

| 39


DISTRIBUCION HIPERGEOMETRICA

La variable hipergeométrica aparece cuando repetimos el experimento de Bernuilli hasta que un suceso A ocurra un número de veces k dado. Supongamos N objetos de los cuales r son de una clase 1 y (N – r) son de una clase 2 N Elegimos n de esos objetos al azar de   maneras sin reposición. n Sea ξ = “Numero de objetos de clase 1” Se tiene que ξ = k obtenemos k artículos de clase 1 y (n - k) de clase 2  r  N − r     k  n − k   P [ξ =k ] = N   n Diremos en general que una v.a. ξ sigue una distribución hipergeométrica de parámetros, N, n y p, que denotamos por ξ ↝ HGeo(N,n,p), si su función de probabilidad es Función probabilidad

 Np  Nq     k n−k f (k ) =   N   n

Esperanza E[ξ]

E [ξ ] = np

E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  = npq

max {0, n − Nq} ≤ k ≤ min {n, Np}

N −n N −1

Para N muy grande ξ ↝ HGeo(N,n,p) se puede aproximar por una binomial ξ ↝ B(n,p) Observa que la varianza no es exactamente la de la binomial, pues está corregida por un N −n , que tiende a 1 cuando N⇾∞ . A este factor se le denomina factor de factor, N −1 corrección para población finita.

Observación: En general, para distinguir cuando utilizar la binomial o la hipergeométrica, podemos decir que cuando el problema es con reemplazamiento, vale la binomial, pero si es sin reemplazamiento vale la hipergeométrica | 40


Ejemplo Tenemos una baraja de cartas españolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (r = 10 naipes de un mismo tipo). Supongamos que de esa baraja extraemos n = 8 cartas de una vez (sin reemplazamiento) y se nos plantea el problema de calcular la probabilidad de que hayan k=2 oros (exactamente) en esa extracción. Solución La respuesta a este problema es 10  30   r  N − r        2  6   k  n − k   P ["2 oros entre 8 cartas"] = =  40  N     8 n En lugar de usar como dato r es posible que tengamos la proporción existente, p, entre el número total de oros y el número de cartas de la baraja  r=N⋅p r 10 1 p= = = ⇒ N 40 4  N − r = N ⋅ q de modo que  Np  Nq     k n−k P ["2 oros entre 8 cartas"] =   N   n

| 41


LA DISTRIBUCION DE POISSON

Definida por el matemático Siméon Denis Poisson (France, 1781-1840) y llamada también de los sucesos rotos, se presenta en muchos fenómenos que consisten en una sucesión de sucesos que tienen lugar siguiendo una sucesión temporal de una forma aleatoria, como por ejemplo, el número de llamadas a una central electrónica, el número de autos que pasan por el peaje de una autopista, impactos de partículas sobre detectores, etc.

Una v.a. discreta ξ con conjunto Img(ξ) infinito numerable decimos que posee una ley de distribución de probabilidades del tipo Poisson cuando

f (k ) = P [ξ = k ] =

e− λ λ k k!

k = 1, 2,...., n,... λ > 0; λ ∈

Este tipo de leyes se aplican a sucesos con probabilidad p muy pequeña y n grande, obteniéndose como la distribución límite de una sucesión de variables binomiales, B(n,p) , donde λ=n‧p, y n→∞ (por tanto p→0+). Dicho en lenguaje matemático sería

Teorema (aproximación de la binomial por una Posisson) Sean { ξn} una sucesión de v.a. ξn∊B(n,p) , λ=n‧p, n→∞ => ξn↝ξ∊Poi(λ)

Demostración n n! λ lim P [ξ n = k ] = lim   p k q n − k = lim   n →∞ n →∞ k n →∞ k !( n − k )! n     → e− λ 6 474 8 n  λ − 1 λk λ k e− λ n(n − 1)..(n − k + 1)  n  = ... = lim k k ! n →∞ 144 nk k! 42444 3 1 − λ    →1 n3 1  424

k

 λ 1 −   n

n−k

= ...

→1

Función probabilidad

f (k ) = P [ξ = k ] =

Esperanza E[ξ]

E [ξ ] = λ

e−λ λ k k!

k = 1, 2,.., ∞

| 42


E[ξ2]

E ξ 2  =

Varianza Var[ξ]

Var ξ 2  = λ

En general utilizaremos la distribución de Poisson como aproximación de experimentos binomiales donde el número de pruebas es muy alto, pero la probabilidad de éxito muy baja. A veces se suele utilizar como criterio de aproximación: n > 30, p ≤ 0.1 ⇒ B ( n ⋅ p ) ≅ Poi ( n ⋅ p )

La ley de Poisson la podemos encontrar tabulada en la tabla que adjuntamos al final de este unidad , para ciertos valores usuales de λ. La función característica de ξ∊Poi(λ) es Función característica

∞ ( λe ) = e−λ eλeit = eλ (eit −1) e−λ λ k = e−λ ∑ φξ (t ) = E eitξ  = ∑ eitk k! k! k =0 k =0 ∞

it k

Ejemplo Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 personas con dicha enfermedad. Calcular el número esperado de habitantes que la padecen.

Solución

| 43


Si consideramos la v.a. ξ que contabiliza el número de personas que padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien aproximado por un modelo de Poisson, de modo que ξ↝B(500000,0.00001) => ξ↝Poi(λ=5) Así el número esperado de personas que padecen la enfermedad es E [ξ ] = σ 2 [ξ ] = 5 . Como la varianza es 5 indica que existe una gran dispersión, y no sería extraño encontrar que en realidad hay muchas más personas o menos que están enfermas. La probabilidad de que haya más de tres personas enfermas es: P [ξ > 3] = 1 − P [ξ ≤ 3] = 1 − P [ξ = 0 ] − P [ξ = 1] − P [ξ = 2] − P [ξ = 3] = ... ... = 1 −

e −5⋅0 e−5⋅1 e −5⋅2 e−5⋅3 − − − = 0.735 0! 1! 2! 3!

Ejemplo

En Málaga hay 500.000 habitantes (n grande). La probabilidad de que cualquier persona tenga un accidente es pequeña, pero no nula. Supongamos que es 1/10.000.

El número de individuos que será atendido un día cualquiera en el servicio de urgencias del hospital clínico universitario de Málaga es una binomial B(500000,1/10000) de media n·p = 50, que puede ser aproximada por una Poisson Poi(50). Por tanto, si queremos conocer la probabilidad de que aparezcan exactamente 51 pacientes sería (mediante la hoja Excel): e− λ λ k e −50 5051 = = =EXP(-50)*50^51/FACT(51)=0.0552 P [ξ = 51] = k! 51!

Ejemplo Se sabe que el 2% de los escolares menores de 12 años de cierto país no conocen el mar . Si elegimos 100 escolares al azar menores de 12 años, ¿cuál es la probabilidad de que 3 de ellos no conozcan el mar? Fuente [67]

Solución 100  3 97 Es una binomial de libro: P [ξ = 3] =   0.02 0.98 pero este cálculo implica  3  dificultades, pero como estamos en un caso en que n = 100 es grande y p = 0.02 es pequeño, podríamos aproximar esta binomial por una Poisson de parámetro λ = 3 −2 2 100‧0.02 = 2, es decir P [ξ = 3] ≅ Poi (2) = e ⋅ = 0.18 3!

Ejemplo propuesto | 44


Sospechamos que diferentes hospitales pueden tener servicios de traumatología de diferente “calidad” (algunos presentan pocos, pero creemos que aún demasiados, enfermos con secuelas tras la intervención). Es difícil compararlos pues cada hospital atiende poblaciones de tamaños diferentes (ciudades, pueblos, …). Tenemos en cada hospital n, que puede ser o bien el número de pacientes atendidos o bien el número de individuos de la población que cubre el hospital. Tenemos p pequeño calculado como frecuencia relativa de secuelas con respecto al total de pacientes que trata el hospital, o el tamaño de la población. Se pide modelar esta situación mediante Poi (λ = np)

Fuente http://www.bioestadistica.uma.es/baron La distribución de Poisson, se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución de Poisson incluyen: • • • • • • •

• • •

El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo. El número de errores de ortografía que uno comete al escribir una única página. El número de llamadas telefónicas en una central telefónica por minuto. El número de servidores web accedidos por minuto. El número de animales muertos encontrados por unidad de longitud de ruta. El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. El número de núcleos atómicos inestables que decayeron en un determinado periodo de tiempo en una porción de sustancia radiactiva. La radiactividad de la sustancia se debilitará con el tiempo, por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia. El número de estrellas en un determinado volumen de espacio. La distribución de receptores visuales en la retina del ojo humano. La inventiva de un inventor a través de su carrera.

http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson#Procesos_de_Poisson

| 45


e−λλi F(k) = P[ξ ≤k] =∑ k =1,2,..,∞ ! i i=0 k

ºProbabilidades POISSON Función de Distribución 1

λ K 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

0,1 0,905 0,995 1 1 1 1 1

0,2 0,819 0,982 0,999 1 1 1 1

0,3 0,741 0,963 0,996 1 1 1 1

0,4 0,67 0,938 0,992 0,999 1 1 1

0,5 0,607 0,91 0,986 0,998 1 1 1

0,6 0,549 0,878 0,977 0,997 1 1 1

0,7 0,497 0,844 0,966 0,994 0,999 1 1

0,8 0,449 0,809 0,953 0,991 0,999 1 1

0,9 0,407 0,772 0,937 0,987 0,998 1 1

1,0 0,368 0,736 0,92 0,981 0,996 0,999 1

2,0 0,135 0,406 0,677 0,857 0,947 0,983 0,995 0,999 1 1 1 1 1 1 1 1 1

3,0 0,05 0,199 0,423 0,647 0,815 0,916 0,966 0,988 0,996 0,999 1 1 1 1 1 1 1

| 46

4,0 0,018 0,092 0,238 0,433 0,629 0,785 0,889 0,949 0,979 0,992 0,997 0,999 1 1 1 1 1

5,0 0,007 0,04 0,125 0,265 0,44 0,616 0,762 0,867 0,932 0,968 0,986 0,995 0,998 0,999 1 1 1


e−λλk f (k) = P[ξ =k] = k =1,2,..,∞ k!

Probabilidades POISSON Función de Probabilidad 0

λ k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

0,1 0,905 0,09 0,005 0 0 0 0

0,2 0,819 0,164 0,016 0,001 0 0 0

0,3 0,741 0,222 0,033 0,003 0 0 0

0,4 0,67 0,268 0,054 0,007 0 0 0

0,5 0,607 0,303 0,076 0,013 0,002 0 0

0,6 0,549 0,329 0,099 0,02 0,003 0 0

0,7 0,497 0,348 0,122 0,028 0,005 0 0

0,8 0,449 0,359 0,144 0,038 0,008 0,001 0

0,9 0,407 0,366 0,165 0,049 0,011 0,002 0

1,0 0,368 0,368 0,184 0,061 0,015 0,003 0

2,0 0,135 0,271 0,271 0,18 0,09 0,036 0,012 0,003 0 0 0 0 0 0 0 0 0

3,0 0,05 0,149 0,224 0,224 0,168 0,101 0,05 0,022 0,008 0,003 0 0 0 0 0 0 0

| 47

4,0 0,018 0,073 0,147 0,195 0,195 0,156 0,104 0,06 0,03 0,013 0,005 0,002 0 0 0 0 0

5,0 0,007 0,034 0,084 0,14 0,175 0,175 0,146 0,104 0,065 0,036 0,018 0,008 0,003 0,001 0 0 0


Reproductividad de familias de v.a. Las variables aleatorias relacionadas entre si por uno o más parámetros mediante f, o lo que es equivalente según el teorema de Fourier, mediante su función característica, las hemos agrupado en familias de v.a. que hemos denotado de modo genérico Fam(p). Para cualquier tipo de familia de v.a. Fam(p), diremos que esta reproductiva respecto al parámetro p, si al considerar { ξi} independientes, donde ξi↝Fam(p) Fam(p) i=1,2,...,n se tiene que la suma de todas ellas es una v.a. de la misma familia, pero con parámetro parámetr p1+p2+...+pn

Fam(p) reproductiva ∀ {ξi} i=1,2,...,n independientes, ξi↝Fam(p) Fam(p) => ξ1+ξ2+...+ξn↝Fam( Fam( p1+p2+...+pn) Por ejemplo Ber(p) no es reproductiva con respecto a p,, ya que la suma de dos v.a. de esa familia no sigue una distribución de Bernouilli. Sin embargo la familia B(n,p) lo es con respecto al parámetro , ya que

Un modo sencillo de ver si una familia de distribuciones es reproductiva con respecto a algún parámetro es analizar su función característica. Por ejemplo el mismo resultado se puede obtener para la distribución binomial teniendo en cuenta que

do el mismo argumento, tenemos que otra distribuciones reproductiva es Poi(λ). Utilizando

| 48


VARIABLES ALETAORIAS CONTINUAS

Variable aleatoria continua

Variable aleatoria continua es una v.a. que toma un número o bien infinito no numerable de valores en . Pero dicho así es insuficiente, lo vamos a definir más formalmente: Se dice que una variable aleatoria

ξ Ω  →

es contínua, si existe una función f, llamada → ξ ( A) A  función de densidad de ξ, que satisface la definición siguiente

Función de densidad

Sea ξ una variable aleatoria continua, llamamos función de densidad de ξ a la función f que asigna a cada posible valor la variable aleatoria, la probabilidad de que dicho valor suceda. f Im g (ξ )  →

x  → f ( x)

Verificando las siguientes propiedades i)

f ( x) ≥ 0 ∀x ∈ Im g (ξ )

ii)

iii)

∀a, b ∈ / − ∞ < a < b < ∞ ⇒ P [ a ≤ x ≤ b] = ∫ f ( x)dx

−∞

f ( x)dx = 1 b

a

Como la variable aleatoria puede tomar ahora infinitos valores, no existe la probabilidad puntual P[ξ = x0] pues ahora esta probabilidad sería 0: P [ξ = x0 ] = ∫ f ( x)dx = 0 0

0

Función de distribución para v.a. continuas

Sea ξ una variable aleatoria continua, con Im g (ξ ) ⊂

y sea f su función de densidad. | 49


F  →

Definimos Función de distribución de ξ a la función

→ F ( x) = P [ξ ≤ x ] = x 

x

f ( z )dz

−∞

Teorema

F es no decreciente Im F = [0,1] o bien F(-∞) = 0 y F(∞) = 1

Teorema Sea F la función de distribución de una v.a.. ξ con función e densidad f. Se tiene que dF ( x) f ( x) = para todo valor de ξ donde F es diferenciable. dx

Definición: Esperanza o Valor esperado

Sea ξ una v.a. continua con función de densidad f definimos esperanza de ξ como ∞

E [ξ ] = µ = ∫ xf ( x)dx −∞

NOTA Esta integral impropia pudiera no converger por lo que decimos que la esperanza E[ξ] existe de si y solo si esta integral

−∞

x f ( x)dx es finita.

Varianza Sea ξ una v.a. continua con función de densidad f definimos varianza de ξ como

V [ξ ] = σ 2 = ∫

(x − µ) −∞

2

f ( x)dx

A la raíz cuadrada de la varianza σ, se le llama desviación típica.

Al igual que en el caso discreto se verifica el | 50


Teorema

σ 2 (ξ ) = E ξ 2  −  E (ξ ) 

2

Y la demostración es igualmente válida la allí dada. También se cumplen aquí en el caso continuo las propiedades de la esperanza y varianza dadas en el caso discreto, eso es:

Propiedades

Sea k una constante real. Se verifica que 1. E (ξ + k ) = E (ξ ) + k 2. E ( k ⋅ ξ ) = k ⋅ E ( ξ ) 3. Si ξ1 y ξ2 son dos v.a. entonces E[ξ1 + ξ2] = E[ξ1] + E[ξ2] 4. σ 2 (ξ + k ) = σ 2 (ξ ) 5. σ 2 ( k ⋅ ξ ) = k 2 ⋅ σ 2 (ξ )

Ejemplo k si 0 ≤ x ≤ 4 Dada la función f ( x) =   0 en otro caso Calcula el valor de k para que sea una función de densidad y escribe su función de distribución Calcula también su esperanza y su varianza

Solución Se tiene que cumplir que 1 = ∫

−∞

f ( x)dx = ∫ kdx = [ kx ]0 = 4k ⇒ k = 4

0

4

1 4

La función de distribución que resulta es

| 51


0  −∞ < x < 0  ∫−∞ 0dx = 0  0 x1 x  0≤ x≤4 F ( x) =  ∫−∞ 0dx + ∫0 4 dx = 4  41 x 4  0  ∫−∞ 0dx + ∫0 4 dx + ∫0 0dx = 4 = 1 4 < x < +∞ 4

4

−∞

0

µ = ∫ xf ( x ) dx = ∫

1 1  x2  1 ⋅ xdx = ⋅   = ⋅ ( 8 − 0 ) = 2 4 4  2 0 4 4

σ2 =∫

−∞

(x − µ)

2

3 1 4 1  ( x − 2)  4 2 f ( x)dx = ∫ ( x − 2 ) dx = ⋅   = 0 4 4  3  3 0

Ejemplo k ( x + 1) si 0 ≤ x ≤ 2 Dada la función f ( x) =  en otro caso  0 Calcula el valor de k para que sea una función de densidad, calcula P [1 ≤ ξ ≤ 2] ,

P [ξ < 1] , P [ξ ≥ 1.5] y escribe su función de distribución Calcula también su esperanza y su varianza

Solución 1= ∫

−∞

2

 x2  1 f ( x ) dx = ∫ k ( x + 1) dx = k  + x  = 4 k ⇒ k = y su gráfica será 0 4 2 0 2

| 52


2

P [1 ≤ ξ ≤ 2 ] = F (2) − F (1) = ∫

2

1

 x +1 1  x2 5 dx =  + x  = 4 4 2 1 8 1

P [ξ < 1] = F (1) = ∫

1

−∞

P [ξ ≥ 1.5] = ∫

+∞

1.5

f ( x ) dx = ∫

1

0

 x +1 1  x2 3 dx =  + x  = 4 4 2 0 8 2

f ( x ) dx = ∫

2

1.5

 x +1 1  x2 11 f ( x ) dx = ∫ dx =  + x  = 1,5 4 4 2 1.5 32 2

Y la función de distribución es 0 −∞ < x < 0     1  x2 F ( x) =   + x  0 ≤ x ≤ 2  4  2  1 2 < x < +∞  E [ξ ] = µ = ∫

+∞

−∞

2

x +1 1 +∞ 1  x3 x 2  7 x⋅ dx = ∫ ( x 2 + x ) dx =  +  = 4 4 −∞ 4 3 2 0 6 2

2

7  x +1 1 +∞  4 35 x 49  1  x 4 4 x 3 35 x 2 49 x  11  V [ξ ] = σ = ∫  x −  ⋅ dx = ∫  x 3 − x 2 − +  dx =  − − + =  −∞ −∞ 6 4 4 3 36 36  4 4 9 72 36  0 36   2

+∞

Ejemplo

| 53


si 0 ≤ x ≤ 2  kx  Dada la función f ( x) = k (4 − x) si 2 ≤ x ≤ 4  0 en otro caso  Calcula el valor de k para que sea una función de densidad, la P [1 ≤ ξ ≤ 3] y escribe su función de distribución. Calcula también su esperanza y su varianza

Solución 2

4

 x2   x2  1 y su 1 = ∫ f ( x ) dx = ∫ k ⋅ xdx + ∫ k ( 4 − x ) dx = k   + k  4 x −  = 4k ⇒ k = −∞ 0 2 2 2 4  2 0  gráfica será (línea roja): ∞

2

4

P [1 ≤ ξ ≤ 3] = F (3) − F (1) = ∫

2

1

2 3 3 4− x x 1   x2   x2   3 dx + ∫ dx =    +  4 x −   = 2 4 4 4   2 1  2 2  4  

Y la función de distribución es

0 −∞ < x < 0   x2  0≤ x<2  8 F ( x) =  2 2 2 x 2  2 z dz + x 1 − z  dz = =  z  +  z − z  = − x + x − 1 2 ≤ x ≤ 4 8  ∫2  4   ∫0 4 8  2 8  0   1 4 < x < +∞  | 54


E [ξ ] = µ = ∫

+∞

−∞

V [ξ ] = σ 2 = ∫

4 (4 − x) x x2 x3  1  x3  1  dx + ∫ dx =   +  2 x 2 −  = 2 2 4 4 4  3 0 4  3 2 2

x ⋅ f ( x) dx = ∫

+∞

( x − 2) −∞

2

0

2

⋅ f ( x)dx =

4

1 2 1 4 2 2 2 x ( x − 2) dx + ( 4 − x )( x − 2 ) dx = ∫ ∫ 0 2 4 4 3

| 55


DISTRIBUCIÓN CONJUNTA

Habíamos definido dos sucesos A1 y A2 independientes cuando P[A1 ⋂ A2] = P[A1]·P[A2] Y esta definición se había ampliado al caso de n sucesos P[A1 ⋂ A2… ⋂ An] = P[A1]·P[A2]… ·P[An]

Ahora diremos que dos v.a. ξ 1 y ξ 2 , cada una con su función de distribución F1 y F2, son independientes si dados los sucesos A1 = [ξ1≤ a1] y A2 = [ξ2≤ a2] se tiene que P( [ξ1≤ a1] ⋂ [ξ2≤ a2] ) = P[ξ1≤ a1] · P[ξ2≤ a2] = F1(a1)· F2(a2)

A este primer miembro anterior le denominamos F distribución conjunta de ξ 1 y ξ 2 como F(a1,a2) = P( [ξ1≤ a1] ⋂ [ξ2≤ a2] ) = F1(a1)· F2(a2)

Vamos a generalizarlo

Diremos que

{ξi }i =1,...,n ,

n

v.a. son independientes, todas con la misma función de

distribución F(x) tienen una distribución conjunta F(a1,a2,…,an) = F(a1)· F(a2)·…·F(an) donde F(a1,a2,…,an) = P( [ξ1≤ a1] ⋂ [ξ2≤ a2] ⋂… ⋂[ξn≤ an] ) = P[ξ1≤ a1] · P[ξ2≤ a2] ·… ·P[ξn≤ an] = F(a1)· F(a2)·…·F(an)

Ejemplo

Sean ξ 1,ξ 2 y ξ 3 tres v.a. independientes, todas ellas N(0,1), la distribución conjunta de ellas funcionaría del siguiente modo:

F(1.5, 0, 2) = P( [ξ1≤ 1.5] ⋂ [ξ2≤ 0] ⋂[ξ3≤ 2] 0.9332·0.5·0.9772 =…

)F(1.5)· F(1.5)· F(1.5) =

…= 0.4559 | 56


DISTRIBUCIÓN UNIFORME O RECTANGULAR Se dice que una v.a. ξ posee una distribución uniforme en el intervalo [a,b], y denotamos ξ↝U(a,b) si su función de densidad es la siguiente:  1 si a ≤ x ≤ b  f ( x) =  b − a  0 en otro caso Con esta ley de probabilidad, la probabilidad de que al hacer un experimento aleatorio, el valor de ξ este comprendido en cierto subintervalo de [a,b] depende únicamente de la longitud del mismo, no de su posición. Esta función de densidad está bien definida pues +∞ b 1 1 b−a b ( ) = f x dx ∫−∞ ∫a b − a dx = b − a [ x]a = b − a = 1 Cometiendo un pequeño abuso en el lenguaje, podemos decir que en una distribución uniforme la probabilidad de todos los puntos del soporte es la misma. La probabilidad de un intervalo [c,d] viene dada por P [ c ≤ x ≤ d ] = ∫

d

c

1 d −c dx = que b−a b−a

corresponde al área del rectángulo (ver gráfico) La función de distribución de ξ↝U(a,b) es: 0 −∞ < x < a   x 1 x−a 1 x  F ( x) =  ∫ dz = z ]a = a≤ x≤b [ a b−a b−a  b−a b < x < +∞ 1  Y sus gráficas son:

| 57


Esperanz a E[ξ] E[ξ2]

b

E [ξ ] = µ = ∫

a

x 1  x2  b 2 − a 2 (b + a )(b − a ) b + a dx = = = = 2(b − a ) 2 b−a b − a  2  a 2(b − a ) b

b

E ξ  = ∫ a 2

Varianza Var[ξ]

b

x2 1  x3  b3 − a 3 (b 2 + ab + a 2 )(b − a ) b 2 + ab + a 2 dx = = = = b−a b − a  3  a 3(b − a ) 3(b − a ) 3

Var ξ  = E ξ  − E [ξ ] 2

2

2

(b2 + ab + a 2 )  b + a  ( b − a ) = −  = 3 12  2  2

2

Y su función característica es Función característica

b

b

φξ (t ) = ∫ e a

i ⋅t ⋅ x

1 1  eitx  eitb − eita f ( x ) dx = ∫ e dx = = a b−a b − a  it  a it (b − a ) b

itx

| 58


DISTRIBUCIÓN EXPONENCIAL La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada. Ejemplos de este tipo de distribuciones son: • El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14, C14; • El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente; • El crecimiento de un cultivo de bacterias. • En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante. Concretando, si una v.a. continua ξ distribuida a lo largo de + , es tal que su función de densidad es λ e − λ x si 0 < x f ( x) =  ; se dice que sigue una distribución exponencial de parámetro 0 en otro caso  λ, denotamos ξ↝Exp(λ) 1 Esta densidad está bien definida pues es siempre positiva f ( x) = λ λ x ≥ 0 y e

+∞

−∞

f ( x)dx = ∫ λ e 0

−λ x

 −e − λ x   −λ 0  dx = λ  −e− λ∞ ) −  − e{ =1  = (1 4 3  =1   λ  0 42 →0

Su función de distribución es 0  F ( x) =  x − λ z −λ z x −λ x  λ = e dz e   0 = 1 − e  ∫a

x<0 0 ≤ x < +∞

| 59


Esperanza E[ξ] E[ξ2]

E [ξ ] = µ = E ξ 2  =

Varianza Var[ξ]

1

λ

2

λ2

Var ξ  = σ = E ξ  − E [ξ ] 2

2

2

2

2

1 1 = 2 −  = 2 λ λ λ 2

Y su función característica es ∞ Función característica  λ e( it −λ ) x  ∞ ∞ ∞ λ ( it − λ ) x i ⋅t ⋅ x itx −λ x φξ (t ) = ∫ e f ( x)dx = ∫ e λe dx = ∫ λ e dx =   =− 0 0 0 it − λ  ( it − λ )  0

Ejemplo El tiempo medio T de duración de la eficacia de cierto reactivo químico es de 50 horas. Si sabemos que T↝Exp(1/λ) y utilizamos una cierta dosis de reactivo calcular a) Probabilidad de que la eficacia sea de entre 80 y 100 horas b) Probabilidad de que la eficacia sea menor de 30 horas Fuente [67]

Solución La media de la distribución exponencial es 1/λ y sabemos que vale 50, luego λ=0.02

P [80 ≤ T ≤ 100] = F (100) − F (80) = 1 − e−0.02⋅100 − 1 + e−0.02⋅80 = e−1.6 − e−2 = 0.0666 P [T ≤ 30] = F (30) = 1 − e −0.02⋅30 = 0.4512

Ejemplo Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de 25 años?

Solución Sea T la variable aleatoria que mide la duración de un marcapasos en una persona. Tenemos que T↝Exp(1/16). Entonces | 60


P [T ≤ 20] = ∫

20

0

f (t )dt = F (20) = 1 − e

−20 16

= 0.7135 −25

P [5 ≤ T ≤ 25]

−5

F (25) − F (5) 1 − e 16 − 1 + e 16 0.522 P [T ≤ 25 / T ≥5 ] = = = = = 0.7135 −5 P [T ≥ 5] F (+∞) − F (5) 0.7316 16 1 −1 + e Luego como era de esperar, son iguales ambas probabilidades, o sea, en la duración que se espera que tenga el objeto, no influye en nada el tiempo que en la actualidad lleva funcionando. Es por ello que se dice que ``la distribución exponencial no tiene memoria". Ejemplo Sabiendo que el tiempo T de desintegración de un átomo de T↝Exp(1/140)

210 84

Po es una v.a.

En un experimento de laboratorio se utilizan 10 gramos de 210 84 Po . Sabiendo que la duración media de un átomo de esta materia es de 140 días, ¿cuantos días transcurrirán hasta que haya desaparecido el 90% de este material?

Solución Como el número de átomos de 210 84 Po existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su función de distribución F. Entonces el tiempo que transcurre hasta que el 90% del material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir 1 F (t90 ) = 0.9 ⇔ e − λt90 = 1 − 0.9 ⇔ t90 = − ln 0.1 ≈ 322 días

λ

Como el número de átomos (observaciones) es extremadamente alto en 10 gramos de materia, el histograma puede ser aproximado de modo excelente por la función de densidad exponencial, y el polígono de frecuencias acumuladas por la función de distribución.

| 61


La parte de imagen con el identificador de relaci贸n rId473 no se encontr贸 en el archiv o.

| 62


DISTRIBUCIÓN NORMAL O GAUSSIANA

La distribución gaussiana, recibe también el nombre de distribución normal, ya que una gran mayoría de las v.a continuas de la naturaleza siguen esta distribución. Se dice que una v.a. continua ξ sigue una distribución normal de parámetros µ y σ2 y lo denotaremos por ξ↝N(µ , σ2) si su función de densidad es 1  x−µ  σ 

−  1 f ( x) = e 2 σ 2π

2

∀x ∈

Los parámetros µ y σ2 coinciden con la media (esperanza) y la varianza respectivamente de la distribución como se demostrará más adelante: E[ξ] = µ V[ξ] = σ2 Sin duda alguna, la distribución normal o de Gauss es la más importante de todas cuantas existen por varios motivos. El primero, es la que más veces se presenta en fenómenos estadísticos de casi cualquier tipo, pero el segundo es que, además, la mayor parte de las demás distribuciones, cuando el número de muestras es suficientemente alto, siempre pueden ser aproximadas mediante una normal. Su uso está presente en todos los campos de la ciencia, como economía, medicina, psicología, biología, etc. Los rasgos físicos (estatura, peso), la tensión arterial, los recuentos de datos sanguíneos, ... son innumerables los aspectos estadísticos que pueden ser afrontados utilizando la distribución normal. De hecho, el resto de este documento va a ser dedicado a ella y a las distribuciones que se definen a partir de ella. La forma de la función de densidad es la llamada campana de Gauss. El área contenida entre la gráfica y el eje de abcisas vale 1.

| 63


La parte de imagen con el identificador de relación rId478 no se encontró en el archiv o.

Esta función tiene siempre las siguientes características: • • • • • • • • • •

Está definida en todo Es contínua Está acotada inferiormente por 0 y superiormente por 1 El área encerrada bajo la campana es siempre 1. Es simétrica respecto a la recta x = µ Presenta un máximo en x = µ Presenta convexidades y concavidades de manera que los puntos x = µ-σ y x = µ+σ son puntos de inflexión. 1 Al ser simétrica respecto x = µ entonces se tiene P [ξ ≤ µ ] = P [ξ ≥ µ ] = y la media, 2 mediana y moda , coinciden las tres en x = µ El eje X es una asíntota horizontal de la curva. Ello nos indica que para puntos muy alejados de la media tiene siempre una cierta probabilidad aunque muy pequeña. La mayor parte de la masa de probabilidad (área comprendida entre la curva y el eje de abcisas) se encuentra concentrado alrededor de la media,

La forma de la campana de Gauss depende de los parámetros µ y σ • µ es el indicador de la posición de la campana (parámetro de centralización);

| 64


La parte de imagen con el identificador de relación rId483 no se encontró en el archiv o.

y σ es un parámetro de dispersión. A valores más pequeños de σ le corresponde una mayor acumulación de probabilidad concentrada alrededor de la media, es decir la campana resulta “apuntada”, mientras que, para valores grandes de σ la campana resulta más “aplastada”.

La parte de imagen con el identificador de relación rId484 no se encontró en el archiv o.

| 65


La probabilidad de que la v.a. ξ tome valores comprendidos entre las abcisas a y b viene dada por el área que queda entre la curva y el eje X, es decir a la integral definida de su función e densidad

1 P [ a ≤ ξ ≤ b ] = F (b) − F (a) = σ 2π

b

e

a

1  x−µ  −   2 σ 

2

dx

La parte de imagen con el identificador de relación rId487 no se encontró en el archiv o.

Sin embargo, a pesar de tantas virtudes, habrás notado que hemos omitido un hecho, que es hablar de su función e distribución F(x) y es que, la distribución normal tiene el problema de 2

que no es conocida la función primitiva de la la función f ( x) = e − x por lo que nos tenemos que limitar a expresar su distribución en función e la integral, sin resolver ésta. Esto es:

F ( x) = P[ξ ≤ x] = ∫

x

−∞

1 f ( z )dz = σ 2π

x

−∞

e

1  z −µ  −   2 σ 

2

dz

Esto, desde el punto de vista práctico, nos obliga a arrastrar siempre esta integral, sin poder dar una función y tener que calcularla, siempre que lo precisemos, mediante métodos numéricos, o recurrir, claro está, a ordenadores y incluso tablas, como la que adjuntamos en al final de este apartado, si bien, las tablas de la normal se suelen dar para una N(0,1) que se denomina distribución normal tipificada y que tenemos que aprender a manejarla adecuadamente, de ahí que hablemos a continuación de este aspecto.

Tipificación Denominamos Z a la N(0,1), es decir Z↝N(0 , 1) y su función de densidad resulta 1 − 12 x2 f Z ( x) = e ∀x ∈ 2π

| 66


Siempre se puede tipificar una v.a. normal ξ↝N(µ , σ2) cualquiera, podemos obtener Z↝N(0 , 1) teniendo en cuenta el siguiente resultado: ξ −µ ξ → N ( µ,σ 2 ) ⇔ Z = → N (0,1)

σ

Y que podemos generalizar mediante la siguiente:

Proposición (Cambio de origen y escala)

(

)

(

Sean a,b ∊ ℝ. Entonces ξ → N µ , σ 2 ⇒ Y = a + b ⋅ ξ → N a + bµ , ( bσ )

2

)

Este resultado puede ser utilizado del siguiente modo: Si ξ → N ( µ , σ 2 ) , y nos interesa calcular Fξ ( x) = P[ξ ≤ x] , realizamos los siguientes pasos 1. Hacemos el cambio Z =

ξ −µ x−µ → N (0,1) y calculamos z = ; σ σ

2. Usamos la tabla la distribución N(0,1) y obtenemos (de modo aproximado) Fξ ( x) = P[ξ ≤ x] ; ξ − µ x − µ  3. Como FZ ( z ) = P[ Z ≤ z ] = P  ≤ = P[ξ ≤ x ] = Fξ ( x ) tenemos que el valor σ   σ obtenido en la tabla, FZ(z) es la probabilidad buscada.

La función característica de la distribución normal, se comprueba más adelante que es 1 Función característica it µ − t 2σ 2 φξ (t ) = e 2

Mientras que la esperanza y varianza, ya hemos comentado que son µ y σ2, pero cuando expliquemos la función característica lo obtendremos como u n resultado obvio al hacer φξ '(0) y φξ ''(0)

Esperanza E[ξ]

E [ξ ] = µ

E[ξ2]

E ξ 2  = ...

Varianza Var[ξ]

Var [ξ ] = E ξ 2  − E [ξ ] = σ 2 2

Demostración

| 67


Vamos

a

probar 1  x−µ 

E [ξ ] = µ

que

Var [ξ ] = σ 2 . Por un lado se tiene que

y

2

−   1 2 σ e ∫−∞ σ 2π   dx = 1 , es decir, la integral es constante, con lo cual derivando respecto a µ tiene que dar 0: +∞

d1 d  +∞ 1  0= e = d µ d µ  ∫−∞ σ 2π 

1  x−µ  −   2 σ 

2

 1 dx  =  σ 2π 

+∞

de

−∞

1  x−µ  −   2 σ 

2

1 dx = σ 2π

+∞

−∞

e

1  x−µ  −   2 σ 

2

1  x−µ  ⋅2  dx =... 2  σ 

  2 2 1  x−µ  1  x−µ    1 −  −  +∞ +∞   1 1 1 x ⋅ e 2  σ  dx − µ ∫ x ⋅ e 2  σ  dx  = 2 ( E [ξ ] − µ ) ⇒ E [ξ ] = µ ... = 2  ∫ −∞ −∞ σ  1444 σ 2π424444 σ 2π 244443  σ 3 14444   =1 E [ξ ]   Para demostrar Var [ξ ] = σ 2 derivamos ahora respecto a σ2: 1  x−µ  1  x−µ  1  x −µ    −  −  −  +∞     −1 −1 d1 d  +∞ 1 2 2 σ  2 σ  2 σ      0= = +e e dx = ∫ e ( x − µ ) dx = ...  −∞  2σ 3 2π dσ 2 dσ 2  ∫−∞ σ 2π 2σ 5 2π       2 2   1  x−µ  1  x−µ  −   1 +∞ 1 −1  1 +∞ 1 1 1 2 − 2  σ  2 σ  ... = e dx − 4 ∫ x − µ) e dx  = 2 − 4 Var [ξ ] ⇒ Var [ξ ] = σ 2 ( 2 ∫ −∞ −∞ σ 14444 2  σ 144424443 σ 2π σ 2π 42444443  σ σ   2 =1   = E (ξ − µ )  =Var[ξ ]     2

2

2

Y aunque no tenemos todavía conocimientos suficientes para hablar de la función característica, vamos a demostrar aquí como la obtenemos para ello, en primer lugar, tipificamos la v.a. ξ, ξ −µ ξ → N ( µ,σ 2 ) ⇔ Z = → N (0,1)

σ

y calculamos 1 φξ (t ) = ∫ e e −∞ σ 2π +∞

itz

1 − z2 2

dz =

e

−t 2 2

+∞

1 ( z −it )2 2

∫−∞ 4244 3 σ 2π 14 e

dx = e

−t2 2

= 2π

Como ξ = µ + σ ⋅ Z por la proposición dada anteriormente se tiene que

φξ (t ) = eit µφZ (σ t ) = e

1 it µ − t 2σ 2 2

| 68


Reproductividad La distribución normal es reproductiva con respecto a los parámetros µ y σ2, ya que 1  it µ1 − t 2σ 12 2  ξ1 → N ( µ1 , σ 1 ) φξ1 (t ) = e 2 1 it ( µ1 + µ 2 ) − t 2 (σ 12 +σ 22 )   2 φ φ φ independientes independientes ( t ) ( t ) ( t ) e ⇒ ⇒ = ⋅ =   ξ1 +ξ 2 ξ1 ξ2 ξ → N ( µ , σ 2 )  1 it µ − t 2σ 2 2 2  2 φξ (t ) = e 2 2 2  2 Lo que equivale a decir que ξ1 + ξ 2 → N ( µ1 + µ 2 , σ 12 + σ 22 )

Ejemplo

Sabiendo que ξ ↝N(0 , 1) y utilizando las tablas que adjuntamos al final de este tema, calcular P[0.75 ≤ ξ ≤ 1.25] y P[ ξ ≥ 0.5]

Solución

P[0.75 ≤ ξ ≤ 1.25] = F(1.25) – F(0.75) = 0.8843 – 0.7734 = 0.1109 P[ ξ ≥ 0.5] = 1 - P[ ξ ≤ 0.5] = 1 – 0.6915 = 0.3085

Ejemplo

Sea ahora ξ↝N(100 , 400) utilizando las tablas de la N(0,1) que adjuntamos al final de este tema, calcular P[ 120 ≤ ξ ≤ 130] y P[ ξ ≥ 150]

Solución Primero tipificamos la v.a. ξ mediante Z =

ξ − µ ξ − 100 = → N (0,1) , entonces σ 20

| 69


120 − 100 ξ − 100 130 − 100  ≤ ≤ = P [1 ≤ Z ≤ 1.5] = 0.9332 − 0.8413 = 0.0919 P[120 ≤ ξ ≤ 130] = P  20 20   20  ξ − 100 150 − 100  P[ξ ≥ 150] = 1 − P  ≤ = 1 − P [ Z ≤ 2.5] = 1 − 0.9938 = 0.0062 20   20

Ejemplo

Supongamos que a una determinada edad, la población infantil tiene una estatura de media 1 metro y desviación típica 25 centímetros. Si tenemos un colegio con 500 niños de esa edad, ¿cuántos niños es previsible que estarán entre los 120 y los 130 centímetros?

Solución ξ↝N(100 , 625) 120 − 100 ξ − 100 130 − 100  ≤ ≤ = P [ 0.8 ≤ Z ≤ 1.2] = 0.8849 − 0.7881 = 0.0968 P[120 ≤ ξ ≤ 130] = P  25 25   25 Con lo que resulta que alrededor de un 9.68% de los niños estarán entre 120 y 130 cm.

APROXIMACIÓN A LA NORMAL DE LA LEY BINOMIAL

Cuando lleguemos al teorema central del límite, al final de este tema, demostraremos que una v.a. ξ discreta binomial ξ↝B(n,p) , cuando n es suficientemente grande se pude aproximar mediante una N(np,npq), teniendo que verificarse, además, que p no sea ni muy próxima a cero, ni tampoco muy próxima a uno (pues ello implicaría que q = (1 – p) estaría próxima a cero)

Se ha convenido que las condiciones en las que puede realizarse dicha aproximación son para n > 30 y tanto np como nq sean mayores que 4. Es decir:

 n > 30  ≈ ξ → B(n, p) np > 4 ⇒ ξ  → N (np, npq) nq > 4 

| 70


Aunque este método solo vale para dar una idea, pues los resultados no son en absoluto precisos. Solo pueden darse como precisos si n es muy grande o si p ≈ q ≈ 0.5

Comparación entre la función de densidad de una v.a. continua con distribución N(np,npq), y el diagrama de barras de una v.a. discreta de distribución B(n,p) . En el primer caso, con n=50 y p cercano a 0.5 se observa como la aproximación es excelente

La parte de imagen con el identificador de relación rId552 no se encontró en el archiv o.

| 71


Sin embargo, para n=30 y p = 0.2 ya los resultados no son , ni mucho menos, los que serían deseables. La parte de imagen con el identificador de relación rId553 no se encontró en el archiv o.

Ejemplo

Se sabe que el índice de analfabetismo en un país es del 2%. Si tomo una muestra de 5000 personas al azar ¿cuál es la probabilidad de al menos 120 sean analfabetas?

Solución Es una binomial ξ↝B(5000,0.02) con n·p = 100 y n·p·q = 98, por lo que podemos aproximarla mediante la Z↝N(0,1). Para ello  ξ − 100 120 − 100  P[ξ ≥ 150] = 1 − P [ξ ≤ 120] = 1 − P  ≤  = 1 − P [ Z ≤ 2.02] = 0.0216 98   98

Ejemplo

Durante una epidemia de gripe el 30% de la población cae enferma. Entre los 200 estudiantes de primero de Medicina, ¿cuál es la probabilidad de que al menos 40 | 72


padezcan la enfermedad? ¿Y cuál es la probabilidad de que haya exactamente 60 estudiantes con gripe?

Solución Estamos ante una binomial ξ↝B(200,0.3) , por lo tanto la media y la varianza son µ = n·p = 200·0.3 = 60 y σ2 = n·p·q = 200·0.3·0.7 = 42 Si queremos calcular la probabilidad pedida con una binomial haríamos 40  200  i 200−i P[ξ ≥ 40] = 1 − P [ξ ≤ 40] = 1 − ∑  ; lo cual es sumamente engorroso. 0.3 0.7 i =1  i  Ahora bien, con Excel nos sale inmediatamente P[ξ ≥ 40] = 1 − P [ξ ≤ 40] = 1 − DISTR.BINOM(40;200;0.3;1)=0.9990

Si este cálculo lo hacemos para la normal con Excel P[ξ ≥ 40] = 1 − P [ξ ≤ 40] ≈ 1 − DISTR.NORM(40;60;RAIZ(42);1) = 0.9989

sería

Ahora bien, lo que estamos contando aquí, no es para hacerlo con Excel, sino suponer que no disponemos de computadores y tuviésemos que hacerlo con las tablas de la normal, que era lo común hasta la década de los 70s. Vamos entonces a calcularlo con las tablas de la normal, para ello tipificamos ξ

ξ − 60 40 − 60   P[ξ ≥ 40] = 1 − P [ξ ≤ 40] = 1 − P  Z = ≤ = −3.086  = 0.99898 6.48 6.48   Volviendo a Excel, la probabilidad puntual de 60 estudiantes con gripe  200  60 140 P[ξ = 60] =   0.3 0.7 = DISTR.BINOM(60;200;0,3;0)=0.06146  60  Pero sin Excel, en los años previos a los 70s la cosa tenía más dificultad. Primero, que la binomial no estaba tabulada para valores tan altos y, segundo, que la distribución normal es continua y la probabilidad en un punto concreto es 0. Una cosa que podíamos hacer es aproximar este valor por el de la densidad de la normal −1 60 −60   42 

 1 P[ξ = 60] = e2 42 2π

=

1 e0 = 0.06156 84π

Por último, otra posibilidad usando tablas de la normal es considerar un intervalo de longitud 1 centrado en el valor 60 del que deseamos hallar su probabilidad y hacer: 60.5 − 60   59.5 − 60 P[ξ = 60] ≈ P[59.5 ≤ ξ ≤ 60.5] ≈ P  ≤Z≤  ≈ P[ −0.0772 ≤ Z ≤ 0.0772] = 0.06153 42 42  

Ejemplo

| 73


La altura de los varones de cierta ciudad es una v.a. ξ, que se distribuye según una ley gaussiana de esperanza µ = 175 cm y desviación típica σ = 10 cm. Dar un intervalo para el que tengamos la seguridad de que el 50% de los habitantes de la ciudad estén comprendidos en él.

Solución Tenemos que ξ↝N(175,100). Si buscamos un intervalo donde estar seguros de que el 50% de los habitantes tengan sus alturas comprendidas en él hay varias estrategias posibles: Estrategia 1 Llamamos x0.5 al percentil 50, la mitad de la población está debajo suya y la otra mitad por encima. Por ello 0.5 = P[ξ ≤ x0.5 ] = ∫

x0.5

−∞

f ( z )dz , y tipificando queda

x − 175 1  ξ − 175 x0.5 − 175    de donde, 0.5 = P  ≤ = P  Z ≤ 0.5 = z0.5  = P [ Z ≤ z0.5 ] =  10  10 2  10   consultado las tablas de la N(0,1) esto ocurre, como era de esperar, para z0.5 = 0, y deshaciendo el cambio que hemos hecho en la tipificación x0.5 − 175 = z0.5 ⇔ x0.5 = 10 ⋅ 0 + 175 = 175 , por lo 10 que podemos concluir que en el intervalo (-∞,175] se encuentra el 50% de la población, cosa que ya deberíamos haber intuido dado que la distribución N(0,1) es simétrica y por tanto deja una masa de probabilidad del 50% a cada lado de la media.

Razonando de la misma forma concluiríamos que otro intervalo conteniendo el 50% de la población sería el [175,+ ∞)

| 74


Estrategia 2 Como ambos intervalos son muy grandes y no tienen en cuenta la simetría de la distribución normal vamos a intentar construir otro intervalo pero esta vez centrado en µ. Para ello, sabemos dado que la N(0,1) es simétrica, buscaré un x0.25 y un x0.75 de tal manera que [x0.25 , x0.75] encierre el 50%, y lo indico mediante x0.25 porque quiero que este valor sea un percentil 25 y el x0.75 sea el percentil 75.

Igual que hicimos en la estrategia 1, calculamos estos valores tipificando la variable como sigue:

x − 175  ξ − 175 x0.75 − 175    ≤ = P  Z ≤ 0.75 = z0.75  = P [ Z ≤ z0.75 ] = 0.75 ⇔ z0.75 = 0.675 0.75 = P   10 10  10   

De lo que resulta, por la simetría, que el intervalo para N(0,1) sería [-0.675,0.675] y volviendo a destipificar:

x0.75 − 175 = z0.75 ⇒ x0.75 = 10 ⋅ 0.675 + 175 = 181.75 10 Resultando el intervalo [168.25, 181.75] conteniendo el 50% de la población. Este intervalo es el más pequeño posible, es centrado respecto a µ y simétrico.

Ejemplo

En un país A con renta media de 24,000 € año, con una desviación típica de 11,000€ un médico gana 46,000 € año, mientras que, en otro país B con una renta media de 50,000€ y desviación típica 12,500€ otro médico gana 75,000€ al año. ¿En qué país A o B el médico ganará más con respecto a la media de salarios?

Solución

| 75


En el país A, el médico gana 46,000€ con respecto a una N(24000, 11000) y en el país B gana 50,000€ con respecto a una N(50000, 12500). Ambos ganan por encima de la media. Vamos ahora a tipificarlas las dos para ver en qué país es menos probable ganar el sueldo que gana y así entenderemos que está mejor pagado con respecto a los salarios de su país.  ξ − 24000 46000 − 24000  P [ξ ≤ 46000] = P  ≤  = P [ Z ≤ 2] = 0.9772 11000  11000  ξ − 50000 75000 − 50000  ≤ P [ξ ≤ 75000] = P   = P [ Z ≤ 2] = 0.9772 12500  12500

Por tanto, parece que ambos están pagados de forma similar con respecto a los ingresos medios y las desviaciones de su país.

| 76


Distribución Normal N(0,1)

F ( x ) = P[ξ ≤ x ] =

0,03

0,04

x

−∞

1 f ( z ) dz = σ 2π 0,05

0,06

0,07

x

−∞

e

1 z−µ  −   2 σ 

0,08

2

dz

Normal Z

0

0,01

0,02

0

0,50000

0,50399

0,50798

0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586

0,09

0,1

0,53983

0,54380

0,54776

0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535

0,2

0,57926

0,58317

0,58706

0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409

0,3

0,61791

0,62172

0,62552

0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173

0,4

0,65542

0,65910

0,66276

0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793

0,5

0,69146

0,69497

0,69847

0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240

0,6

0,72575

0,72907

0,73237

0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490

0,7

0,75804

0,76115

0,76424

0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524

0,8

0,78814

0,79103

0,79389

0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327

0,9

0,81594

0,81859

0,82121

0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891

1

0,84134

0,84375

0,84614

0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214

1,1

0,86433

0,86650

0,86864

0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298

1,2

0,88493

0,88686

0,88877

0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147

1,3

0,90320

0,90490

0,90658

0,90824 0,90988 0,91149 0,91308 0,91466 0,91621 0,91774

1,4

0,91924

0,92073

0,92220

0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189

1,5

0,93319

0,93448

0,93574

0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408

1,6

0,94520

0,94630

0,94738

0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449

1,7

0,95543

0,95637

0,95728

0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327

1,8

0,96407

0,96485

0,96562

0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062

1,9

0,97128

0,97193

0,97257

0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670

2

0,97725

0,97778

0,97831

0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169

2,1

0,98214

0,98257

0,98300

0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574

2,2

0,98610

0,98645

0,98679

0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899

2,3

0,98928

0,98956

0,98983

0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158

2,4

0,99180

0,99202

0,99224

0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361

2,5

0,99379

0,99396

0,99413

0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520

2,6

0,99534

0,99547

0,99560

0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643

2,7

0,99653

0,99664

0,99674

0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736

2,8

0,99744

0,99752

0,99760

0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807

2,9

0,99813

0,99819

0,99825

0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861

3

0,99865

0,99869

0,99874

0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900

3,1

0,99903

0,99906

0,99910

0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929

3,2

0,99931

0,99934

0,99936

0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950

3,3

0,99952

0,99953

0,99955

0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965

3,4

0,99966

0,99968

0,99969

0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976

3,5

0,99977

0,99978

0,99978

0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983

3,6

0,99984

0,99985

0,99985

0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989

3,7

0,99989

0,99990

0,99990

0,99990 0,99991 0,99991 0,99992 0,99992 0,99992 0,99992

3,8

0,99993

0,99993

0,99993

0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995

3,9

0,99995

0,99995

0,99996

0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997

4

0,99997

0,99997

0,99997

0,99997 0,99997 0,99997 0,99998 0,99998 0,99998 0,99998

| 77


LA FUNCION GAMMA

En matemáticas, la función Gamma (denotada como Γ ( z ) ) es una función que extiende el concepto de factorial a los números complejos. La notación fue ideada por Adrien-Marie Legendre. Si la parte real del número complejo z es positivo, entonces la integral ∞

Γ( z ) = ∫ t z −1e −t dt 0

converge absolutamente, esta integral puede ser extendida a todo el plano complejo excepto a los enteros negativos y al cero. Si n es un entero positivo, entonces Γ(n) = ( n − 1) ! lo que nos muestra la relación de esta función con el factorial. De hecho, la función Gamma generaliza el factorial para cualquier valor complejo de n. La función Gamma aparece en varias funciones de distribución de probabilidad, por lo que es bastante usada tanto en probabilidad y estadística como en combinatoria.

La parte de imagen con el identificador de relación rId604 no se encontró en el archiv o.

Propiedades

| 78


1. Γ ( z + 1) = z Γ ( z ) 2. Γ (1) = 1 3. Γ ( n + 1) = n !

Demostraciones 1. Dado z ≠ 0, -1, -2, -3, .... se tiene que:   n !n z +1 n !n z n = lim  z ⋅  = ... n →∞ ( z + 1) ⋅ ... ⋅ ( z + n ) ⋅ ( z + n + 1) n →∞ + ⋅ ⋅ + + + z z z n z n 1 ... 1 ( ) ( ) ( )  

Γ( z + 1) = lim

... = zΓ( z ) lim

n →∞

n = zΓ ( z ) ( z + n + 1)

2. Integrando por partes:

Γ(1) = ∫ x1−1e− x dx = ∫ e− x dx = −e−∞ − ( −e −0 ) = 0 − (−1) = 1 ∞

0

0

3. ∞

Γ(n + 1) = ∫ x 0

e dx = ∫

n +1−1 − x

− x n −0n 0 lim x = 0 = = 0 n→0 e e 1 n −x n !⋅ 0 lim x = lim x = 0 n →∞ e n →∞ e

0

∞  − xn  x e dx = por partes  x  + n ∫ x n −1e − x dx = ... 0  e 0 n −x

   − x n  ∞ ⇒ x  =0 e 0 por la regla de L'Hopital   

... = n ∫ x n −1e − x dx = nΓ(n) 0

Hemos obtenido pues la relación de recurrencia Γ ( n + 1) = nΓ ( n ) que nos lleva a que

Γ(n + 1) = nΓ(n) = n ( n − 1) ! = n ! Otras Definiciones alternativas de Γ

Las siguientes definiciones de la función Gamma mediante productos infinitos, debidas a Euler y Weierstrass respectivamente, son válidas para todo complejo z que no sea un entero negativo:

| 79


 1 1+  z n n  1 1 n !n n z  Γ( z ) = lim n !n ∏ = lim = ∏ n →∞ n →∞ z ( z + 1) ⋅ ... ⋅ ( z + n ) z k =0 1 + z k =0 z + k n

Γ( z ) =

e −γ z z

z

−1

 z  zn ∏ 1 +  e donde γ es la constante de Euler-Mascheroni. n n =1  ∞

1

También puede obtenerle la siguiente representación integral: Γ( z + 1) = ∫ e− t dt z

0

Relación con otras funciones •

En la representación integral de la función Gamma, tanto el límite superior como el inferior de la integración están fijados. La función gamma incompleta superior γ(a,x) e inferior Γ(a,x) se obtienen modificando los límites de integración superior o inferior respectivamente. ∞

Γ(a, x) = ∫ t a −1e− t dt x

x

γ (a, x) = ∫ t a −1e−t dt 0

La función Gamma está relacionada con la función beta , que veremos a continuación, por la siguiente fórmula Γ ( x ) Γ( y ) B ( x, y ) = Γ( x + y )

Algunos valores de la función Gamma La parte de imagen con el identificador de relación rId639 no se encontró en el archiv o.

http://es.wikipedia.org/wiki/Funci%C3%B3n_gamma

| 80


| 81


DISTRIBUCIÓN χ2 DE PEARSON Sea una v.a. Z↝N(0,1), la v.a. ξ = Z2 se distribuye según una ley de probabilidad distribución χ2 con un grado de libertad, lo que se representa como ξ → χ12 Sean n v.a. independientes Z1,Z2,---,Zn ↝N(0,1), la v.a. formada por la suma de sus cuadrados respectivos ξ = Z12 + Z22+---+Zn2 es una distribución que denominaremos ley de distribución χ2 con n grados de libertad ξ → χ n2 . n

Dicho resumido, con lenguaje matemático:

{Z i }i =1,...,n → N (0,1) ⇒ ∑ Z i2 → χ n2 i =1

En general, dadas ξ 1, ξ 2,---, ξ n independientes si

{ξi }i =1,...,n

2

 ξ − µi  2 → N ( µi , σ ) ⇒ ∑  i  → χn σi  i =1  n

2 i

La función de densidad de la χ2 es 0   n x −1 −  1 2 2 f χ 2 ( x) =  n x e n  22 Γ  n     2

−∞ < x ≤ 0 0 < x < +∞

Esperanza E[ξ]

E [ξ ] = n

E[ξ2]

E ξ 2  = ...

Varianza Var[ξ]

Var [ξ ] = E ξ 2  − E [ξ ] = 2n 2

| 82


La parte de imagen con el identificador de relación rId656 no se encontró en el archiv o.

Observa que para n = 1 y n = 2 la curva es decreciente y a partir de n = 3 la curva ya tiene forma de campana asimétrica con un máximo en el punto (n - 2) y tendiendo a cero para valores grandes. La parte de imagen con el identificador de relación rId657 no se encontró en el archiv o.

| 83


Usaremos la χ2 en inferencia estadística, la emplearemos en las distribuciones de los estadísticos varianza muestral y quasivarianza y cuando veamos el contraste de hipótesis sobre asociación de variables categóricas.

La ley de distribución χ2muestra su importancia cuando queremos determinar la variabilidad (sin signo) de cantidades que se distribuyen en torno a un valor central siguiendo un mecanismo normal. Como ilustración tenemos el siguiente ejemplo:

Ejemplo Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes aproximados con la realidad, aunque existe cierta cantidad de error ε ↝N(0,4) . Es decir ξreal = ξexp + ε Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo de n = 100 pacientes. Nos interesa medir la cantidad de error que se acumula en las mediciones de todos los pacientes. Podemos plantear varias estrategias para medir los errores acumulados. Entre ellas destacamos las siguientes: Estrategia 1 Definimos el error acumulado en las mediciones de todos los pacientes como n

E1 = ∑ ε i . ¿Cuál es el valor esperado para E1? i =1

Estrategia 2. Definimos el error acumulado como la suma de los cuadrados de todos los errores n

(cantidades positivas): E2 = ∑ ε i2 . ¿Cuál es el valor esperado para E2? i =1

A la vista de los resultados, cuál de las dos cantidades, E1 y E2, le parece más conveniente utilizar en una estimación del error cometido por un instrumento.

| 84


Solución Suponiendo que todas las mediciones son independientes, se tiene que La parte de imagen con el identificador de relación rId662 no se encontró en el archiv o.

De este modo, el valor esperado para E1 es 0, es decir, que los errores ei van a tender a compensarse entre unos pacientes y otros. Obsérvese que si µ no fuese conocido a priori, podríamos utilizar E1, para obtener una aproximación de µ La parte de imagen con el identificador de relación rId663 no se encontró en el archiv o.

Sin embargo, el resultado E1 no nos indica en qué medida hay mayor o menor dispersión en los errores con respecto al 0. En cuanto a E2 podemos afirmar lo siguiente: La parte de imagen con el identificador de relación rId664 no se encontró en el archiv o.

En este caso los errores no se compensan entre sí, y si σ2 no fuese conocido, podría ser ``estimado" de modo aproximado mediante La parte de imagen con el identificador de relación rId665 no se encontró en el archiv o.

Sin embargo, no obtenemos ninguna información con respecto a µ. En conclusión, E1 podría ser utilizado para calcular de modo aproximado µ, y E2 para calcular de modo aproximado σ2. Las dos cantidades tienen interés, y ninguna lo tiene más que la otra, pues ambas formas de medir el error nos aportan información. El siguiente resultado será de importancia más adelante. Nos afirma que la media de distribuciones normales independientes es normal pero con menor varianza y relaciona los grados de libertad de una v.a. con distribución χ2, con los de un estadístico como la varianza (página):

| 85


Teorema (Cochran) Sean {ξi }i =1,...,n → N (µ , σ 2 ) v.a.

independientes.

Entonces

 σ2  1 n a) ξ = ∑ ξi → N  µ ,  n i =1 n   n

b)

∑ i =1

(ξ − ξ )

2

i

σ n

c) ξ y ∑ i =1

→ χ n2−1

2

(ξ − ξ )

2

i

σ

→ χ n2−1 son variables aleatorias

2

independientes

DISTRIBUCIÓN

La parte de imag en con

DE STUDENT

La distribución -Student se construye como un cociente entre una normal Z ↝N(0,1) y la raíz de una χ2 independientes. De modo preciso, llamamos distribución t-Student con n grados de libertad, tn a la de una v.a. T, Z T= → tn 1 2 χn n La parte de imag en con

Este tipo de distribuciones aparece cuando tenemos n+1 v.a. independientes ξ ↝N(μ,σ2) y {ξi }i =1,...,n → N (µ , σ 2 ) y nos interesa la distribución de T=

ξ −µ σ 1 n  ξ i − µi  ∑  n i =1  σ i 

2

→ tn

 n +1 Γ  2  La función de densidad de tn es fT ( x) =  n Γ   nπ 2

 x2  1 +  n  

n +1 2

∀x ∈

La parte de imag en con

Figura: Función de densidad de una de Student

| 86


La parte de imagen con el identificador de relación rId686 no se encontró en el archiv o.

La distribución de Student tiene propiedades parecidas a N(0,1): • Es de media cero, y simétrica con respecto a la misma; • Es algo más dispersa que la normal, pero la varianza decrece hasta 1 cuando el número de grados de libertad aumenta; La parte de imag en con

Figura: Comparación entre las funciones de densidad de t1 y N(0,1). La parte de imagen con el identificador de relación rId688 no se encontró en el archiv o.

Para un número alto de grados de libertad se puede aproximar la distribución de Student por la normal, es decir, | 87


n →∞ tn  → N (0,1)

Figura: Cuando aumentan los grados de libertad, la distribución de Student se aproxima a la distribución normal tipificada. La parte de imagen con el identificador de relación rId691 no se encontró en el archiv o.

La función e distribución resulta:

P T ≤ x  = FT ( x ) =

x

x

∫−∞ fT ( z ) dz = ∫−∞

 n +1  Γ   2  n Γ   nπ  2

n +1 2 − 2 z

 1+   n 

dz

en lugar de considerar una primitiva de esa función y determinar la integral definida, buscaremos el resultado aproximado en una tabla de la distribución tn Usaremos la t-Student en inferencia estadística para estimar la distribución de la media cuando la varianza es desconocida y también la usaremos cuando estudiemos la distribución de la diferencia de la media de dos v.a.

| 88


LA DISTRIBUCIÓN

La parte de imagen con el identificador de relación rId694 no s…

DE SNEDECOR

Otra de la distribuciones importantes asociadas a la normal es la que se define como cociente 2 de distribuciones χ2 independientes. Sean ξ1 → χ n y ξ 2 → χ m2 v.a. independientes. Decimos 1 ξ1 m ξ1 entonces que la variable F = n = → Fn, m sigue una distribución de probabilidad 1 n ξ 2 ξ2 m F de Snedecor, con (n,m) grados de libertad. Obsérvese que Fn, m ≠ Fm, n . La forma más habitual en que nos encontraremos esta distribución será en el caso en que tengamos n v.a {ξ1,i }i =1,...,n → N ( µi , σ i2 ) y m v.a. {ξ 2, j } j =1,...,m → N ( µ j , σ 2j ) todas ellas independientes y así 2

1 n  xi − µi  ∑  n i =1  σ i  → Fn ,m F= 2 m  x −µ  1 j j   ∑ m j =1  σ j  De esta ley de probabilidad lo que más nos interesa es su función de distribución FF ( x) = P [ F ≤ x ] y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una tabla donde encontrar aproximaciones a esas cantidades La parte de imagen con el identificador de relación rId711 no se encontró en el archiv o.

Figura: Función de densidad de

.

La parte de imagen con el identificador de relación rId712 no se encontró en el archiv o.

| 89


Es claro que la distribución de Snedecor no es simétrica, pues sólo tienen densidad de probabilidad distinta de cero, los punto de + Otra propiedad interesante de la distribución de Snedecor es: 1 F → Fn,m ⇔ → Fm,n F

| 90


DESIGUALDAD DE CHEBYSHEV Sea ξ una v.a. con E[ξ] = µ y Var[ξ] = σ2. Sea c∊ ℝ cualquiera. Entonces

∀ε > 0

1 2 P  ξ − c ≥ ε  ≤ 2 E [ξ − c ] ε

Si a esta expresión le hayamos su complementaria y tomamos c = µ y ε = kσ

∀ε > 0

P  ξ − µ ≥ kσ  ≤

1

( kσ )

E [ξ − µ ] = 2

2

1

( kσ )

2

σ2 =

1 k2

1 Es decir P  ξ − µ ≥ kσ  ≤ 2 k

Dicho en términos lingüísticos para cualquier conjunto de datos (de una población o una muestra) y cualquier constante k mayor que 1, el porcentaje de los datos que debe caer dentro de k-veces la desviación típica de cualquier lado de la media es de por lo menos: 1 1− 2 k

El teorema de Chebyshev se aplica a cualquier tipo de datos, pero sólo nos indica “por lo menos que porcentaje” debe caer entre ciertos límites. Pero para casi todos los datos, el porcentaje real de datos que cae entre esos limites es bastante mayor que el que especifica el teorema de Chebyshev. Para las distribuciones que tienen forma de campana (normal, χ2, t-Student, binomial... ) puede hacerse unas afirmaciones todavía más contundentes:

1. alrededor del 68% de los valores caerán dentro de una desviación típica de la media esto es: entre X − σ, X + σ ; 2. aproximadamente el 95% de los valores caerán dentro de dos desviaciones típicas de la media, esto es : X − 2σ, X + 2σ ; 3. aproximadamente el 99,7% de los valores caerán dentro de dos desviaciones típicas de la media, esto es : X − 3σ, X + 3σ ;

Ejemplo

| 91


Basándonos en el teorema de Chebyshev con k = 2 ¿Qué podemos decir del tamaño de nuestro error, si vamos a usar la media de una muestra aleatoria de tamaño n = 64 para estimar la media de una población infinita con σ = 20?

Solución

Sustituyendo n = 64 y σ = 20 en la fórmula apropiada para el error estándar de la media, 20 = 2.5 y por el teorema de Chebyshev podemos afirmar que obtenemos que σ x = 64 como mínimo 1 - 1/22 = 0.75 que el error será menor que k·σx = 2·2.5= 5. Es decir que tenemos una garantía de que en el 75% de los casos la media de la población estará entre la media calculada ±5 . Pero esto no es suficiente, cuando la probabilidad real de este caso puede estar entre 0,98 y el 0,999

Demostración Lo único que hay que probar es la primera parte ∀ε > 0

1 2 P  ξ − c ≥ ε  ≤ 2 E [ξ − c ] ε

P  ξ − c ≥ ε  = ∫ f ( x ) dx , es decir, trabajamos en los intervalos (-∞, c-ε) y x / ξ ( x ) − c ≥ε (c+ε, +∞)

Pero

ξ −c (ξ − c ) ≥ 1 ≥1⇔ ε ε2 2

ξ −c ≥ε ⇔

Pero

decir

f ( x )dx ≤ ∫

x / ξ ( x ) − c ≥ε

Pero esta integral es

(ξ ( x) − c) 2

ε2

R

R

ε

por

lo

tanto

f ( x) dx donde R = { x / ξ ( x ) − c ≥ ε }

(ξ ( x ) − c) 2 2

y

f ( x )dx = ∫

+∞

−∞

(ξ ( x ) − c) 2

ε

2

f ( x)dx =

1

ε

2

E [ξ − c ] c.q.d. 2

| 92


LEY DE LOS GRANDES NUMEROS

Consideremos un experimento de Bernuilli ξ∊Ber(p) y sea A un suceso asociado a él con P(A)=p. Realizamos n pruebas independientes de ξ y sean nA el número de veces que ocurre A. Llamamos f A =

nA n

i)

P  f A − p ≥ ε  ≤

ii)

P  f A − p < ε  ≥

p (1 − p ) n ⋅ε 2 p (1 − p ) n ⋅ε 2

∀ε > 0 , o equivalentemente: ∀ε > 0

Demostración

Tal y como está definida nA∊B(n,p) luego E[nA] = np y Var[nA] = np(1 - p) Como f A =

nA n

se

tiene

que

 n  np E [ fA ] = E  A  = =p n n

y

 n  np (1 − p ) p (1 − p ) = Var [ f A ] = Var  A  = n2 n n

Aplicando estos valores a la complementaria de la desigualdad de Chebyshev resulta

 P  fA − p < k 

p (1 − p )  1 ≥ 2 n  k

p (1 − p ) nε 2  p (1 − p )  2 con lo que queda ε 2 = k 2  ⇔ k =  n n p (1 − p )   1 p (1 − p ) = de donde sustituyendo resulta P  f A − p < ε  ≥ 2 nε nε 2 p (1 − p ) Consideramos como ε = k

APROXIMACION NORMAL DE LA BINOMIAL

| 93


Debido a este resultado ξ −µ ξ − np = → N (0,1) Y= σ np (1 − p )

previo,

si

tenemos

ξ∊B(n,p)

entonces

Este resultado se cumple para n>10 y cuando p está cerca del p = 0.5

Además tendremos que realizar una corrección en las notaciones, dado que estamos pasando de una binomial (discreta) a una normal (continua):

P [ξ = k ] ≅ P [ k − 0.5 ≤ ξ ≤ k + 0.5] P [ a ≤ ξ ≤ b ] ≅ P [ a − 0.5 ≤ ξ ≤ b + 0.5]

TEOREMA CENTRAL DEL LIMITE

Si { ξi } una sucesión de v.a. independientes con E[ξi] = µi y Var[ξi]= σi2 con i = 1,2,3,...,n. n

Entonces para n lo suficientemente grande se tiene que la v.a. ξ = ∑ ξ i ( x ) tiende a una i =1

n

n

i =1

i =1

normal de media E [ξ ] = ∑ µi = µ y varianza Var [ξ ] = ∑ σ i = σ 2

n

ξ − ∑ µi i =1

O lo que es lo mismo,

n

∑σ

→ N (0,1)

2 i

i =1

Demostración (Revisarla, no esta bien) Para la binomial Sean { ξi } una sucesión de v.a. independientes con E[ξi] = µi y Var[ξi]= σi2 con i = 1,2,3,...,n. y sea ξ = ξ1 + ξ2 + ... + ξn

Recordemos que una ξ∊B(n,p) se puede expresar como la suma de variables { ξi } definidas como | 94


1 si A ocurre i-esima repeticion otro caso 0

ξi ( x) =  n

Por tanto ξ = ∑ ξ i ( x ) es una v.a. que ya hemos demostrado que E[ξ] = np y Var[ξ]= np(1-p) i =1

y además si n grande también probamos que

ξ − np np (1 − p )

→ N (0,1)

n

ξ − ∑ µi En general si ξ = ξ1 + ξ2 + ... + ξn entonces

i =1

n

∑σ

→ N (0,1)

2 i

i =1

| 95


DISTRIBUCION BETA

La distribución beta es una distribución de probabilidad continua con dos parámetros a y b cuya función de densidad es Γ ( a + b ) a −1 b −1 f ( x) = x (1 − x ) 0 < x <1 Γ ( a ) Γ (b) Esperanza E[ξ]

E [ξ ] =

Varianza Var[ξ]

Var [ξ ] = E ξ 2  − E [ξ ] =

a a+b ab

2

( a + b + 1)( a + b )

2

Un caso especial de la distribución Beta con a = 1 y b = 1 es la probabilidad uniforme. Para relacionar con la muestra se iguala E[X] a la media y V[X] a la varianza y de despejan a y b. Obtenido de "http://es.wikipedia.org/wiki/Distribuci%C3%B3n_beta"

Beta Función

de

densidad

de

probabilidad

La parte de imagen con el identificador de relación rId794 no se encontró en el archiv o.

Función

de

distribución

de

probabilidad

| 96


La parte de imagen con el identificador de relación rId796 no se encontró en el archiv o.

α > 0 β > 0 forma (real)

Parámetros

forma

(real)

La parte de imagen con el identificador de relación rId800 no se encontró en el archiv o.

Dominio La parte de imagen con el identificador de relación rId802 no se encontró en el archiv o.

Función de densidad (pdf)

Función de distribución (cdf)

La parte de imagen con el identificador de relación rId804 no se encontró en el archiv o.

La parte de imagen con el identificador de relación rId806 no se encontró en el archiv o.

Media

Mediana La parte de imagen con el identificador de relación rId809 no se encontró en el archiv o.

Moda para α > 1,β > 1 La parte de imagen con el identificador de relación rId811 no se encontró en el archiv o.

Varianza

La parte de imagen con el identificador de relación rId813 no se encontró en el archiv o.

Coeficiente simetría

de

Curtosis Entropía

| 97


La parte de imagen con el identificador de relación rId817 no se encontró en el archiv o.

Función generadora de momentos (mgf) Función característica

La parte de imagen con el identificador de relación rId819 no se encontró en el archiv o.

| 98


DISTRIBUCIÓN GAMMA

La distribución gamma es una distribución de probabilidad continua con dos parámetros k y λ cuya función de densidad para valores x > 0 es f χ 2 ( x) = λ k e − λ x n

x k −1 Γ(k )

x>0

Para valores enteros k = 1,2,.... la función gamma queda como Γ(k) = (k − 1)! (siendo ! la función factorial). En este caso - por ejemplo para describir un proceso de Poisson - se llama distribución Erlang con un parámetro θ = 1 / λ. Esperanza E[ξ]

Varianza Var[ξ]

E [ξ ] =

k

λ

Var [ξ ] =

= kθ k

λ2

= kθ 2

Relaciones El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es una variable aleatoria con distribución gamma. Eso es la suma de k variables aleatorias independientes de distribución exponencial con parámetro λ. La parte de imagen con el identificador de relación rId833 no se encontró en el archiv o.

Ver http://mathworld.wolfram.com/GammaDistribution.html

| 99


RESUMEN DE DISTRIBUCIONES

Distribución

Notación

E[ξ]

p·q

φξ (t ) = q + peit

n n− k f (k ) =   p k (1 − p ) k

n·p

n·p·q

φξ (t ) = ( q + peit )

 k + r − 1 r k f (k ) =  p q  k 

rq p

rq p2

 q  φξ (t ) =  it   1 − pe 

f(k) = qk p

q p

q p2

φξ (t ) =

 Np   Nq     k n − k   f (k ) = N   n

n·p

xi =

0

1

Ber(n)

P[ξ = xi]

q

p

Binomial

Binomial negativa Bn(n.p)

Geométrica Geo(p)

Hipergeométrica Hgeo(N,n,p)

Poisson Poi(λ)

Uniforme U(a,b)

Exponencial Exp(λ)

Función Característica φξ (t )

p

Bernuilli

B(n,p)

Var[ξ]

e− λ λ k f (k ) = k!

f ( x) =

1 b−a

f ( x) = λ e− λ x

npq

N −n N −1

λ

λ

b+a 2

(b − a )

1

1

λ

2

φξ (t ) = e

12

λ

p 1 − eit q

2

φξ (t ) =

(

)

λ eit −1

eitb − eita it (b − a )

φξ (t ) = −

λ it − λ

| 100

n

r


Normal N(µ,σ2)

χ2 de Pearson χ2(n)

t de Student t(n)

µ

σ2

n x −1 − 2 2

n

2n

 n +1  n +1 Γ 2 −  2   x  2  fT ( x ) = 1 +  n n Γ   nπ   2

0

1

1  x−µ  σ 

2

−  1 f ( x) = e 2 σ 2π

f χ 2 ( x) = n

1 n

n 22 Γ   2

x

e

φξ (t ) = e

1 it µ − t 2σ 2 2

F de Snedecord F(n,m) Beta Gamma

| 101


| 102


Ejercicio 6..1 Para estudiar la regulación hormonal de una línea metabólica se inyectan ratas albinas con un fármaco que inhibe la síntesis de proteínas del organismo. En general, 4 de cada 20 ratas mueren a causa del fármaco antes de que el experimento haya concluido. Si se trata a 10 animales con el fármaco, ¿cuál es la probabilidad de que al menos 8 lleguen vivas al final del experimento? Ejercicio 6..2 En una cierta población se ha observado un número medio anual de muertes por cáncer de pulmón de 12. Si el número de muertes causadas por la enfermedad sigue una distribución de Poisson, ¿cuál es la probabilidad de que durante el año en curso: 1. Haya exactamente 10 muertes por cáncer de pulmón? 2. 15 o más personas mueran a causa de la enfermedad? 3. 10 o menos personas mueran a causa de la enfermedad?

Ejercicio 6..3 Dañando los cromosomas del óvulo o del espermatozoide, pueden causarse mutaciones que conducen a abortos, defectos de nacimiento, u otras deficiencias genéticas. La probabilidad de que tal mutación se produzca por radiación es del 10%. De las siguientes 150 mutaciones causadas por cromosomas dañados, ¿cuántas se esperaría que se debiesen a radiaciones? ¿Cuál es la probabilidad de que solamente 10 se debiesen a radiaciones?

Ejercicio 6..4 Entre los diabéticos, el nivel de glucosa en sangre ξ, en ayunas, puede suponerse de distribución aproximadamente normal, con media 106 mg/100 ml y desviación típica 8 mg/100 ml, es decir ξ ↝N(μ = 106, σ2 = 64),

1. 2. 3. 4. 5.

Hallar P[ξ ≤ 120] ¿Qué porcentaje de diabéticos tienen niveles comprendidos entre 90 y 120 ? Hallar P[106 ≤ ξ ≤ 110] Hallar P[ξ ≤ 121]. Hallar el punto x caracterizado por la propiedad de que el 25% de todos los diabéticos tiene un nivel de glucosa en ayunas inferior o igual a x.

Ejercicio 6..5 Una prueba de laboratorio para detectar heroína en sangre tiene un 92% de precisión. Si se analizan 72 muestras en un mes, ¿cuál es la probabilidad de que: 1. 60 o menos estén correctamente evaluadas? 2. menos de 60 estén correctamente evaluadas? | 103


3. exactamente 60 estén correctamente evaluadas?

Ejercicio 6..6. El 10% de las personas tiene algún tipo de alergia. Se seleccionan aleatoriamente 100 individuos y se les entrevista. Hallar la probabilidad de que, al menos, 12 tengan algún tipo de alergia. Hallar la probabilidad de que, como máximo, 8 sean alérgicos a algo.

Ejercicio 6..7 La probabilidad de muerte resultante del uso de píldoras anticonceptivas es de 3/100.000. De 1.000.000 de mujeres que utilizan este medio de control de natalidad: 1. ¿Cuántas muertes debidas a esta causa se esperan? 2. ¿Cuál es la probabilidad de que haya, como máximo, 25 de estas muertes? 3. ¿Cuál es la probabilidad de que el número de muertes debidas a esta causa esté entre 25 y 35, inclusive?

Ejercicio 6..8 La probabilidad de presentar una característica genética es de 1/20. 1. Tomando una muestra de 8 individuos, calcular la probabilidad de que 3 individuos presenten la característica. 2. Tomando una muestra de 80 personas, ¿cuál será la probabilidad de que aparezcan más de 5 individuos con la característica?

Ejercicio 6..9 Se supone que en una cierta población humana el índice cefálico i, (cociente entre el diámetro transversal y el longitudinal expresado en tanto por ciento), se distribuye según una Normal. El 58% de los habitantes son dolicocéfalos (i ≤ 75), el 38% son mesocéfalos (75 < i ≤ 80) y el 4% son braquicéfalos (i > 80). Hállese la media y la desviación típica del índice cefálico en esa población.

Ejercicio 6..10 Se supone que la glucemia basal en individuos sanos, ξ s sigue una distribución ξ s ↝N(μ = 80, σ = 10), mientras que en los diabéticos ξ d, sigue una distribución ξ d ↝N(μ = 160, σ = 31.4) Si se conviene en clasificar como sanos al 2% de los diabéticos: 1. ¿Por debajo de qué valor se considera sano a un individuo? ¿Cuántos sanos serán clasificados como diabéticos? | 104


2. Se sabe que en la población en general el 10% de los individuos son diabéticos ¿cuál es la probabilidad de que un individuo elegido al azar y diagnosticado como diabético, realmente lo sea?

Ejercicio 6..11. Supóngase que se van a utilizar 20 ratas en un estudio de agentes coagulantes de la sangre. Como primera experiencia, se dio un anticoagulante a 10 de ellos, pero por inadvertencia se pusieron todas sin marcas en el mismo recinto. Se necesitaron 12 ratas para la segunda fase del estudio y se les tomó al azar sin reemplazamiento. ¿Cuál es la probabilidad de que de las 12 elegidas 6 tengan la droga y 6 no la tengan?

Fuente http://www.bioestadistica.uma.es/baron/apuntes/

| 105


U⌀ℕℤℚℝℂℙℐΩ⇐⇒⇔⇏∊∉∈∅⇾≈≔⇎⇝≡ℤ≤≥∀⇒∊∅⊂⟇∃·∊∃ A⨯B

·U∩∪∼∿⊂⊃⊆⊇⊄⋂⋃⊅∧∨U⤳≮≠|

| 106


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.