Probabilidad

Page 1

Statistics Probability

OpenMaths.com 1.1.5.3

Ver 01:03/02/2010



NOTA La clasificación decimal de todos los temas de este manual tienen implícito el comienzo 1.1.5.3 correspondiente a

1

SCIENCE

1.1

MATHEMATICS

1.1.5

STATISTICS

1.1.5.3

PROBABILIDAD

COPYLEFT Este material así como los applets, powerpoints, videos y archivos de sonido asociados, puede ser distribuido bajo los términos y condiciones definidos en Open Publication License versión 1.0 o posterior (La versión más reciente está disponible en http://www.opencontent.org/openpub/). El contenido está sujeto a constantes cambios sin previo aviso. Su fin es didáctico y solo pretende la universalización de la cultura. Está escrito en base a la colaboración de las miles de personas que componen nuestra comunidad OpenUepc. Se ha exigido a los autores que referencien todas las fuentes utilizadas y figuran al final del texto. Cualquier distribución del mismo debe mencionar a OpenUepc como fuente. Miguel Pérez Fontenla miguelperez@edu.xunta.es INDICE AUTORES

Iniciado por: Miguel Pérez Fontenla 12/12/2009



TABLA DE CONTENIDO INTRODUCCIÓN ..................................................................................................................... 4 Introducción histórica ............................................................................................................ 4 APLICACIONES DE LA PROBABILIDAD ....................................................................... 5 ALGEBRA DE SUCESOS ........................................................................................................ 7 Conceptos básicos .................................................................................................................. 7 Experimento aleatorio ........................................................................................................ 7 Suceso elemental ................................................................................................................ 7 Espacio Muestral ................................................................................................................ 7 Suceso ................................................................................................................................ 9 Inclusión........................................................................................................................... 10 Conjunto Universal y conjunto vacio .............................................................................. 10 Sucesos iguales ................................................................................................................ 10 Suceso seguro................................................................................................................... 10 Suceso imposible ............................................................................................................. 11 Suceso contrario ............................................................................................................... 11 Conjunto de todos los sucesos (Ω) ................................................................................ 11 OPERACIONES CON SUCESOS .......................................................................................... 12 Unión de sucesos A ∪ B ..................................................................................................... 12 Intersección de sucesos A ∩ B ........................................................................................... 12 Diferencia de sucesos A \ B ................................................................................................. 12 Suceso contrario Ac .............................................................................................................. 13 ALGEBRA DE SUCESOS ...................................................................................................... 14 Leyes del álgebra de sucesos ............................................................................................... 14 Sucesos compatibles y sucesos incompatibles ..................................................................... 15 Sistema completo de sucesos ............................................................................................... 15 PROBABILIDAD .................................................................................................................... 17 Frecuencia absoluta y relativa .............................................................................................. 17 Espacios equiprobables ........................................................................................................ 18 Definición de Probabilidad. Regla de Laplace .................................................................... 19 Definición de Probabilidad como límite de frecuencias ...................................................... 20 DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD ........................................................... 21 Definición: Probabilidad ...................................................................................................... 21 Propiedades de la Probabilidad ............................................................................................ 21 PROBABILIDAD CONDICIONADA.................................................................................... 25 | INTRODUCCIÓN 1


Propiedades de la probabilidad condicionada ...................................................................... 28 Regla del producto ............................................................................................................... 31 Sucesos independientes ........................................................................................................ 31 El teorema de la probabilidad total ...................................................................................... 33 Teorema de Bayes ................................................................................................................ 34 APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA ............................................. 39 Prevalencia ........................................................................................................................... 39 Incidencia ............................................................................................................................. 39 Sensibilidad .......................................................................................................................... 39 Especificidad ........................................................................................................................ 39 MODELIZACION DE PROBLEMAS CON BOLAS Y URNAS ..................................... 47 However....................................................................................................................... 52

| INTRODUCCIÓN 2


| INTRODUCCIÓN 3


INTRODUCCIÓN EL ORIGEN DE LA VIDA

El hecho de que se haya creado la vida sobre el planeta tierra es fruto de una tremenda casualidad. Para cuantificar esta pequeñísima probabilidad se utiliza el siguiente simil: El origen de la vida tiene la misma probabilidad de originarse que el hecho de que sobre una chatarrería pase un huracán y mueva las piezas metálicas de tal forma que el el viento por si solo ensamble un perfecto Boeing 747 lleno de carburante y preparado para emprender el vuelo.

Introducción histórica El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después. Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."[1] Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática. Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva: 1. es simétrica al eje y; 2. el eje x es una asíntota, siendo la probabilidad del error igual a 0; 3. la superficie cerrada es 1, haciendo cierta la existencia de un error. | INTRODUCCIÓN 4


Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría. En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando teoría de la medida.

APLICACIONES DE LA PROBABILIDAD Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político. Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos. Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia. Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto. Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra | INTRODUCCIÓN 5


ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios. En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable. La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista. Fuente: http://es.wikipedia.org/wiki/Probabilidad

| INTRODUCCIÓN 6


ALGEBRA DE SUCESOS Conceptos básicos Experimento aleatorio En el diccionario de María Moliner se define aleatorio como aquello que depende de la suerte o el azar. Pero la palabra aleatorio viene de la palabra latina aleo que significa suerte. Muy conocida es la frase de Julio César “Alea Jacta est” que significa “La suerte está echada” momentos antes de iniciar el cruce del rio Rubicón que separaba Italia de la Galia. Más anécdotas en http://www.isftic.mepsyd.es/w3/recursos/bachillerato/matematicas/probabilidad/busquedas/busquedasm.htm

En la naturaleza existen dos tipos de experimentos, los determinísticos y los aleatorios. El experimento aleatorio es aquel en el que no podemos predecir el resultado, están sujetos al azar, por ejemplo si o lanzas una moneda para saber si sale cara o cruz, si tiras un dado, si extraes una carta de una baraja española de 40 cartas, saber el sexo de un niño antes de nacimiento, el resultado de una ruleta, todos ellos son experimentos aleatorios. Los experimentos determinísticos son aquellos que se rigen por leyes y por tanto podemos predecir de antemano el resultado si las condiciones iniciales no varían. Por ejemplo que volumen ocupa un gas a una determinada presión y temperatura, cual será la hipotenusa de un triángulo rectángulo de catetos que midan 3 y 4. Un mismo juego puede ser aleatorio o determinista si conoces la estrategia, por ejemplo el acorralado. Actualmente, se habla también de experimentos caóticos, que son aquellos que con una mínima (imperceptible o infinitamente pequeña) variación de las condiciones iniciales, el resultado final es completamente diferente, por ejemplo si dejas caer varias canicas iguales de tu mano al suelo, siempre desde la misma exacta posición, la ubicación final de las mismas en el suelo sea muy diferente. El famoso efecto mariposa es el típico ejemplo de fenómeno caótico. Suceso elemental Es cada uno de los resultados posibles que pueden ocurrir en un experimento aleatorio. Así al lanzar una moneda hay dos posibles sucesos elementales: que salga cara o que salga cruz. De la misma forma al lanzar un dado se pueden dar 6 sucesos elementales distintos, que salga un 1, o un 2, o un 3, o un 4, o un 5 o un 6. Espacio Muestral El espacio muestral de un experimiento aleatorio, que denotaremos siempre por Ω, es el conjunto de todos los resultados posibles que se pueden obtener en un experimento aleatorio. Ejemplos

| ALGEBRA DE SUCESOS 7


Veamos unos ejemplos de espacios muestrales que vamos a usar muy frecientemente en lo que sigue: Tirar una moneda Ω = { C, X } Tirar dos monedas Ω = { CC, CX, XC, XX }

Tirar tres monedas Ω = { CCC, CCX, CXC, XCC, CXX , XCX, XXC, XXX } Tirar un dado Ω={ 1, 2, 3, 4, 5, 6 } Tirar dos dados

Ω=

{ (1,1), (1,2), (1,3), (1,4), (1,5), (1,6) (2,1), (2,2), (2,3), (2,4), (2,5), (2,6) (3,1), (3,2), (3,3), (3,4), (3,5), (3,6) (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) (6,1), (6,2), (6,3), (6,4), (6,5), (6,6) }

| ALGEBRA DE SUCESOS 8


Extraer una ficha de domino Ω = { (0,0), (1,0), (2,0), (3,0), (4,0), (5,0), (6,0), (1,1), (2,1), (3,1), (4,1), (5,1), (6,1), (2,2), (3,2), (4,2), (5,2), (6,2), (3,3), (4,3), (5,3), (6,3), (4,4), (5,4), (6,4), (5,5), (6,5), (6,6) }

Un dado y una moneda Ω = { (C,1), (C,2), (C,3), (C,4), (C,5), (C,6), (X,1), (X,2), (X,3), (X,4), (X,5), (X,6) }

Una carta de una Baraja española Ω = { 1O, 2O, 3O, 4O, 5O, 6O, 7O, SO, CO, RO, 1C, 2C, 3C, 4C, 5C, 6C, 7C, SC, CC, RC, 1E, 2E, 3E, 4E, 5E, 6E, 7E, SE, CE, RE, 1B, 2B, 3B, 4B, 5B, 6B, 7B, SB, CB, RB } Suceso

Es un subconjunto A cualquiera de sucesos elementales de un espacio muestral Ω Utilizaremos la notación conjuntista y los diagramas de Venn Al igual que en la teoría de conjuntos, y al tratarse los sucesos de conjuntos dentro de un conjunto más general que llamamos espacio muestral, toda la teoría y propiedades dados entonces son válidos aqui, pero repetiremos algunos conceptos adaptados a la nueva terminología de algebra de sucesos en lugar de algebra de conjuntos. Los sucesos elementales son entonces sucesos unitarios o de un solo elemento de Ω | ALGEBRA DE SUCESOS 9


Los sucesos, como cualquier conjunto, pueden estar definidos por extensión o por comprensión. Así, el suceso A de los primos menores que 20 se puede escribir de dos maneras, por comprensión A = { conjunto de nºs primos menores que 20 } o por extensión A = { 2, 3, 5, 7, 11, 13, 17, 19 } Inclusión Dados A y B sucesos de Ω, diremos que el suceso B es un subconjunto otro suceso A, y se escribe B ⊂ A, si todos los elementos de B son tambien elementos de A. Escrito en notación conjuntista B ⊂ A ⇔ [∀a ∈ B ⇒ a ∈ A]

queda:

Se puede usar la inclusión en sentido inverso, es decir es equivalente decir B ⊂ A, o A ⊃ B. Se pueden usar la notación de las negaciones de estos símbolos como la ⊄ También mencionar que B ⊂ A no excluye la posibilidad que B = A, cuando sí ocurre que B ⊂ A pero además B ≠ A, entonces decimos que B es un subconjunto propio de A Conjunto Universal y conjunto vacio Recordemos que el conjunto universal es un ente imaginario que es el conjunto de todos los posibles conjuntos. Es decir, cualquier conjunto que te imagines, siempre estará contenido en uno enorme que es el universal y que denotaremos con la letra . También recordemos que existe el conjunto de ningún elemento, que en nuestro caso sería un suceso de ningún elemento que denominamos suceso vacío y lo denotamos con la letra símbolo ∅ Sucesos iguales Diremos que dos sucesos A y B de Ω, son iguales si tiene los mismos elementos. En definición conjuntista se dice que los sucesos A = B ⇔ [ A ⊂ B ∧ B ⊂ A] Suceso seguro Es aquel suceso A que se cumple siempre en todos los elmentos del espacio muestral Ω. Ejemplo Obtener un nº menor que 7 al lanzar un dado Obtener cara o cruz al lanzar una moneda

| ALGEBRA DE SUCESOS 10


Suceso imposible Es aquel suceso A que no se cumple en elemnto alguno del espacio muestral Ω. Lo simbolizaremos igual que el conjunto vacio ⌀. Ejemplo Obtener un nº superior a 6 al lanzar un dado Obtener suma 1 al lanzar dos dados. Suceso contrario Dado el suceso A ∊ Ω, se define el suceso contrario de A, y se escribe Ac (también puede aparecer aquí y en algunos autores con la notación A ), como el suceso formado por los elementos de Ω que no pertenecen a A. Otra definición equivalente es: Ac es el contrario de A si y solo si  x ∈ Ac ⇒ x ∉ A  En términos conjuntistas A es el complementario de A en el espacio universal 

Ejemplo Al lanzar un dado, el suceso contrario a A = { obtener múltiplo de 3} = { 3, 6 } es Ac = { 1, 2, 4, 5} Al lanzar dos monedas, el suceso contrario a A = { obtener lo msimo en ambas monedas } = { (C,C), (X,X)} es Ac = { (C,X), (X,C) }

Conjunto de todos los sucesos  (Ω) Dado un espacio muestral Ω, definimos el conjunto (Ω) como el conjunto de todos los posibles sucesos que pueden estar incluídos en Ω

| ALGEBRA DE SUCESOS 11


OPERACIONES CON SUCESOS

Sean A y B dos sucesos de un espacio muestral Ω

Unión de sucesos A ∪ B Sean A, B ∊ Ω, se define unión de A y B, y se escribe A ∪ B , como el suceso formado por los elementos que pertenecen a A ó a B ó a ambos

A ∪ B = {x / x ∈ A ∨

x ∈ B}

Con diagramas de Venn queda según el gráfico adjunto

Intersección de sucesos A ∩ B Sean A, B ∊ Ω, se define intersección de A y B, y se escribe A ∩ B , como el suceso formado por los elementos que pertenecen simultáneamente a A y a B.

A ∩ B = { x / x ∈ A ∧ x ∈ B}

Diferencia de sucesos A \ B Sean A, B ∊ Ω, se define diferencia de A y B, y se escribe A \ B , como el suceso formado por los elementos que pertenecen simultáneamente a A pero no a B.

A \ B = { x / x ∈ A ∧ x ∉ B}

| OPERACIONES CON SUCESOS 12


Suceso contrario Ac

Dado el suceso A ∊ Ω, se define el suceso contrario de A, y se escribe Ac (complementario en términos conjuntistas),como el suceso formado por los elementos de  que no pertenecen a A.

Ac = { x / x ∈U

∧ x ∉ A}

Es decir, que también podemos interpretarlo como Ac = U \ A Ejemplo Sea  = ℕ y sean A = { 2, 3, 5, 7, 11, 13} y sea B = { 1, 3, 5, 7, 9, 11, 13, 15} entonces A⋃B = { 1, 2, 3, 5, 7, 9, 11, 13, 15} A⋂B = { 3, 5, 7, 11, 13} A\B = { 2} Ac = { 1, 4, 6, 8, 10, 12, 14, 16, ....} ={ 1 } ⋃ {pares a partir del 4}

| OPERACIONES CON SUCESOS 13


ALGEBRA DE SUCESOS Definición: Algenra de Sucesos Sea Ω un espacio muestral. Consideramos una familia (Ω) de sucesos de Ω y axiomáticamente le exigimos: 1. El suceso imposible ⌀ pertenece a (Ω). 2. Si un suceso está en (Ω) también lo está su contrario: A ⊂ (Ω) => Ac (Ω) 3. Si la sucesión numerable de sucesos A1, A2, ..., An pertenece a (Ω) entonces su unión ∪ ni=1 Ai pertence tambien a (Ω). Pues bien, toda familia de sucesos (Ω) que verifique estos tres axiomas le llamamos álgebra de sucesos. Ejemplos

{

}

El conjunto ℑ ( Ω ) = ∅,U , A, A es un álgebra de sucesos

Leyes del álgebra de sucesos Sean A, B, C sucesos de un espacio muestral Ω Ley

Ley dual

Idempotencia

A⋃A=A

A⋂A=A

Asociativa

(A ⋃ B) ⋃ C

A ⋂ (B ⋂ C)

Conmutativa

A⋃B=B⋃A

A⋂B=B⋂A

Distributiva

A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂ C) C)

Identidad

A⋃⌀=A

A⋂=A

A⋃=

A⋂⌀=⌀

Complemento A ⋃ Ac = 

Morgan

A ⋂ Ac = ⌀

(Ac )c = A

c = ⌀ y ⌀c = 

(A ⋃ B) c = A c ⋂ B c

(A ⋂ B) c = A c ⋃ B c

Todas estas leyes son leyes del álgebra de conjuntos y están demostradas en lógica al estudiar el álgebra de proposiciones, luego omitimos aquí su demostración.

| ALGEBRA DE SUCESOS 14


Las leyes duales se obtienen se obtienen cambiando en la ley original las uniones ⋃ por intersecciones ⋂ y permutando los conjuntos universal y vacio entre si. Se prueba en algebra de conjuntos que si una ley es cierta también lo es su dual.

Sucesos compatibles y sucesos incompatibles Diremos que dos sucesos A y B de Ω, son incompatibles si no tienen ningún elemento común. También se pueden definir como que A ⋂ B = ⌀. (disjuntos en terminología conjuntista) En caso contrario, si tienen elementos comunes, se dicen compatibles. Es decir, A y B son compatibles si A ⋂ B ≠ ⌀. En particular, dos sucesos contrarios son siempre incompatibles. En general, la sucesión de sucesos A1, A2, ..., An de Ω, se dicen incompatibles si son incompatibles Ai ∩ Aj = ∅; ∀i ≠ j; i, j ∈ {1, 2,.., n}

dos

a

dos,

es

decir

si:

Ejemplo Al lanzar un dado los sucesos A = {sacar un nº par} y B = {sacar un múltiplo de 5} son incompatibles. Sin embargo, A = {sacar un nº par} y B = {sacar un número primo} son compatibles pues el 2 pertenece a A y a B.

Sistema completo de sucesos Se dice que los sucesos A1, A2, ..., An de Ω forman un sistema completo de sucesos del espacio muestral Ω si todos los Ai , Aj son incompatibles dos a dos y además, cualquier prueba del experimento aleatorio solo puede ser verificada por solo uno de los sucesos. En terminología conjuntista diremos A1, A2, ..., An sistema completo <=>  Ai ∩ A j = ∅; ∀i ≠ j  y  ∪ ni=1 Ai = Ω  En terminología conjuntista también se denomina recubrimiento Ejemplo Dos sucesos contrarios, por si solos, forman siempre un sistema de sucesos

| ALGEBRA DE SUCESOS 15


Dado el experimento aleatorio lanzar 2 dados, uno primero rojo y otro segundo verde, consideramos los sucesos A1, A2, A3, A4, A5, A6, donde Ai es el suceso consistente en sacar un i en el dado rojo: Ai = { (i,1), (i,2), (i,3), (i,4), (i,5), (i,6) } El conjunto { Ai } constituye un sistema de sucesos, pues los Ai son disjuntos y ∪6i =1 Ai = Ω

Partición del espacio muestral Ω Decimos que los sucesos A1, A2, A3,...,An representan una partición de Ω, si: a) Ai ∩ Aj = φ ; ∀i ≠ j . b)

k

∪ A = Ω. i

i =1

c) P ( Ai ) > 0, ∀i En otras palabras, cuando se efectúa una prueba del experimento aleatorio con espacio muestral Ω,, ocurre uno y sólo uno de los eventos Aj.

| ALGEBRA DE SUCESOS 16


PROBABILIDAD Frecuencia absoluta y relativa Dado un experimento aleatorio tenemos dos maneras de afrontar su estudio. La primera manera es por la propia experimentación, como su nombre indica, realizando n pruebas del mismo, de tal manera que dado cualquier suceso A del espacio muestral Ω, Llamamos f(A), que denominaremos frecuencia absoluta de A, al numero de veces que sucede A: f(A) = nº veces que sucede A a lo largo de n pruebas Denominamos frecuencia relativa, y denotaremos fr(A) al cociente

fr ( A) =

f(A) n

Esta función tiene una serie de propiedades tales como • • • • • •

fr(A) es un número perteneciente a los números racionales ℚ donde 0 ≤ fr ( A) ≤ 1 La frecuencia relativa de suceso seguro S es 1: fr(S) = 1 La frecuencia relativa de suceso imposible ⌀ es 0: fr(⌀) = 0 La suma de las frecuencias relativas del suceso A y de su contrario Ac es 1: fr(A) + fr(Ac) = 1 Si A y B son sucesos incompatibles, entonces fr(A⋃B) = fr(A) + fr(B) Al aumentar el número de pruebas n, la frecuencia relativa tienede siempre a un número fijo. Esta propiedad se conoce como ley de los grandes números. Ejemplo Supongamos que no hemos estudiado nada de lo que hemos expuesto hasta ahora y quisiésemos estudiar el experimento aleatorio de lanzar dos monedas, y en él quisiésemos obtener la frecuencia relativa con la sale una cara y una cruz. Supongamos también que lanzamos las dos monedas al aire n = 10 veces obteniendo los resultados expresados en la siguiente tabla: Lanzamiento Resultado

1

2

3

4

5

6

7

8

9

10

CyX

XyX

CyX

CyC

CyC

XyX

CyX

CyC

CyX

XyX

Las frecuencias obtenidas vendrían simplificadas en la tabla siguiente:

| PROBABILIDAD 17


Resultado

Frecuencia Absoluta Frecuencia relativa

Dos caras

3

3/10 = 0.3

Cara y Cruz

4

4/10 = 0.4

Dos cruces

3

3/10 = 0.3

Con estos datos se podrían concluir conclusiones erróneas, tales como que la frecuencia relativa de los tres sucesos es la misma. Sin embargo, si en lugar de n = 10, hacemos n = 100 pruebas un resultado de las frecuencias obtenidas bien podrían ser algo similar a la tabla: Resultado

Frecuencia Absoluta Frecuencia relativa

Dos caras

27

27/100 = 0.27

Cara y Cruz

52

52/100 = 0.52

Dos cruces

21

21/100 = 0.21

Con lo que ya empezamos a intuir que estáráimos equivocados en ese supuesto anterior y que P(Cara y Cruz) es el doble que cualquiera de las otras dos. Si seguimos aumentando el número de pruebas se tendría que P(Cara y Cruz) tendería a 1/2 Ver applet para una moneda en Descartes : http://descartes.cnice.mec.es/materiales_didacticos/Azar_y_Probabilidad_jpr/lasmonedas.htm

La segunda manera es sin experimentación, es decir, sin realizar pruebas, sino estableciendo un modelo matemático del que podamos obtener la frecuencia relativa que, en este caso, llamaremos probabilidad matemática, o simplemente probabilidad, y la introducimos a continuación como sigue:

Espacios equiprobables Si en un espacio muestral Ω todos los sucesos elementales que lo componen tiene la misma probabilidad, se dice que Ω es un espacio equiprobable. Así pues, un espacio muestral con n elementos equiprobables, cada uno tendrá una probabilidad 1/n, y si un suceso tiene k elementos, la probabilidad de que ocurra será k/n. En general, la mayoría de los espacios con los que vamos a trabajar son equiprobables, pues provienen de juegos tales como una baraja, un dado, una moneda, una bola en una bolsa, etc.

| PROBABILIDAD 18


Definición de Probabilidad. Regla de Laplace En 1812 el matemático francés Pierre Laplace escribió un tratado llamado Teoría Analítica de las probabilidades en el que reunió todo el conocimiento hasta ese momento acerca de este tema. En dicho tratado definió probabilidad de forma matemática, sin necesidad de pruebas, de la siguiente manera: Sea A un suceso de un espacio muestral Ω, definimos probabilidad del suceso A como

P( A) =

nº maneras favorables a que suceda A nº todos los sucesos posibles en Ω

Esta definición proviene al hecho comentado de que la probabilidad surgió como consecuencia del estudio de los juegos de azar, así podemos ilustrarla con los siguientes ejemplos Ejemplos a) Si estamos tirando una moneda, el espacio muestral es Ω = { C, X }, luego el nº de suscesos posibles en Ω es 2. Entonces si queremos calcular la probabilidad de cara sería: nº maneras favorables a que suceda "cara" 1 P(C ) = = nº todos los sucesos posibles en Ω 2 b) Si estamos tirando un dado, el espacio muestral es Ω = { 1, 2, 3, 4, 5, 6 }, luego el nº de suscesos posibles en Ω es 6. Entonces si queremos calcular las probabilidades: 1 P ({sacar un 5} ) = 6 3 P ({sacar un par} ) = P ({2, 4, 6} ) = 6 3 P ({sacar un primo}) = P ({2, 3, 5} ) = 6 2 P sacar un 3ɺ = P ({3, 6} ) = 6

({

})

c) Si estamos tirando dos dados, el espacio muestral está descrito anteriormente, con un nº de suscesos posibles en Ω de 36. Entonces: 1 P ({sacar suma 2} ) = P ({(1,1)} ) = 36 2 P ({sacar suma 3} ) = P ({(1,2), (2,2)} ) = 36 6 P ({sacar suma 7} ) = P ({(1,6), (6,1), (2,5), (5,2), (4, 3), (3,4) }) = ç 36 3 P ({sacar suma 10} ) = P ({(4,6), (6,4), (5,5)}) = 36 6 P ({sacar suma mayor de 9} ) = P ({(4,6), (6,4), (5,5), (5,6), (6,5), (6,6)}) = 36 | PROBABILIDAD 19


Definición de Probabilidad como límite de frecuencias Al hablar de las frecuencias relativas hemos comentado que al aumentar el número de pruebas n, la frecuencia relativa tienede siempre a un número fijo. Este número fijo le llamamos probabilidad y lo definimos formalmente como

P( A) = lim n →∞

f ( A) n

Esta definición no resulta muy práctica porque para calcular cada probabilidad de un suceso tendríamos que realizar un gran número de pruebas

| PROBABILIDAD 20


DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD No fue hasta 1933 cuando el matemático ruso Andrei Kolmogorov proporcionó un nuevo enfoque a la teoría de las probabilidades, usando todo el bagage de la Teoría de Conjuntos y mediante el álgebra de sucesos proporcionó la denominada Definición axiomática de Probabilidad que con muy pocos axiomas iniciales, solo tres, dotó a la probabilidad de un modelo matemático riguroso y preciso y que exponemos a continuación:

Definición: Probabilidad La probabilidad es una función definida de forma que a cada suceso aleatorio A, le asigna un número real perteneciente al intervalo [0,1]. Esto es: P Ω  → [ 0,1] ⊂ ℝ

A  → P ( A)

Esta función P debe verificar tres axiomas i. ii. iii.

P ( A) ≥ 0;∀ A ⊂ Ω P(Ω) = 1 Si A1,A2,…,An son n sucesos incompatibles de Ω entonces se verifica que P( A1 ∪ A2 ∪ .... ∪ An ) = P( A1 ) + P( A2 ) + ... + P( An ) , o lo que es lo mismo n

P ( ∪ ni=1 Ai ) = ∑ P ( Ai ) i =1

Propiedades de la Probabilidad 1. 2. 3. 4. 5.

P(⌀) = 0 P(A) = P(A ⋂ B) + P(A ⋂ Bc) Si B ⊂ A => P(B) ≤ P(A) P(A) + P(Ac) = 1 P(A\B) = P(A) – P(A ⋂ B) | DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 21


6. Si A y B son dos sucesos compatibles de Ω, entonces P(A ⋃ B) = P(A) + P(B) – P(A ⋂ B) 7. Para tres conjuntos A , B y C se tiene que P(A ⋃ B ⋃ C) = … ...= P(A) + P(B) + P(C) – P(A ⋂ B) - P(A ⋂ C) - P(B ⋂ C) + P(A ⋂ B ⋂ C) Se verifican además todas las leyes del álgebra de sucesos Demostración 1. Sea A un suceso cualquiera, entonces A ⋂ ⌀ = ⌀ por lo que A y ⌀ son incompatibles y podemos aplicar el axioma iii: P ( A ) = P ( A ∪ ∅ ) = P ( A) + P ( ∅ ) ⇒ P ( ∅ ) = P ( A) − P ( A ) = 0 2. Siempre se cumple que B ⋃ Bc =  (Ver diagrama adjunto) y como A ⋂  = A entonces sustituyendo A = A ⋂  = A ⋂ (B ⋃ Bc ) . Por la propiedad distributiva de la unión de sucesos con respecto a la intersección se tiene que A = (A ⋂ B) ⋃ (A ⋂ Bc); donde además también resulta que (A ⋂ B) ⋂ (A ⋂ Bc) = ⌀, es decir, son incompatibles. Aplicando el axioma iii tenemos entonces que: P(A) = P(A ⋂ B) + P(A ⋂ Bc)

3. Si B ⊂ A entonces A = B ⋃ A\B y además B y A\B son incompatibles pues B ⋂ A\B = ⌀, entonces por el axioma iii se tiene que: P(A) = P(B ⋃ A\B) = P(B) + P(A\B) Por el axioma i P(A\B) ≥ 0 para cualquier suceso de Ω luego P(B) ≤ P(A)

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 22


4. A y Ac son incompatibles dado que A ⋂ Ac = ⌀ entonces por el axioma iii se tiene que P(A ⋃ Ac) = P(A) + P(Ac) = 1

5. Si A y B son dos sucesos cualesquiera, entonces A se puede escribir como unión de dos sucesos incompatibles A = (A\B) ⋃ (A ⋂ B) , por lo que aplicando el axioma iii tenemos: P(A) = P[(A\B) ⋃ (A ⋂ B)] = P(A\B) + P(A ⋂ B) por lo que despejando P(A\B) = P(A) – P(A ⋂ B)

6. Se tiene que A ⋃ B = A\B ⋃ B donde A\B y B son dos sucesos incompatibles por lo que aplicando el axioma iii P(A ⋃ B) = P(A\B) + P(B). Si aplicamos ahora el teorema anterior y sustituimos: P(A ⋃ B) = P(A\B) + P(B) = P(A) + P(B) – P(A ⋂ B)

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 23


7. Para demostrarlo basta escribir A ⋃ B ⋃ C como (A ⋃ B) ⋃ C y aplicar la propiedad 6 a los dos conjuntos, uno el (A ⋃ B) y otro el C, de esta forma quedaría que P(A ⋃ B ⋃ C) = P [(A ⋃ B) ⋃ C] = P(A ⋃ B) + P(C) – P[(A ⋃ B) ⋂ C] y aplicando la propiedad distributiva de la unión respecto a la intersección P(A ⋃ B ⋃ C) = P(A) + P(B) – P(A ⋂ B) + P(C) – P[(A ⋂ C) ⋃ (B ⋂ C)] = … …= P(A) + P(B) + P(C) – P(A ⋂ B) – P(A ⋂ C) - P(B ⋂ C) + P[(A ⋂ C) ⋂ (B ⋂ C)] = …= P(A) + P(B) + P(C) – P(A ⋂ B) – P(A ⋂ C) - P(B ⋂ C) + P(A ⋂ B ⋂ C)

Ejemplo En un colegio mayor donde hay 320 residentes, hay 15 que practican fútbol, baloncesto y atletismo, 23 que practican fútbol y baloncesto, 28 fútbol y atletismo, 36 baloncesto y atletismo, 61 fútbol, 64 baloncesto y 75 atletismo. ¿Cuántos no practican ningún deporte?

| DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD 24


PROBABILIDAD CONDICIONADA La probabilidad condicionada puede ser identificada, en el ámbito de los ejercicios y problemas relacionados con ella, con la conjunción condicional “si”, aunque también se puede utilizar otras partículas gramaticales como “siempre que”, ”dado que”… aunque esto no constituye regla alguna. Ejemplos Calcular la probabilidad de sacar cara si el primer lanzamiento fue … Si tu lanzas dos dados, ¿cuál es la probabilidad de que ….? Calcular la probabilidad de accidente siempre que esté nevando. Una expresión que implica condición es “Estoy en clase, luego hoy no es sábado ni domingo”. El hecho de que digamos “estoy en clase” es la condición del hecho que afirmemos que hoy no es sábado ni domingo. Si no hubiese condición, la probabilidad de que hoy sea martes es 1/7, sin embargo si estoy en la escuela esa probabilidad queda reducida a 1/5, pues los sábados y domingos no son lectivos. Veamos otros ejemplos. En el juicio a OJ Simpson, su abogado defensor usó el siguiente argumento estadístico: El 99% de las veces que los hombres agreden a sus esposas no acaban matándola, por lo tanto aunque OJ Simpson golpeara a su mujer , es casi cierto que él no la mató. La estadística argumentada es cierta, pero la conclusión es falsa, porque un importante dato estadístico fue obviado que es que “de las esposas que son golpeadas y acaban falleciendo el 90% de las veces fueron asesinadas por sus maridos”. ¿Puedes apreciar la diferencia? Por supuesto que la mayor parte de la gente no mata a sus conyuges pero en aquel pequeño porcentaje en que la mujer es asesinada, el 90% de las veces fue el marido el causante.

Veamos otro ejemplo, otro dato estadístico es que “El 99% de las veces que conduzcas bebido no tendrán un accidente”. Este dato aislado podría llegar a concluir que conducir bebido es seguro, lo cual es obviamente falso porque hay otra estadística que dice que el alcohol involucra al 90% de los accidentes de tráfico en USA. La probabilidad condicionada reduce el conjunto | PROBABILIDAD CONDICIONADA 25


de posibles circunstancias de forma que la estadística pueda ser medida de forma más precisa. De esta manera, el razonamiento correcto en estos dos ejemplos sería: El 99% de las veces que los hombres golpean a sus mujeres no las matan, pero la mujer de OJ Simpson fue asesinada, luego ya no tenemos que seguir hablando de este 99% de casos en que la mujer vive porque ella ya no vive, luego estamos en ese improbable 1% de los casos en los que la mujer es asesinada. Cualquier estadística relacionada con el 99% de los casos en que no fallece es aquí irrelevante. Esto es probabilidad condicionada, una probabilidad que involucra en este caso, sólo al conjunto de casos en los que la mujer es asesinada. Otro famoso problema relacionado con la probabilidad condicionada y que resolveremos en detalle es el del test de SIDA. Consideremos los siguientes datos estadísticos ciertos: • El 1 por mil de la población es portadora del virus del SIDA • El test del SIDA tiene una precisión del 99% Esto significa que si tu no eres portador del virus del SIDA el TEST te dará un falso positivo, o bien que si tu fueses portador el TEST te dará en un 1% un falso negativo. Ahora bien, vamos a plantear la pregunta siguiente: supongamos que te haces el TEST del SIDA y te da positivo ¿Cuál es la probabilidad de que tu realmente seas portador del virus del SIDA? La respuesta no es el 99% Incluso aunque el test es un 99% preciso e incluso aunque tu hayas dado positivo, no tienes el 99% de probabilidades de ser portador. Veamos un ejemplo. Supongamos en España, en números redondos, 50 millones de habitantes. Esto significa que el 1 por mil, es decir, 50 mil personas son portadores del virus y 49,950,000 no lo son. De las 50 mil personas que son portadoras si se hacen el test del SIDA a 500 de ellas obtendrán un falso negativo (porque tiene una precisión del 99%, luego hay un 1% en el que va a fallar el diagnóstico). Y de los 49,950,000 personas no portadoras que se hagan el test, 499,500 de ellas tendrán un falso positivo. ¡Esto es muchísima gente!. Las restantes 49,450,500 personas obtendrán un test negativo correcto. Veremos que si obtuvieses un test positivo, ya no tienes que compararte con toda la población sino solo con las 49,500 que dieron test + siendo portadoras y las 499,500 perosnas que dieron también test + sin ser portadortas. Fíjate que una cantidad es solo un 10% de la otra. Aquí volvemos a ver el concepto de probabilidad condicionada. Si alguien da positivo en el test del SIDA ya no tiene que preocuparte de los millones de personas que dan negativo, su nuevo universo es el de los positivos y, entre ellos, hay casi un 10% de falsos positivos, luego aun queda esa esperanza que no es alta, pero es una esperanza de que a pesar de haber obtenido un test + no se en realidad portadora del virus. Por ello siempre se repite el test.

| PROBABILIDAD CONDICIONADA 26


Definición: Probabilidad condicionada Sean A y B dos sucesos de un espacio muestral Ω. Supongamos ahora que el suceso A ya ocurrió, es decir, ya conocemos su resultado. Al haber ocurrido A, nuestro espacio muestral ya no es todo Ω , sino que está limitado justamente a A, mientras que de B solo me tengo que ocupar de aquellos elementos de B que también están en A, porque al haber ocurrido A, los que no están ya no nos interesan porque no pueden ocurrir. Formalicemos estas ideas anteriores del siguiente modo. Definimos probabilidad de un suceso B condicionada a un suceso A, P B , a la probabilidad de B supuesto que A ha ocurrido. A

( )

y la denotamos

Nota: En inglés utilizan la palabra given o given that para expresar P(A/B): “probability of A given B”.

( A),

PB

es esencialmente P(B ) respecto

del nuevo espacio muestral A, en lugar del espacio muestral inicial Ω.

( A) = P (PA( ∩A)B ) , definición que

Por ello la probabilidad condicionada viene dada por P B solo tiene sentido en matemáticas si P(A)>0.

| PROBABILIDAD CONDICIONADA 27


Propiedades de la probabilidad condicionada i)

( B) = 0

Si A y B son incompatibles entonces P A

( )

Si A ∩ B = φ entonces P A = 0 ≤ P( A) puesto que si ocurrió B y son disjuntos, ya no puede B ocurrir A

( B) = P(PA(∩B)B) = PP((BA)) ≥ P( A) puesto que 0 < P(B) ≤ 1 .

ii) Si A ⊂ B entonces P A

( B ) = P(PA(∩B )B ) = PP((BB )) = 1 ≥ P( A) .

ii)

Si B ⊂ A entonces P A

iii)

si A y B son compatibles no podemos afirmar nada porque no tenemos información acerca de la magnitud relativa de P A y P( A) . B

( )

| PROBABILIDAD CONDICIONADA 28


Ejemplo Ante la cuestión siguiente: Si lanzamos dos dados ¿cuál es la probabilidad de obtener suma 7? Y otra pregunta más Si lanzamos dos dados ¿cuál es la probabilidad de obtener suma 7 si uno de los dados es un 5? En la segunda cuestión imponemos una condición que consiste en que uno de los dos dados debe ser un 5 En la primera cuestión hay 6 posibilidades de obtener suma 7 entre 36 posibles maneras, luego 6/36 o, equivalentemente 1/6. En la segunda cuestión ya no estamos interesados en los 36 posibles resultados de lanzar un dado sino sólo en aquellos en los que uno de los dados muestra un 5, esto implica que nuestro nuevo espacio muestral es tan solo el formado por los 11 resultados (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) y (1,5) (2,5) (3,5) (4,5) y (6,5), entre los cuales solo el (5,29 y el (2,5) tienen suma 7, esto es 2/11.

Ejemplo En una clase un 40% de los alumnos aprobaron Filosofía y un 50% aprobaron Matemáticas. Se sabe que la probabilidad de aprobar Filosofía si se aprobó Matemáticas es 0.6. ¿Qué porcentaje de alumnos aprobaron ambas materias? De los alumnos que aprobaron Filosofía, ¿que porcentaje aprobó Matemáticas? (Galicia PAU)

Solución Sean los sucesos M: “aprobar Matemáticas”, F: “aprobar Filosofía”. Según el enunciado P(M) = 0.5, P(F) = 0.4, P(F/M) = 0.6. Construimos una tabla de contingencias con arreglo a esta situación

F

Fc

M

P(M⋂F)

P(M⋂Fc)

P(M) = 50

Mc

P(Mc⋂F)

P(Mc⋂Fc)

P(Mc)

P(F) = 40

P(Fc)

Total = 100

a) P(M⋂F) = P(M)·P(F/M) = 0.5·0.6 = 0.30 P( M ∩ F ) 0,3 = = 0,75. b) P( M / F ) = P( F ) 0,4

| PROBABILIDAD CONDICIONADA 29


Outro razonamiento para realizar este problema se lleva a cabo llenando la tabla de contingências de la siguiente manera: La probabilidad de aprobar la Filosofía si se aprobó Matemáticas es 0.6, quiere esto decir que entre el 50% de aprobados de esta materia un 60% aprobó Filosofía, y como el 60% del 50% es un 30% del total, podemos completar los datos del enunciado de la siguiente forma: % M M Total

F 30 10 40

F 20 40 60

Total 50 50 100

30 = 0,3. 100 30 = 0,75. b) P( M / F ) = 40 a) P( M ∩ F ) =

La probabilidad condicionada nos ayudará a contestar a preguntas como estas: ¿Cuál es la probabilidad de que yo tenga más de 50 años si mi edad está entre 40 y 60 años? ¿Cuál es a probabilidad de que yo tenga una determinada enfermedad si el test de dicha enfermedad me ha dado positivo? ¿Cuál es la probabilidad de obtener un rey de un mazo de 45 cartas si ya han salido 2 reyes? ¿Cuál es la probabilidad de obtener dos caras en tres monedas si una de las monedas ya sé que es cara?

| PROBABILIDAD CONDICIONADA 30


Regla del producto

( A)

De la definición, podemos despejar P ( A ∩ B ) = P ( A) ⋅ P B

y si generalizamos esta fórmula al caso de n sucesos tenemos la denominada regla del producto: A A  ⋅ ... ⋅ P  An  ⋅ P  3 P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P 2   A ∩ A ∩ ... ∩ A  ∩ A1 A A 1 2 1 2 n −1   

( )

Sucesos dependientes e independientes Se definen dos sucesos A y B independientes cuando el hecho de que ocurra uno de ellos A no afecta para nada a la probabilidad del otro B posterior a A.

( A) = P( B)

En un lenguaje matemático diremos: A independiente con B si y solo si P B

( B ) = P( A)

o también: A independiente con B si y solo si P A

En este caso, la regla del producto se reduce a que:

P ( A ∩ B ) = P ( A) ⋅ P ( B / A) = P ( A) ⋅ P ( B ) y en el caso general:

P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P ( A2 ) ⋅ P ( A3 ) ⋅ ... ⋅ P ( An ) Podemos usar esta consecuencia como definición, es decir A y B sucesos independientes P ( A ∩ B ) = P ( A) ⋅ P ( B ) O más general, A1,A2,…,An son n sucesos independientes

P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) ⋅ P ( A2 ) ⋅ P ( A3 ) ⋅ ... ⋅ P ( An ) Si dos sucesos A y B no son independientes entonces diremos que son dependientes. Ejemplo En el lanzamiento de dos dados tenemos ya calculado su espacio muestral de 36 elementos

Ω=

{ (1,1), (1,2), (1,3), (1,4), (1,5), (1,6) (2,1), (2,2), (2,3), (2,4), (2,5), (2,6) (3,1), (3,2), (3,3), (3,4), (3,5), (3,6) (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) (6,1), (6,2), (6,3), (6,4), (6,5), (6,6) } Si queremos calcular la probabilidad de que salga un 1 ó un 2 en el primer dado, | PROBABILIDAD CONDICIONADA 31


A = {1 ó 2 en el primer dado}, esto es: P ( A) =

12 1 = 36 3

18 36 Sin embargo, la probabilidad de la intersección de estos dos eventos incluye los 6 sucesos elementales (1,2) (1,3) (1,4) (2,2) (2,3) (2,4), luego es P ( A ∩ B ) = 36 Por ello la probabilidad de A condicionado a B es 6 P ( A ∩ B ) 36 6 1 P ( A / B) = = = = 18 18 3 P( B) 36 Y esto prueba también que A y B son independientes pues P(A) ha resultado igual que P(A/B).

Si el suceso es B = {2, 3 ó 4 en el segundo dado}, esto es: P ( B ) =

| PROBABILIDAD CONDICIONADA 32


El teorema de la probabilidad total Dada una familia A1, A2, A3,...,An de sucesos una partición del espacio muestral Ω (recubrimiento) , se tiene que

( A ) P ( A ) + P ( A A ) P ( A ) +… + P  A A  P ( A )

P ( A) = P A

1

1

2

2

n

n

Demostración Sea A un suceso cualquiera de Ω y sea A1, A2, A3,...,An una partición de Ω entonces por definición a) Ai ∩ Aj = φ ; ∀i ≠ j . b)

k

∪ A = Ω. i

i =1

c) P ( Ai ) > 0, ∀i podemos escribir:

A = ( A ∩ A1 ) ∪ ( A ∩ A2 ) ∪… ∪ ( A ∩ Ak ) donde todos los pares A ∩ Aj son mutuamente disjuntos, por lo tanto podemos aplicar el axioma iii) de probabilidad: P ( A) = P ( A ∩ A1 ) + P ( A ∩ A2 ) + … + P ( A ∩ Ak ) Como cada término P ( A ∩ Ai ) se puede escribir como P  A A  P ( Ai ) , obtenemos i 

( A ) P ( A ) + P ( A A ) P ( A ) +… + P  A A  P ( A )

P ( A) = P A

1

1

2

2

n

n

que

también

puede

ser

expresado como n P ( A ) = ∑ P  A  P ( Ai )  Ai  i =1 Con este teorema de la probabilidad total somos capaces de deducir la probabilidad del suceso A (por ejemplo, que ocurra un accidente), a partir de las probabilidades de A respecto de cada uno de los elementos de una partición de Ω (por ejemplo probabilidad de accidente en el caso que llueva o en el caso de que haga buen tiempo) Ahora vamos a estudiar el proceso inverso, conocido como teorema de BAYES. En él, conocidas las probabilidades denominadas a priori, de cada uno de los elementos de la partición (probabilidad de accidente en el caso que llueva o en el caso de que haga buen tiempo), vamos a deducir para ellos las probabilidades denominadas a posteriori que son las que están condicionadas por el hecho de que el suceso A ya ha ocurrido (si el accidente ya ha ocurrido, calcular probabilidad de que o bien estuviese lloviendo o bien hiciese sol). | PROBABILIDAD CONDICIONADA 33


Thomas Bayes nació en Londres, Inglaterra. Su padre fue ministro presbiteriano. Posiblemente De Moivre fue su maestro particular, pues se sabe que por ese entonces ejercía como profesor en Londres. Bayes fue ordenado ministro presbiteriano y muere en 1761. Sus restos descansan en el cementerio londinense de Bunhill Fields. La traducción de la inscripción en su tumba es Reverendo Thomas Bayes. Hijo de los conocidos Joshua y Ann Bayes. 7 de abril de 1761. En reconocimiento al importante trabajo que realizó Thomas Bayes en probabilidad. Su tumba fue restaurada en 1969 con donativos de estadísticos de todo el mundo. Miembro de la Royal Society desde 1742, Bayes fue uno de los primeros en utilizar la probabilidad inductivamente y establecer una base matemática para la inferencia probabilística. Publicó los trabajos: Divine Providence and Government Is the Happiness of His Creatures (1731) An Introduction to the Doctrine of Fluxions, and a Defence of The Analyst (1736) En 1763, dos años después de su muerte, se publica Essay Towards Solving a Problem in the Doctrine of Chances, en el que trataba el problema de las causas a través de los efectos observados, y donde se enuncia el teorema que lleva su nombre. El trabajo fue entregado a la Royal Society por Richard Price y es la base de la técnica bayesiana.

Teorema de Bayes Sean A1, A2, A3,...,An una partición de Ω y A un suceso cualquiera de Ω. Se verifica que A P  i  =  A

P  A  P ( Ai )  Ai  ; i = 1, 2,..., n , k A  P ∑  P ( Aj )  Aj  j =1

Incluir Bayes (1702-1761 en nuestra Orla) | PROBABILIDAD CONDICIONADA 34


Demostración Por la definición de probabilidad condicionada sabemos que

P  

Ai

 = P ( Ai ∩ A) A  P ( A)

P ( A ∩ Ai ) ⇒ P ( A ∩ Ai ) = P  A  P ( Ai ) Pero también sabemos que P  A  = A i   P ( Ai )  Ai  A Con lo que P  i A  =  

P ( Ai ∩ A) P ( A)

P  A  P ( Ai ) Ai  =  P ( A) n

Y como por el teorema de la probabilidad total se tiene que P ( A ) = ∑ P  A  P ( Ai ) ,  Ai  i =1 concluímos que: A P  i  =  A

P  A  P ( Ai )  Ai  n P  A  P ( Ai ) ∑  Ai  i =1

Ejemplo 1 En un distrito universitario los estudiantes se distribuyen entre las tres carreras que pueden cursarse del siguiente modo: el 20% estudian arquitectura, el 35% medicina y el 45% economía. El porcentaje de alumnos que finalizan sus estudios en cada caso es del 5%, 12% y del 18%. Elegido un alumno al azar determinar la probabilidad de que haya acabado los estudios. Solución Sea Ω el conjunto de todos los estudiantes, sean A1 los que estudian arquitectura, A2 los que estudian medicina y A3 los que estudian economía y sea A el suceso "finalizar los estudios". Como Ω = A3 ⋃ A3 ⋃ A3 y además son disjuntos, pues no hay estudiantes que estén estudiando dos carreras, entonces son una partición de Ω por lo que se tiene que:

A = A ∩ Ω = A ∩ ( A1 ∪ A2 ∪ A3 ) = ( A ∩ A1 ) ∪ ( A ∩ A2 ) ∪ ( A ∩ A3 ) | PROBABILIDAD CONDICIONADA 35


P ( A) = P ( A ∩ A1 ) + P ( A ∩ A2 ) + P ( A ∩ A3 ) P ( A) = P ( A1 ) P ( A / A1 ) + P ( A2 ) P ( A / A2 ) + P ( A3 ) P ( A / A3 ) Expresemos esto mediante un diagrama de árbol

De donde la probabilidad pedida de A es P ( A) = 0.20 ⋅ 0.05 + 0.35 ⋅ 0.12 + 0.45 ⋅ 0.18 = 0.01 + 0.042 + 0.081 = 0.133 También resultan útiles para resolver estos problemas las tablas de contingencia, que se construyen de forma simple, escribiendo en las casillas la probabilidad de la intersección de los sucesos que la definen, tal y como sigue: A1 Arquitectura A c

A

A2 Medicina

A3 Economia

0,01

0,042

0,081

P(A) = 0,133

0,19

0,308

0,369

P(A ) = 0,867

P(A1) = 0,2

P(A2) = 0,35

P(A3) = 0,45

c

Conviene practicar ambos modelos, árbol y tabla de contingencia, pues en algunos problemas uno de ellos es más cómodo que el otro.

Ejemplo 3 El parte meteorológico ha anunciado solo tres posibilidades para el fin de semana: • Que llueva: probabilidad del 50%. | PROBABILIDAD CONDICIONADA 36


• Que nieve: probabilidad del 30% • Que haya niebla: probabilidad del 20%. Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es la siguiente: • Si llueve: probabilidad de accidente del 20%. • Si nieva: probabilidad de accidente del 10% • Si hay niebla: probabilidad de accidente del 5%. Y resulta que, efectivamente, ocurre un accidente y como no estábamos en la ciudad no sabemos el tiempo que hizo. Calcular entonces que probabilidad hubo de llover, de nevar o de hacer niebla el pasado fin de semana Solución

A

1

Ll

uv

ia

0.

50

Nuestro experimento aleatorio en este ejercicio es la predicción meteorológica del tiempo. Podemos construir una partición de nuestro espacio muestral con A1 = “llueve”, A2 =”nieva” y A3= “niebla” El enunciado nos ofrece datos de un histórico de información meteorológica que dice P(A1) = 0.5, P(A2) = 0.3 y P(A3) = 0.2 Sea A el suceso de ocurrir un accidente. El enunciado nos ofrece ahora unos datos para tres situaciones concretas llamados probabilidades “a priori" siguientes P(A/llueve) = P(A/ A1) = 0.20 P(A/nieva) = P(A/ A2) = 0.10 P(A/niebla) = P(A/ A3) = 0.05 Y nos está preguntando las denominadas probabilidades “a posteriori” que son las que responden a que probabilidad hubo de lluvia, nieve o niebla si efectivamente ocurrió un accidente, es decir P(A1/A) , P(A2/A) , P(A3/A) Hacemos el siguiente diagrama de árbol

Y respondemos a nuestro problema mediante Bayes: Probabilidad de que estuviese lloviendo

| PROBABILIDAD CONDICIONADA 37


P ( A1 / A) =

P ( A ∩ A1 ) P ( A)

=

P ( A1 ) P ( A / A1 ) 3

∑ P( A ) P( A/ A ) i

=

0.5 ⋅ 0.20 = 0.714 0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05

i

i =1

Probabilidad de que estuviese nevando: P ( A ∩ A2 ) P ( A2 ) P ( A / A2 ) 0.3 ⋅ 0.10 P ( A2 / A) = = 3 = = 0.214 0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05 P ( A) ∑ P ( Ai ) P ( A / Ai ) i =1

Probabilidad de que hubiera niebla: P ( A ∩ A1 ) P ( A3 ) P ( A / A3 ) 0.20 ⋅ 0.05 P ( A3 / A) = = 3 = = 0.071 0.5 ⋅ 0.20 + 0.3 ⋅ 0.10 + 0.20 ⋅ 0.05 P ( A) ∑ P ( Ai ) P ( A / Ai ) i =1

Así que, ocurrido el accidente. las probabilidad de que lloviese es del 71.4%, que nevase el 21.4% y que hiciese niebla el 7.14%

| PROBABILIDAD CONDICIONADA 38


APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA Resultan de una gran utilidad en medicina los resultados que estamos obteniendo y su uso es muy común. De hecho, procuraremos llenar de ejemplos aplicados a la medicina estos apuntes teóricos. Pero, sin embargo, necesitamos definir algunos conceptos que son de uso común en epidemiología:

Prevalencia Proporción de individuos que presenten el fenómeno a estudio en una población y en un momento determinado, bien sea una enfermedad o un factor de riesgo Ejemplos: La prevalencia de fumador es del 45% de la población de Madrid en el año 2000 La prevalencia de discapacitados en España en 1999 era del 9% La prevalencia del SIDA en el Mundo en el 2003 era del 0.62% HAITI tenía una prevalencia del SIDA del 5% en el año 2003

Incidencia Proporción de casos nuevos de enfermedad que aparecen en una población durante un periodo de tiempo Ejemplos: La incidencia del SIDA en el mundo en el año 2003 fue del 0.08%, es decir 5 millones de casos nuevos entre 6385 millones de habitantes) Si la gripe A ha contagiado a 26.661 personas en España en las últimas dos semanas, se diría que tiene una incidencia de 58 casos por cada 100,000 habitantes

Sensibilidad La probabilidad de dar positivo en un test bajo la condición de estar enfermo, es decir, la probabilidad de diagnosticar a un individuo como enfermo cuando realmente lo está. Ejemplo Dar positivo en el test del SIDA bajo la condición de estar efectivamente enfermo del SIDA es del 100%. El test es, pues, infalible

Especificidad La probabilidad de dar negativo en un test bajo la condición de estar sano, es decir, la probabilidad de diagnosticar a un individuo como sano cuando realmente está sano. Ejemplo | APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 39


La especificidad del test del SIDA es del 99.7% lo cual quiere decir que hay un 0.3% de individuos que el test le puede dar positivo cuando en realidad está sano. Todo ello se puede representar en la siguiente tabla de contingencias: Enfermo

Sano

VP

FP

Verdadero positivo

Falso positivo

Test +

VPP =

VP VP + FP

Valor predictor positivo Test -

FN

VN

Falso Negativo

Verdadero negativo

VPN =

VN FN + VN

Valor predictor negativo

Sens =

VP VP + FN

Sensibilidad

Esp =

VN FP + VN

Especificidad

VG =

VP + VN FP + FN + VP + VN Valor Global

Ejemplo 4 Un médico aplica un test a 10 alumnos de un colegio para detectar una enfermedad cuya prevalencia sobre una población de niños es del 10%. La sensibilidad del test es del 80% y la especificidad del 75%. a) ¿Cual es la probabilidad de que exactamente a cuatro personas le de un resultado positivo? b) Si en la muestra hay cuatro personas a las que el test le da positivo, ¿cuál es la probabilidad de que entre estas, exactamente dos estén sanas? c) Calcular la probabilidad de que el test suministre un resultado incorrecto para dos personas. d) Calcular la probabilidad de que el resultado sea correcto para más de 7 personas. Solución Los datos de que disponemos son: • Prevalencia: P(“enfermo”) = 0.1 • Sensibilidad: P(“VP verdadero positivo”) = P(T+/E) = 0.8 • Especificidad: P(“VN verdadero negativo”) = P(T-/S) = 0.75 Primero hagamos un diagrama de árbol que describa esta situación:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 40


Con la tabla de contingencias quedaría

Test +

Enfermo

Sano

0.080

0.225

VPP = 0.08/0.305=0.2623 Valor predictor positivo

Test -

0.020

0.675

VPN = 0.675/0.895=0.7542 Valor predictor negativo

S = 0.08/0.10 = 0.80 Es = 0.675/0.90 = 0.75 Sensibilidad

Especificidad

a) Si queremos saber P(T+) por el Teorema de la probabilidad total es: P(T+) = P(T+/E) P(E) + P(T+/S) P(S) = 0.8 · 0.1 + (1 - 0.75) · (1 - 0.1) = 0.08 + 0.225 = 0.305 Sea ξ1 la variable aleatoria “número de resultados positivos entre 10 estudiantes” sigue una distribución binomial ξ1 ∊ B(n1,p1) donde n1 = 10 y p1 = P(T+) = 0.305, es decir ξ1 ∊ B( 10 , 0.305 ) Por lo que la probabilidad de que a cuatro personas le dé el test positivo es:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 41


10  P [ξ1 = 4] =   0.3054 ⋅ 0.69510 = 0.205 4 b) La probabilidad de estar sano aunque el Test de positivo (falsos positivos) es

P( S / T +) =

P( S ∩ T +) P(T + / S ) P( S ) 0.25 ⋅ 0.90 = = = 0.738 P(T +) P(T +) 0.305

Importante resultado, observa que estando sano tienes alrededor del 0.74 de probabilidad de que el test te de positivo, lo cual es altísimo y suena muy incongruente con los datos iniciales, pero es así. Sea ξ2 la variable aleatoria “número de personas al que el test da positivo, pero que están sanas” ξ1 ∊ B(n2,p2) donde n2 = 4 y p2 = 0.738, es decir ξ2 ∊ B( 4 , 0.738 )

 4 Entonces P [ξ 2 = 2] =   0.7382 ⋅ 0.2622 = 0.225  2 c) La probabilidad de que el test de un resultado erróneo es: P(Terroneo) = P( T+ ⋂ S) + P(T- ⋂ E) = P( T+/S)P(S) + P(T-/ E)P(E) = 0.25 0.9 + 0.20 0.10 = 0.245 d) La variable aleatoria ξ3 “número de resultados erróneos del test” es ξ 3 ∊ B(n3,p3) donde n3 = 10 y p3 = 0.245, es decir ξ3 ∊ B( 10 , 0.245 ) P ["Test correcto para mas de 7"] = P ["Test incorrecto para menos de 3"] = P [ξ3 ≤ 2] = ... 2 n  i 10  10  10  n −i ...∑  3  p3 (1 − p3 ) 3 =   0.2450 ⋅ 0.75510 +   0.2451 ⋅ 0.7559 +   0.2452 ⋅ 0.7558 = 0.5407 i=0  i  0 1 2

Ejemplo 5 Supongamos que el médico de cabecera de una cierta persona sospecha que, de acuerdo con los síntomas que detecta, ésta podría tener una rara variedad de cáncer. Y quiere someterla a un determinado test para confirmarlo o descartarlo. El médico le explica que de acuerdo con los estudios que se han hecho y que son de | APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 42


dominio público y universal –es decir, en todo el mundo se aceptan como válidos al día del test–, esta enfermedad afecta sólo al 1% de la población. Por otro lado, se sabe que el único test que se conoce para detectar el problema no es infalible. Es decir: si una persona tiene la enfermedad, el resultado va a ser positivo sin ninguna duda pero podría pasar que usted no tenga esta variedad de cáncer y que, sin embargo, el test dé positivo igual. Es lo que se llama un falso positivo. Más aún: se sabe que el 20% de las veces el resultado es positivo aunque no haya cáncer. O sea, el 80% de las veces que da positivo, el paciente está enfermo. Pero en el restante 20% de los casos (que da positivo) no hay nada anómalo. Pregunta: Si a esa persona le hacen el test, ¡y le da positivo!, ¿cuál es la probabilidad de que efectivamente tenga este cáncer? (Obviamente, si de una persona se sospecha que pueda tener la enfermedad y a su médico sólo le importa saber si la tiene o no, para eso usa el test, y quiere saber cuán fiable es) ¿Qué quiere decir que dio positivo? ¿Qué probabilidad tiene de estar enfermo (de esa variedad de cáncer)? ¿Quién interpreta esos datos? Solución Gran problema de gran aplicación práctica. Resumimos los datos que se tienen sobre esta variedad de cáncer: - Lo padece el 1 % de la población, es decir la prevalencia es del 0.01 - Si una persona tiene este cáncer, el test lo detecta y el resultado es siempre positivo. En ese sentido, el test es perfecto. - En el 80 % de los casos que da positivo, la persona tiene este cáncer. - En el 20 % de los casos, el test da positivo; pero, sin embargo, la persona no está enferma (un “falso positivo”). La tentación es decir que si a una persona le dio positivo el test, entonces tiene un 80 por ciento de posibilidades de tener ese cáncer. Y eso es lo que contestaría la mayoría de nosotros. Peor aún: varios estudios hechos en Estados Unidos, Francia e Italia muestran que cuando los propios médicos son los que tuvieron que contestar la pregunta, sólo respondió correctamente el 15 por ciento (¡quince por ciento!). Y uno de esos exámenes se hizo (es cierto que en 1978) en uno de los hospitales de Harvard, nada menos. Pero hay otros posteriores que exhiben que el problema persiste aún ahora. Vamos a razonarlo adecuadamente. Para ello, supongamos que la ciudad en la que usted vive es de 10.000 personas (como sólo vamos a hablar de porcentajes, fijar el número en 10.000 no producirá ninguna variante en el resultado final). Como sabemos que el cáncer afecta al 1% 100, tiene que haber 100 personas que lo padecen. De las restantes 9900 personas, si todas se hicieran el test, ¿a cuántas le daría positivo? (Recuerde que el test ofrecía un 20 por ciento de falsos positivos.) Por tanto, el 20% de 9900 personas son 1980 personas que darían positivo estando sanas. En total, contando las 100 personas que dan positivo porque tendrían el cáncer, más las 1980 que darían positivo sólo por los defectos del test, tendríamos 2080 personas que darían positivo. | APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 43


Y la pregunta era: ¿cuál es la probabilidad de que, siendo positivo, tenga el cáncer? Traducido en estos números quiere decir: ¿cuál es la probabilidad de que usted sea uno de los 100 que entre los 2080 tienen el cáncer? La respuesta es: 100/2080 = 0.04876 Luego, usted tiene un 4,87 por ciento de probabilidad de tener el cáncer (¡menos del 5 por ciento!), que ciertamente es un porcentaje importante, pero está bien lejos del 80 por ciento que parecía en principio. Como dice Yudkowsky, “cuando uno se tropieza por primera vez con problemas de este tipo, tiene la tentación de reemplazar el 1 por ciento de prevalencia que había en la población (el dato original) por el del 80 por ciento que se sabe que da positivo en el caso en que alguien tenga esta variedad de cáncer”. Y concluye: “La probabilidad de que una persona a la que le da positivo el test tenga este cáncer no es la misma que la probabilidad de que a una persona que tenga este cáncer le dé positivo el test”. Veamos una manera más científica, elegante o matemática de hacerlo. Creamos el siguiente diagrama de árbol:

La probabilidad pedida nos la resuelve el teorema de Bayes mediante P (E / T +) =

P (T + / E ) P ( E ) 0.01 0.01 = = = 0.04877 P (T + ) 0.198 + 0.01 0.208

Hoy en día los médicos estudian en Bioestadística, durante el primer año de carrera, esta situación y la conocen y saben resolverla. Pero hay otros ejemplos de atletas (Mary Slaney, velocista norteamericana en los Juegos Olímpicos de 1996) que fueron suspendidos por el supuesto uso de esteroides y cuyos abogados probaron que había sido una mala lectura de la información recogida. Y también hay casos de jueces que encontraron paternidades donde no las había, o acusados y condenados por crímenes que no habían cometido. La lista es muy larga (y el espacio y mis conocimientos, muy cortos).

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 44


En medicina, de hecho, en validación de pruebas diagnósticas, tienen dos conceptos denominados sensibilidad y especificidad que se utilizan para determinar las probabilidades de veracidad de un test: Ejemplo 6 Una enfermedad puede ser producida por dos virus A y B. En un laboratorio se tienen tres tubos del virus A y dos del virus B. La probabilidad de que el virus A produzca la enfermedad es 1/3 y que la produzca el virus B es 2/5. Se inocula el azar un virus en un animal y contrae la enfermedad. ¿Cual es la probabilidad de que el virus que se inoculó fuera el A?, y ¿cual de que fuera el virus B? (Galicia Logse. Setiembre 1998) Solución Consideremos los sucesos • • •

A: “tener el virus A”; B: “tener el virus B”; E: “tener la enfermedad”.

Del enunciado del problema se deducen las siguientes probabilidades: Enfermo E

No enfermo Ec

Virus A

P(E⋂A) = 1/5

P(Ec⋂A) ?

P(A) = 3/5

Virus B

P(E⋂B) = 4/25

P(Ec⋂B) ?

P(B) = 2/5

P(E/A) = 1/3

¿?

P(E/B) = 2/5

¿?

Por la regla del producto se tiene que

3 1 2 2 9 P( E ) = P( A)·P( E / A) + P( B)·P( E / B) = · + · = 5 3 5 5 25 Y por el teorema de Bayes 3 1 · P ( A)·P ( E / A) 5 5 3 P( A / E ) = = = . Por tanto, si un animal P ( A)·P ( E / A) + P ( B)·P( E / B) 3 · 1 + 2 · 2 9 5 3 5 5 contrae la enfermedad, la probabilidad de que el virus que se inoculó fuese el A es 5/9, mientras que el suceso complementario, es decir, si un animal contrae la enfermedad, la probabilidad de que el virus que se inoculí fuese el B es 5 4 P( B / E ) = 1 − P ( A / E ) = 1 − = 9 9

Si utilizamos la técnica, más intuitiva, del diagrama de árbol

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 45


1 5 4 P( A ∩ E ) 5 = 5 = ; de donde P( B / E ) = 1 − P ( A / E ) = 1 − = P( A / E ) = 1 4 9 P( E ) 9 9 + 5 25

Ejemplo 7 Han sido estudiadas los resultados de las mamografías de 2,227 mujeres en un gran centro de Salud dependiente de la universidad de Harvard en el área metropolitana de Boston. A estas mujeres se les practicaron un total de 9,747 mamografías a lo largo de 10 años. Sus edades estaban entre 40 y 80 años. 93 radiólogos distintos leyeron las mamografías y fueron diagnosticadas 634 mamografías como sospechosas de revelar falsos positivos. En resumen: • • • •

Tenemos una proporción de falsos positivos del 6.5%. El ratio de falsos negativos está estimado en el 10%. Hay alrededor de 58,500,000 mujeres entre los 40 y 80 años en USA La incidencia del cáncer de mama en USA es de alrededor de 184,200 por año, es decir 1 de cada 318. Sea C es suceso de la ausencia de cáncer y Cc su complementario, es decir la presencia de cáncer. Sea M+ el suceso de un resultado positivo e la mamografía y M- un resultado negativo Supongamos que una amiga tuya recibe un resultado positivo en su mamografía ¿Que probabilidad hay que efectivamente padezca cáncer? Solución

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 46


MODELIZACION DE PROBLEMAS CON BOLAS Y URNAS Es muy general la queja de que en matemáticas se usen enunciados engorrosos del tipo “En una urna hay 5 bolas rojas, 3 azules y 2 verdes ....” En lugar de enunciados mucho más amables como el de En un cine proyectan tres películas y hay 100 espectadores en “El padrino”, 150 en “La guerra de las Galaxias”, y 200 en “Ben-Hur”... Esto acarrea a los matemáticos la fama de personas complejas y con ganas de enrevesar las cosas más sencillas. ¿Por qué no utilizáis datos de nuestro entorno, obtenidos en la web del INE (Instituto Nacional de Estadística), en lugar de las abstractas urnas y bolas? Pero no es así, las urnas y las bolas nos sirven para modelizar un problema de forma general. Es el estudiante o profesional el que en un caso práctico como el del cine tiene que saber clasificar ese problema dentro de aquellos de urnas y bolas que ya ha estudiado. No cabe duda que los problemas de enunciado atractivo son más estimulantes y que se deben usar para captar el interés, pero no hay que olvidar que un matemático se encarga de desarrollar modelos que después son utilizados por otras ciencias como ingeniería, economía, medicina, física, química, etc. Así que cuando veas un problema con urnas y bolas, debes pensar que cuando lo resuelvas sabrás resolver también cualquier otro, de cualquier otro ámbito, que sea similar. De hecho, muchísimos problemas de todo tipo que vas a encontrarte se podrían reescribir usando el modelo de urnas y bolas. Piénsalo cada vez que resuelvas un problema. Te ayudará a desarrollar tu capacidad de abstracción. Los problemas de urnas y bolas con y sin devolución nos ofrecen un escenario abstracto magnífico y uniforme para organizar tu mente y clasificar los problemas de probabilidades. Las bolas de la urna constituyen el espacio muestral Ω, las colores forman una partición A1, A2, A3,...,An de ese espacio muestral y si las devolvemos o no a la urna (reemplazamiento) y si las observamos o no implican variantes que sirven para pormenorizar todavía más el modelizado del problema... Ejemplo 2 En una urna hay 5 bolas rojas, 3 azules y 2 verdes. Se saca una bola de la urna y sin mirarla, se guarda. A continuación se vuelve a sacar otra bola que es verde. ¿Cuál es la probabilidad de que la primera haya sido verde? Y si la segunda hubiera sido azul, ¿cuál es la probabilidad de que la primera sea verde? ¿Y azul? Solución Es un problema tipico de Bayes e igual al del ejemplo 1, pero con urnas y bolas, por lo que Ω está formado por todas las bolas contenidas en la urna. • •

A1 lo constituyen las 5 bolas rojas; A2 lo constituyen las 3 bolas azules y | APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 47


A3 lo constituyen las 2 bolas verdes.

A1, A2, A3 constituyen también una partición de Ω (su unión es Ω y son disjuntos con probabilidad mayor que cero) Tenemos que hacer ahora un diagrama de árbol que describa las probabilidades conocidas y calcule las no conocidas Incluir diagrama de árbol similar al siguiente

Denotando por A3k la obtención del suceso A3 (bola verde) en la extracción k (1ª o 2ª), lo que nos piden es, con solo mirar el árbol

( ) 1

P A3 = 0.2 es la probabilidad de 1ª extracción azul

(

1 2

P A / A3

2

)=

(

1

P A2 ∩ A3

2

( )

P A3

2

)=

0.06 0.06 = = 0.3 probabilidad de que 1ª 0.10 + 0.06 + 0.04 0.20

fuese verde

(

1 3

P A / A3

2

)=

(

2

1

P A3 ∩ A3

( )

P A3

2

)=

0.04 0.04 = = 0.6 probabilidad de que 1ª 0.10 + 0.06 + 0.04 0.20

fuese azul

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 48


Ejemplo 4 Un problema clásico de Bayes es el siguiente de las monedas de oro y plata: Hay tres bolsas que tienen, cada una dos monedas. Las de la primera son de oro, las de la segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una bolsa al azar y de ella una moneda también al azar. Si la moneda es de oro, ¿cuál es la probabilidad de que la otra moneda en la bolsa sea de oro también? Solución Primero notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene monedas de oro), sólo pudo haber sido seleccionada la primera o la tercera. Si la bolsa elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza. De modo que el evento que nos interesa es equivalente a que se haya elegido la primera bolsa. Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular: P(1ª|Au) = [P(1ª)P(Au|1ª)] / [P(1ª)P(Au|I) + P(2ª)P(Au|2ª) + P(3ª)P(Au|3ª)] Las probabilidades que entran al lado derecho de la igualdad las sacamos, inmediatamente, de las condiciones del problema y después de hacer cuentas tenemos: 1 1 2 3 P (1ª / Au ) = =3= 1 1 3 3 + +0 3 6 6 Este problema es clásico porque existe una "solución" a la que muchas personas llegan y es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente posibles, y el hecho de que la primer moneda extraída sea de oro, nos indica que no se trata de la segunda bolsa. Concluímos que las dos bolsas restantes tienen igual probabilidad y, por tanto, la probabilidad de que la otra moneda sea de oro es 1/2. Si Ud. piensa de acuerdo a este razonamiento (¡erróneo!), es muy difícil que encuentre en qué se equivoca. Lo que está mal es que lo que averiguamos, al saber que la moneda extraída es de oro, es algo más que el rechazo de la segunda bolsa. Si sólo nos dijeran que la bolsa escogida al azar no fué la segunda, sin informarnos del metal de la moneda sacada, todavía tendríamos incertidumbre respecto a la primera moneda; todavía podríamos apostar a si ésta es de oro o de plata. Al decirnos que la moneda fué de oro, estamos aprendiendo algo más, y eso echa por tierra el argumento de "igual probabilidad para las dos bolsas restantes". La información con la que contamos nos indica que nos hallamos frente a un caso en el que la bolsa era la primera y sacamos, o la primera de las monedas que contenia, o la segunda, (ya llevamos 2 posibilidades), o bien la bolsa era la tercera y en ese caso tan solo podría ser que sacáramos en primer lugar la moneda de oro, luego la que queda dentro es de plata (una única posibilidad). Tenemos 3 posibles sucesos en los que en 2 de ellos sacaríamos a continuacion una moneda de oro (2/3 de probabilidad), y tan solo una de las veces la nueva moneda sería de plata (1/3 de probabilidad). Lo interesante del problema es que, si nos hubieran dicho que la moneda sacada fué de plata, aplicando la fórmula de Bayes, llegamos a la conclusión de que la probabilidad de que la otra moneda sea también de plata es 2/3 [¡Haga Ud. las cuentas!]. | APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 49


Es decir, si vamos a apostar al metal de la otra moneda, nos conviene apostar por el metal de la primera. Este ejemplo nos lleva a reflexionar sobre el uso adecuado de la información contenida en "lo dado" en el cálculo de la probabilidad condicional. Fuente: http://nutriserver.com/Cursos/Bioestadistica/Teorema_Bayes.html

Ejemplo 5 THE MONTHY HALL Problem Suponga que asiste a uno de los numerosos programas de televisión en los que después de haber hecho el payaso para diversión de la audiencia, le ofrecen que escoja una de 3 puertas que esconden un gran regalo (por ejemplo un flamante coche nuevo) una de ellas y las otras 2 contienen una cabra cada una. Tras elegir usted una, el presentador del programa abre una de las que rechazó, mostrando que no contenía nada (esto siempre lo podrá hacer, elija usted la que elija) y le da la oportunidad de plantarse con la que escogió inicialmente o cambiar a la otra que queda aún sin abrir. ¿que debería hacer?. Tenga en cuenta que después de conocer el contenido de una de las puertas que no eligió inicialmente "sabe algo más que al principio". Una pista: no es indiferente plantarse o cambiar, uno de los 2 comportamientos es más ventajoso que el otro. Solución Supongamos que se selecciona inicialmente la puerta 1 Supongamos que Monty le abre la puerta 2, en la que aparece una cabra. Podemos calcular la probabilidad a posterior de que el coche esté en la puerta 1 después de que Monty nos ha proporcionado un nuevo dato, Para ello construimos el siguiente modelo matemático Sea Ci la situación de que el coche esté en la puerta i (entre el 1,2,3) Sea Mi el suceso de que Monty abra la puerta i (entre el 1,2,3) mostrando la cabra. La probabilidad de que el concursante gane el coche si cambia de puerta viene dada por

1 1 2 P ( M 3 ∩ C2 ) + P ( M 2 ∩ C3 ) = P( M 3 / C2 ) P(C2 ) + P( M 2 / C3 ) P(C3 ) = ⋅1 + ⋅1 = 3 3 3 Si lo queremos razonar por Bayes, construímos el siguiente árbol de probabilidades:

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 50


Nosotros estamos buscando P ( C1 / M 2 ) =

P ( M 2 / C1 ) P (C1 ) P( M 2 )

Dado que P(C2 / M 2 ) = 0 podemos obtener P (C3 / M 2 ) restando P(C1 / M 2 ) de 1, dado que los tress forman una partición de M2. Pero también lo podemos buscar aplicando el teorema de Bayes: P ( C3 / M 2 ) =

P ( M 2 / C3 ) P (C3 ) = P( M 2 )

Why is the Monty Hall Problem Interesting? El problema de Monty Hall revela las limitaciones del proceso cognitivo humano en casos de no certeza. Y provee de una buena ejemplificación n de los conceptos de probabilidad. Sin duda entendiendo este ejercicio, se entiende cualquier otro ejercicio de Bayes Otra solución más intuitiva está publicada el el libro “The curious incident of the dog in the night-time” time” by Mark Haddon. Ofrecemos su gráfico

Actividad: Proyectar Video de “21 Black Jack”

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 51


Mathematical Solution

The probability that the prize is behind door X, P(X) = 1/3

The probability that Monty opens door B if the prize were behind A, P(Monty opens B|A) = 1/2

The probability that Monty opens door B if the prize were behind B, P(Monty opens B|B) = 0

The probability that Monty Hall opens door B if the prize were behind C, P(Monty opens B|C) = 1

The probability that Monty opens door B is then p(Monty opens B) = p(A)*p(M.o. B|A) + p(B)*p(M.o. B|B) + p(C)*p(M.o. B|C) = 1/6 + 0 + 1/3 = 1/2

Then, by Bayes' Theorem,

P(A|Monty opens B) = p(A)*p(Monty opens B|A)/p(Monty opens B) = (1/6)/(1/2) = 1/3 and P(C|Monty opens B) = p(C)*p(Monty opens B|C)/p(Monty opens B) = (1/3)/(1/2) = 2/3 Thus, your odds increase to 2/3 when you switch doors.

However... A cool side-note to this problem exploits a loophole in the problem. Check out the Problem with the Monty Hall ProblemEach of these is equally likely with a probablility of 1/3

| APLICACIONES A LA BIOESTADĂ?STICA DE MEDICINA 52


Una materia en la que resulta eficazmente Ăştil el teorema de Bayes es en medicina para muchas situaciones pero entre ellas destaco la que describimos con el siguiente ejemplo

Wanna Bet? Imagine someone tosses a coin in the air, and it comes up heads. Not surprising in itself. Imagine they do it again, and it comes up heads again. Again, fine. Imagine they do it seven more times, and every time it comes up heads. By now, if you've any money riding on the outcome, you're surely feeling a bit itchy. Surely a tail must come up soon. The tosser1 offers you a bet. If it comes up heads, you give him ten pounds. If it comes up tails, he'll give you eight pounds. You ask him why not ten. He replies that it's surely time for a tail by now, so you must have a better than even chance. He tosses the coin... After a long run of heads, what are the odds of a tail? There are two possible answers to this: 1. They're exactly the same as the odds were for the first throw - 50/50. The bet is not fair because the odds do not depend on the outcome of previous throws, as your 'friend' is trying to suggest. 2. They're exactly the same as the odds were for the first throw - zero, because your friend is tossing a double headed coin. The bet is not fair, but your friend has to pay for that gimmicked coin somehow. Dave likes jelly beans. He likes lemon ones and blackcurrant ones, so they're the only flavours he ever buys. He prefers lemony ones, but he's not that fussy, really. He sits in front of his computer with two piles of jelly beans on the desk. On the left, five lemon and six blackcurrant. On the right, three lemon and four blackcurrant. Dave wants a jelly bean, but he is engrossed in an h2g2 Entry about paradoxes, and can't tear his eyes away from the screen. Given his preference for lemon jelly beans, which pile should he grope for? Obviously, in this case, the pile on the left. He has a 45% chance of getting a lemon jelly bean if he gropes off to the left, and only a 43% chance if he reaches right. So far, so easy. There are two other piles on the desk. On the far left, a pile with six lemon and three blackcurrant. On the far right, nine lemon and five blackcurrant. Still engrossed, Dave wants a jelly bean from one of these two piles. Groping left offers a 67% chance of a lemon jelly bean, while reaching right offers only a 64% chance. So far this is simple enough. But disaster strikes when Dave's anally-retentive girlfriend bustles into the room and 'tidies up'. She sweeps all the jelly beans on the left into a single pile, and all the ones on the right into a single pile. So now our hero wants a jelly bean, and would still prefer a lemon one. In either of the two cases above, reaching left would give him the best chance of getting what he wants, so obviously he's going to want to reach left, yes? Wrong. Reaching left now offers a 55% chance of a lemon bean, while reaching right gives 57%. By the simple act of tidying up, Dave's girlfriend has managed to reverse the probabilities and defy common sense!

So what?

| APLICACIONES A LA BIOESTADĂ?STICA DE MEDICINA 53


Statistical reversal is an important phenomenon with applications in many fields far more important than jelly beans. Imagine a doctor who wants to test the efficacy of a new treatment. He has patients in London and Birmingham on whom he wishes to run a clinical trial. He consults a statistician, who advises him to treat 91% of the London patients with the new drug, and the other 9% with the old one, selecting randomly who is to get what. Similarly, he advises giving the new drug to one patient in Birmingham for every 100 patients who are treated with the old drug. The doctor goes away, tries the drug out and summarises the results.

Effectiveness of treatment London London Birmingham Birmingham Old drug

New Drug

Old Drug

New Drug

Not effective

950 (95%) 9000 (90%) 5000 (50%)

5 (5%)

Effective

50 (5%)

95 (95%)

1000 (10%) 5000 (50%)

He's quite happy - the new drug seems to him almost twice as effective as the old one. He's all ready to write a positive report to the drug company, when he gets a message from the statistician, telling him to stop prescribing the drug right away. His table of results (using exactly the same raw data) looks like this:

Effectiveness Old drug New drug Not effective

5,950 (54%) 9,005 (89%)

Effective

5,050 (46%) 1,095 (11%)

This is known as 'Simpson's Paradox', after E. H. Simpson, who first wrote about it in 1951. Who is right? In this case, the doctor. In the example, there were 6,145 recoveries. If the new treatment had been universal, we could expect 10,700. If only the old treatment were used, we could expect 5,600. The new treatment really is significantly better. So why does the statistician see what he does? Because he has failed to take into account that the treatment was given to a much larger proportion of the London patients, and they are statistically less likely to recover regardless of their treatment. This skews the combined results.

Conclusion As the introduction stated, people are very poor at judging probabilities. The introduction of statistics just makes it harder to judge - common sense ceases to be a useful guide even with fairly simple examples like the piles of jelly beans. The possibility that we are not considering all the possible contributory factors makes life even more difficult. Basically, in any situation involving probabilities and statistics - never rely solely on your common sense and intuition. Do the maths.

| APLICACIONES A LA BIOESTADĂ?STICA DE MEDICINA 54


Ejemplos Por ejemplo al lanzar un dado el suceso de sacar un número par es un suceso formado por los sucesos elementales 2, 4 y 6. Al sacar cartas de una baraja española, un suceso sería que saliese un rey, otro que saliese un triunfo, etc.

| APLICACIONES A LA BIOESTADÍSTICA DE MEDICINA 55


FALSAS CREENCIAS EN PROBABILIDAD En muchas ocasiones hacemos valoraciones sobre lo probable o improbable de algún hecho basándonos en apreciaciones subjetivas o cálculos completamente incorrectos. Algunos de estos errores aparecen a continuación: • El ya mencionado Caballero de Meré, comprobó que jugando a los dados era muy rentable apostar a obtener al menos un seis cuando se lanzaban cuatro dados. Él justificaba este hecho de la siguiente forma: si la probabilidad de obtener un 6 al lanzar un dado es igual a 1/6, la de obtener al menos un 6 al lanzar cuatro dados debe ser igual a 4/6, es decir superior a 1/2. Es cierto que la probabilidad es ligeramente superior a 1/2, de hecho es igual a 0’52, pero el cálculo de Meré era incorrecto. ¿Por qué?. •Otro error muy común es la creencia de que en el azar existe una especie de Ley de la compensación. Imagina que hemos lanzado una moneda 9 veces y que todos los resultados han resultado ser cruz. Muchas personas tienden a pensar que en el siguiente lanzamiento debe obtenerse una cara, basándose en el hecho de que, a la larga, la proporción de caras debe acercarse a 1/2. Otras personas, en cambio, tienden a pensar que lo más probable es obtener una nueva cruz, al deducir que la moneda debe de estar trucada, sin pensar que es imposible deducir este hecho basándonos sólo en unos pocos lanzamientos. De hecho, la moneda no tiene memoria y la probabilidad de cara o cruz en el siguiente lanzamiento es 1/2. Te proponemos que hagas una prueba. Propón a un grupo de amigos jugar al juego del palillo más corto, en él los jugadores, por turnos, van eligiendo un palillo y pierde aquél que coge el más corto. Más de uno se negará a ser el último que elige, alegando que es mucho más probable perder cuando se juega en el último lugar. Con un diagrama de árbol puedes probar que la probabilidad de perder es igual para todos

No es infrecuente que en publicidad intenten inducirnos a confundir las probabilidades condicionadas que relacionan dos sucesos, es decir, la probabilidad P(A/B) (probabilidad del suceso A condicionada por el suceso B) con P(B/A) probabilidad del suceso B condicionada por el suceso A) Por ejemplo, ciertas campañas publicitarias tienden a hacernos pensar que vamos a ser más inteligentes si utilizamos un determinado producto, utilizando para ello eslóganes publicitarios del tipo: "9 de cada diez personas inteligentes lo usan" Muy similar era la campaña publicitaria del Jabón Lux, que fue muy popular en los años 50. El texto afirmaba: "El jabón que usan 9 de cada 10 estrellas de la pantalla". ¿Qué probabilidad condicionada es igual a 9/10? ¿p(Lux / Estrella) o p(Estrella / Lux)?

| 56


La probabilidad como herramienta jurídica En alguna ocasión la probabilidad se ha utilizado como argumento determinante en un juicio. En 1964 en Los Ángeles se acusó a una pareja, Janet y Malcolm Collins, de ser responsables de un atraco. La acusación se basaba en que coincidían con la descripción dada por varios testigos, que habían descrito a sus atacantes como una mujer rubia, con coleta, vestida con ropa oscura, corriendo hacia un coche amarillo en la que esperaba un joven de raza negra y con barba. Un experto matemático, consultado por el juez, calculó la probabilidad de que existiera una pareja reuniendo todas esas características, aplicando para ello la regla del producto de las probabilidades. Esta regla establece que la probabilidad de que ocurran simultáneamente varios sucesos independientes coincide con el producto de las probabilidades de los sucesos individuales. Con ello, convenció al tribunal de que estadísticamente era muy improbable la existencia de tantas coincidencias, ya que calculó que sólo una entre 12,000,000 reunía todas ellas. Basándose en este argumento, la pareja fue condenada. Sin embargo, los acusados presentaron un recurso y finalmente fueron absueltos. Una vez más, el tribunal basó su sentencia en la probabilidad. Por una parte discutió la independencia de las características ya citadas y por otra, demostró, usando cálculos probabilísticos bastante complicados, que la probabilidad de haya otra pareja con las mismas características, sabiendo que existe al menos una, es bastante grande. FUENTE http://www.isftic.mepsyd.es/w3/recursos/bachillerato/matematicas/probabilidad/fuera_aula/fuera_aulam.htm (extraordinaria pagina!!)

| FALSAS CREENCIAS EN PROBABILIDAD 57


Recursos didรกcticos http://www.youtube.com/watch?v=vhToKaPwKE4&feature=related http://www.youtube.com/watch?v=bLNfsh8Ax38 http://www.youtube.com/watch?v=4PwnvqGEHoU&feature=fvw

| FALSAS CREENCIAS EN PROBABILIDAD 58


U⌀ℕℤℚ∊ℝℂℙℐΩ⇐⇒⇔⇏∊∉∈∅⇾≈≔⇎⇝≡ℤ≤≥≲≳≴≵≮≯∀⇒∊λ≠∅⊂⟇·∊∃ A⨯Bεαβηθλµξσφφδεε ·∅U∩∪∼∿⊂⊃⊆⊇⊄⋂⋃⊅∧∨U⤳≮≠|∂∆√±∞ǀǁƟƩǃξχ∘6⊕⊗⊛⋅♫♯ ⨁⨂✘✔×

| FALSAS CREENCIAS EN PROBABILIDAD 59


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.