lunes, 22 de abril de 2013

Unidad 3 Distribuciones de Probabilidad Discretas

3.1 Definición de variable aleatoria discreta. Una variable aleatoria X es discreta si su recorrido es finito o infinito numerable, recorrido que denotaremos de la forma {x1, x2,..., xk,...}. El ejemplo más sencillo de variable aleatoria discreta lo constituyen las variables indicadoras. Sea A un suceso observable, se llama indicador de A, a la variable aleatoria definida por:

 3.2 Función de probabilidad y de distribución valor esperado, varianza y desviación estándar. Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.

 La gráfica de una función de probabilidad de masa, note que todos los valores no son negativos, y la suma de ellos es igual a 1.

 La función de masa de probabilidad de un Dado. Todos los números tienen la misma probabilidad de aparecer cuando este es tirado.
 En concreto, si el espacio muestral, E de la variable aleatoria X consta de los puntos x1, x2,..., xk, la función de probabilidad P asociada a X es
 Donde pi es la probabilidad del suceso X = xi.
 Por definición de probabilidad,
 Hay que advertir que el concepto de función de probabilidad sólo tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias continuas el concepto análogo es el de función de densidad.

Valor esperado
 Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
 Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo
 Y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
 Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

 Varianza y desviación estándar
 Varianza
 La varianza (que es el cuadrado de la desviación estándar: σ2) se define así: Es la media de las diferencias con la media elevadas al cuadrado. En otras palabras, sigue estos pasos: 1. Calcula la media (el promedio de los números) 2. Ahora, por cada número resta la media y eleva el resultado al cuadrado (la diferencia elevada al cuadrado). 3. Ahora calcula la media de esas diferencias al cuadrado.
 Desviación estándar
 La desviación estándar o desviación típica (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.
 Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
 Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.

 3.3 Distribución Binomial.
 En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
 Ejemplo Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20):
Las características de esta distribución son:
a) En los experimentos que tienen este tipo de distribución, siempre se esperan dos tipos de resultados, ejem. Defectuoso, no defectuoso, pasa, no pasa, etc., etc., denominados arbitrariamente “éxito” (que es lo que se espera que ocurra) o “fracaso” (lo contrario del éxito).
 b) Las probabilidades asociadas a cada uno de estos resultados son constantes, es decir no cambian.
c) Cada uno de los ensayos o repeticiones del experimento son independientes entre sí. d) El número de ensayos o repeticiones del experimento (n) es constante.




 3.4 Distribución Hipergeométrica.
 Es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.
 Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas?
 Entonces:
 N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:
 Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.

 3.4.1 Aproximación de la Hipergeometrica por la Binomial.
 En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra de n elementos de la población original.
 La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a
 Donde es el tamaño de población, es el tamaño de la muestra extraída, es el número de elementos en la población original que pertenecen a la categoría deseada y es el número de elementos en la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente Binomial, es decir, el número de combinaciones posibles al seleccionar elementos de un total.

 3.5 Distribución Geométrica.
 Esta distribución toma en cuenta el número de veces que debe repetirse el experimento hasta que ocurra éxito por primera vez, en cuyo caso, termina de realizarse el experimento. Aquí sólo ocurre éxito una sola vez. No interesa cuántos veces se deba repetir el ensayo.
 Definición
 Diremos que una variable aleatoria X tiene distribución Geométrica si X representa “El número de veces que debe repetirse un experimento hasta que ocurra éxito por primera vez”.
 En este caso denotaremos por X à G (p), donde p, la probabilidad de éxito, constituye el parámetro de la distribución cuya función viene dada por
 Observaciones
 El experimento termina cuando ocurre éxito por primera vez
 El valor esperado de X, E(X) = 1/p
 La varianza de X, V(X) = q/p²
 Ejemplo
 Usemos la simulación:
 Suponga que muchos clientes ingresan a una tienda de artefactos. A cada uno de ellos se le ofrece artefacto en particular. La probabilidad de que un cliente compre dicho artefacto es 0.25. ¿Cuál será la probabilidad de que el primer cliente que compre el artefacto sea el vigésimo quinto cliente a quien se le ofreció el producto? Construya la distribución de probabilidad del número de clientes a quienes se les ofreció el producto hasta obtener una venta. Obtenga la gráfica de esta distribución.

Solución
 Paso 1: Generemos 25 números de 1 hasta 25 almacenándolo en C1 que será X. Para ello usamos - - y completamos la ventana con los datos indicados 

Paso 2: Usando la calculadora, ingresamos en C2, la expresión 0.25*(0.75) ** (C1-1)
 Paso 3: Observando la fila 25 encontramos p (25) = P(X = 25) = 0.000251 
Paso 4: La gráfica. Usemos la siguiente secuencia - . En la columna Y ingresamos p(x) o C2 y en X ingresamos C1 La gráfica obtenida será similar a la figura de la derecha. 

3.6 Distribución Multinomial.
 Este modelo se puede ver como una generalización del Binomial en el que, en lugar de tener dos posibles resultados, tenemos r resultados posibles.
 Supongamos que el resultado de una determinada experiencia puede ser r valores distintos: A1, A2,..., Ar cada uno de ellos con probabilidad p1, p2,..., pr, respectivamente.

 Si repetimos la experiencia n veces en condiciones independientes, podemos preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el suceso A2, k2 veces y así sucesivamente:

 Al modelo estadístico que nos da dicha probabilidad se le denomina Multinomial, y su función de densidad viene dada por:

 Como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2,..., pr). La fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si tomamos r = 2 tenemos exactamente el modelo Binomial.
 Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir, de distribución conjunta de varias (r) variables aleatorio. En efecto, si definimos la variable aleatoria X1 como número de veces que se produce el suceso A1 de un total de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i = 1, 2,..., r) por separado, su distribución es la Binomial de parámetros n y pi.
 Propiedades del experimento Multinomial:
 1. El experimento consiste en n pruebas idénticas.
 2. Hay k posibles resultados de cada prueba
 3. Las probabilidades de los k resultados, denotadas por p1, p2, p3,…..pk.se mantienen constantes a lo largo de todas las pruebas, donde p1 + p2 +… +pk=1
 4. Las pruebas son independientes
 5. Las variables aleatorias de interés son las cuentas y1, y2,…, yk en cada una de Las k categorías de clasificación P(y1, y2,…,yk ) = (p1)y1( p2)y2…(pk)yk Donde pi= probabilidad del resultado i en una sola prueba p1 + p2 +… +pk=1 n= y1, y2,…, yk = numero de pruebas yi=numero de ocurrencias del resultado i en n pruebas La media y la varianza de las variables Multinomial yi son, respectivamente μ=np1 σ=npi (1-pi)

 3.7 Distribución de Poisson
. La distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo.
 Propiedades
 La función de masa de la distribución de Poisson es:

 Donde 
• k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). 
• λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. 
• e es la base de los logaritmos naturales (e = 2,71828...) 
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el enésimo momento iguala al número de particiones de tamaño n. 

3.8 Aproximación de la Binomial por la de Poisson.
 En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de Poisson, estas características son, n ¥® (n es muy grande) y p®0 (p es muy pequeña), por lo que:

 La expresión anterior solo se cumple cuando n ®¥ y p®0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:
 Donde:
 l =m= npi = número esperado de éxitos = tasa promedio de éxitos
 n = número de repeticiones del experimento
 p = probabilidad de éxito = p (éxito)
 Una regla general aceptable es emplear esta aproximación si n³20 y p£0.05: sí n³100, la aproximación es generalmente excelente siempre y cuando np£10.
EJEMPLO 2.
 Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores de gran tamaño con garantía. Sí la probabilidad de que cualquiera de ellos falle durante el año dado es de 1/1200 determine la probabilidad de que a) 4 generadores fallen durante el año en cuestión, b) que más 1 de un generador falle durante el año en cuestión.
 Solución:
 a) n = 3840 generadores
 p = 1/1200 = probabilidad de que un generador falle durante el año de garantía
 l = np = (3840) (1/1200) = 3.2 motores en promedio pueden fallar en el año de garantía
 x = variable que nos define el número de motores que pueden fallar en el año de garantía
 = 0, 1, 2, 3,....,3840 motores que pueden fallar en el año de garantía
 b) p(x=2, 3,4,....,3840;l=3.2)=1-p(x=0,1;l=3.2) =
=1- (0.04078 + 0.13048) = 0.82874

 3.9 Distribución Binomial Negativa.
 La distribución Binomial es una distribución de probabilidad discreta que incluye a la distribución de Pascal.
 El número de experimentos de Bernoulli de parámetro independientes realizados hasta la consecución del k-ésimo éxito es una variable aleatoria que tiene una distribución Binomial negativa con parámetros k y .
 La distribución geométrica es el caso concreto de la Binomial negativa cuando k=1.
 Propiedades:
 Su función de probabilidad es:
 Para enteros x mayores o iguales que k, donde .
 Su media es
 Si se piensa en el número de fracasos únicamente y
 Si se cuentan también los k-1 éxitos.
 Su varianza es
 En ambos casos.
Ejemplos:
Si la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es 0,40, ¿Cuál es la probabilidad de que el décimo niño expuesto a la enfermedad sea el tercero en contraerla? En este caso, X es el número de niños expuestos la enfermedad y
 La solución es:
 En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es defectuoso, ¿cual es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en estar defectuoso?. La solución es: X= artículos defectuosos P= 1/10 = 0,1 q= 1- 0,1 = 0,9 x= 5 ensayos K= 1 b*(5;1,0.1)=(5-1\1-1)(0.1)^1*(0.9)^5-1= b*(5;1,0.1)= 6.6% de probabilidad que el quinto elemento extraído sea el primero en estar defectuoso.

 3.10 Distribución Uniforme.
 La distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a, b)
 La función de distribución se obtiene integrando la función de densidad y viene dada por:


UNIDAD 2 FUNDAMENTOS DE PROBABILIDAD

2.1 CONJUNTO Y TECNICAS DE CONTEO. Podemos definir de manera intuitiva a un conjunto, como una colección o listado de objetos con características bien definidas que lo hace pertenecer a un grupo determinado. Para que exista un conjunto debe basarse en lo siguiente: • La colección de elementos debe estar bien definida. • Ningún elemento del conjunto se debe contar más de una vez, generalmente, estos elementos deben ser diferentes, si uno de ellos se repite se contará sólo una vez. • El orden en que se enumeran los elementos que carecen de importancia. • El orden en que se enumeran los elementos que carecen de importancia.

TIPOS DE CONJUNTOS CONJUNTO VACIÓ O NULO: Es aquel que no tiene elementos y se simboliza por Ø o { }. A = {x2 + 1 = 0 | x _ R} El conjunto A, es un conjunto vacío por que no hay ningún número real que satisfaga a x2+1 = 0 CONJUNTO UNIVERSAL: Es el conjunto de todos los elementos considerados en una población o universo, en un problema en especial. No es único, depende de la situación, denotado por U.

2.2 CONCEPTO CLASICO Y COMO FRECUENCIA RELATIVA. Concepto clásico Está basado en el concepto de resultados igualmente verosímiles y motivado por el denominado Principio de la Razón Insuficiente, el cual postula que si no existe un fundamento para preferir una entre varias posibilidades, todas deben ser consideradas equiprobables. Así, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser igual que la de cruz y, por tanto, ambas iguales a 1/2. De la misma manera, la probabilidad de cada uno de los seis sucesos elementales asociados al lanzamiento de un dado debe ser 1/6. Frecuencia relativa La frecuencia absoluta, es una medida que está influida por el tamaño de la muestra, al aumentar el tamaño de la muestra aumentará también el tamaño de la frecuencia absoluta. Esto hace que no sea una medida útil para poder comparar. Para esto es necesario introducir el concepto de frecuencia relativa, que es el cociente entre la frecuencia absoluta y el tamaño de la muestra. La denotaremos por fi. Donde N = Tamaño de la muestra

2.3 ESPACIO MUESTRAL Y EVENTOS. Espacio muestral Es el conjunto de todos los posibles resultados de una experiencia aleatoria, lo representaremos por E (o bien por la letra griega Ω). Por citar un caso a modo de ejemplo concreto: si la prueba se basa en arrojar un dado, el espacio muestral estará constituido por los puntos muestrales identificados como los números 1, 2, 3, 4, 5 y 6, ya que esos son los resultados posibles de la acción de tirar el dado. Por lo tanto, se puede establecer que el espacio muestral del experimento es U = {1, 2, 3, 4, 5, 6}. Los espacios muestrales pueden clasificarse como discretos (cuando la cantidad de sucesos elementales es finito o numerable) o continuos (en los casos en los cuales la cantidad de sucesos básicos posee carácter infinito y, por lo tanto, resulta imposible de contar). Tipos de eventos Un evento se denomina cierto si ocurre siempre, siendo igual al espacio muestral. Por lo tanto su probabilidad es 1. Un evento se denomina imposible si no puede ocurrir. Por lo tanto, su probabilidad es 0. Dos eventos se denominan complementarios cuando su unión da el espacio muestral y su intersección es vacía. La suma de las probabilidades de dos eventos complementarios es igual a 1. Se denomina Ac al evento complementario del evento A. Por ejemplo, la probabilidad de obtener un múltiplo de 3 al tirar un dado es , y la probabilidad de no obtener un múltiplo de 3 será de 2/3

 2.4 AXIOMAS Y TEOREMAS. Axioma. Un axioma es una premisa que, por considerarse evidente, se acepta sin demostración, como punto de partida para demostrar otras fórmulas. Tradicionalmente, los axiomas se eligen de entre las consideradas «verdades evidentes» porque permiten deducir las demás fórmulas.
EJEMPLOS: Axiomas básicos 1- El espacio tiene infinitos puntos, rectas y planos. 2- El plano tiene infinitos puntos y rectas. 3- La recta tiene infinitos puntos. 4- Por un punto pasan infinitas rectas. 5- Por una recta pasan infinitos planos. Los axiomas son ciertas fórmulas en un lenguaje que son universalmente válidas, esto es, fórmulas que son satisfechas por cualquier estructura y por cualquier función variable. Teoremas. Un teorema es una afirmación que puede ser demostrada dentro de un sistema formal. Demostrar teoremas es un asunto central en la matemática. Un teorema generalmente posee un número de premisas que deben ser enumeradas o aclaradas de antemano. Luego existe una conclusión, una afirmación matemática, la cual es verdadera bajo las condiciones dadas. El contenido informativo del teorema es la relación que existe entre la hipótesis y la tesis o conclusión. 2.4 EJEMPLO: Teorema de Pitágoras. En un triángulo rectángulo el cuadrado del lado más largo (la “hipotenusa”) es igual a la suma de los cuadrados de los otros dos lados (los catetos). Se establece en esta fórmula: a2 + b2 = c2

2.5 PROBABILIDAD CLASICA ESPACIO FINITO EQUIPARABLE. La probabilidad clásica El enfoque clásico o a priori de la probabilidad se basa en la consideración de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clásico, la probabilidad de que suceda un evento se calcula dividiendo el número de resultados favorables, entre el número de resultados posibles. Espacios finitos equiprobables Una de las suposiciones más usadas, cuando se calculan las probabilidades de eventos de un espacio muestral finito U, es afirmar que cada punto muestral de U tiene un mismo valor de probabilidad. Dicho de otra forma, si U consta de n elementos, entonces la probabilidad de cada uno de ellos es 1 / n . A estos espacios muéstrales se les denomina espacios finitos equiprobables (o uniformes).

2.6 PROBABILIDAD CONDICIONAL E INDEPENDIENTE. Probabilidad condicionada Es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad de A dado B. No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. Probabilidad independiente Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si A y B son dos sucesos, y P(A) y P (B) son las probabilidades de que ocurran respectivamente entonces:

2.7 TEOREMA DE BAYES. La interpretación más aceptada del teorema de Bayes, es que su estructura permite el calculo de probabilidades después de haber sido realizado un experimento (probabilidades aposteriori), basándose en el conocimiento de la ocurrencia de ciertos eventos que dependan del evento estudiado, o sea, se parte de probabilidades conocidas antes de efectuar el experimento (probabilidades apriori), las cuales son afectadas por las probabilidades propias del experimento (las que aparecen durante la ocurrencia del evento). Sea un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales . Entonces, la probabilidad viene dada por la expresión: Donde: Son las probabilidades a priori. Es la probabilidad de en la hipótesis . Son las probabilidades a posteriori. Ejemplo. Una fábrica que produce material para la construcción tiene 3 máquinas, a las que se les denomina A, B y C. La máquina A produce tabique, la B adoquín y la C losetas. La máquina A produce el 50% de la producción total de la fábrica, la B el 30% y la C el 20%. Los porcentajes de artículos defectuosos producidos por las máquinas son, respectivamente, 3%, 4% y 5%. Si se selecciona un artículo al azar y se observa que es defectuoso, encontrar la probabilidad de que sea un tabique. Solución Definamos el evento D como sea un artículo defectuoso. De acuerdo a esto tenemos que: P(A) = 0.5 P(D | A) = 0.03 P(B) = 0.3 P(D | B) = 0.04 P(C) = 0.2 P(D | C) = 0.05 Si el artículo del que deseamos calcular la probabilidad es un tabique, significa que es producido por la máquina A. También observamos que en la solución solamente participan los artículos defectuosos, ya que se pone por condición esta característica. Por lo tanto:

 2.8 DISTRIBUCION MARGINAL CONJUNTA. Tengo dos variables aleatorias: X= (1,2,1) Y= (2,1,1) ¿Cómo se calcularían la distribución de probabilidad conjunta y la distribución de probabilidad marginal? Supongo que los dos conjuntos de valores X=(1,2,1) Y=(2,1,1) Representen los resultados de tres mediciones de las dos variables X, Y, y que los resultados vayan en pares, o sea: X = 1 con Y = 2 X = 2 con Y = 1 X = 1 con Y = 1 Como cada par de mediciones aparece 1 vez entre 3, la probabilidad conjunta es 1/3 por cada par (1, 2), (2, 1) y (1, 1), mientras el cuarto par posible, o sea (2, 2) tiene probabilidad 0. La distribución conjunta es entonces X\Y 1 2 ---------------- 1 | 1/3 1/3 2 | 1/3 0 Las distribuciones marginales son las distribuciones separadas de X e Y, y se obtienen de la tabla conjunta sumando las probabilidades por lineas horizontales y verticales: X P(X) 1 2/3 2 1/3 Y P(Y) 1 2/3 2 1/3


BIBLIOGRAFIA. http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r48023.PDF http://probabilidadestadistic.blogspot.mx/2010/09/tecnicas-de-conteo.html http://yakoto.tripod.com/orochi/concepto_clasico.htm http://www.monografias.com/trabajos69/teoria-elemental-probabilidad/teoria-elemental-probabilidad.shtml http://thales.cica.es/rd/Recursos/rd99/ed99-0278-01/probab2.html http://www.ditutor.com/probabilidad/espacio_muestral.html http://definicion.de/espacio-muestral/ http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t1.htm http://www.slideshare.net/neneantrox/22-probabilidad-de-aventos http://www.educarchile.cl/Portal.Base/Web/VerContenido.aspx?ID=137622 http://www.roberprof.com/2009/08/16/axiomas-y-teoremas/ http://geometriaytrigonometria.wordpress.com/2011/05/09/3-teorema-axioma-corolario/ http://www.sites.upiicsa.ipn.mx/polilibros/portal/Polilibros/P_terminados/Probabilidad/doc/Unidad%201/1.3.5.htm http://es.wikipedia.org/wiki/Teorema_de_Bayes http://colimp.blogspot.mx/2010/09/probabilidad-condicional-e.html