martes, 3 de junio de 2014

Distribución exponencial - Distribución Normal


Mientras que la distribución de Poisson describe las llegadas por unidad de tiempo, la distribución exponencial estudia el tiempo entre cada una de estas llegadas. Si las llegadas son de Poisson el tiempo entre estas llegadas es exponencial. Mientras que la distribución de Poisson es discreta la distribución exponencial es continua porque el tiempo entre llegadas no tiene que ser un número entero. Esta distribución se utiliza mucho para describir el tiempo entreeventos. Más específicamente la variable aleatoria que representa al tiempo necesario para servir a la llegada.
Ejemplos típicos de esta situación son el tiempo que un medico dedica a una exploración, el tiempo de servir una medicina en una farmacia, o el tiempo de atender a una urgencia.
El uso de la distribución exponencial supone que los tiempos de servicio son aleatorios, es decir, que un tiempo de servicio determinado no depende de otro servicio realizado anteriormente ni de la posible cola que pueda estar formándose. Otra característica de este tipo de distribución es que no tienen "edad" o en otras palabras, "memoria". Por ejemplo. Supongamos que el tiempo de atención de un paciente en una sala quirúrgica sigue una distribución exponencial. Si el paciente ya lleva 5 horas siendo operado, la probabilidad de que esté una hora más es la misma que si hubiera estado 2 horas, o 10 horas o las que sea. Esto es debido a que la distribución exponencial supone que los tiempos de servicio tienen una gran variabilidad. A lo mejor el próximo paciente operado tarda 1 hora porque su cirugía era mucho más simple que la anterior.
La función de densidad de la distribución exponencial es la siguiente:
Se dice que la variable aleatoria continua X tiene distribución exponencial con parámetro
Monografias.com
Su gráfica es un modelo apropiado a vida útil de objetos.
Monografias.com
Monografias.com
Par calcular la esperanza matemática y la varianza, se hallara primero el momento de orden r respecto del origen:
Monografias.com
CAPITULO II

Distribución exponencial (Práctica)

Ejemplos prácticos sobre la distribución exponencial:
EJEMPLO 1.-El tiempo durante el cual cierta marca de batería trabaja en forma efectiva hasta que falle (tiempo de falla) se distribuye según el modelo exponencial con un tiempo promedio de fallas igual a 360 días.
  • a) ¿qué probabilidad hay que el tiempo de falla sea mayor que 400 días?.
  • b) Si una de estas baterías ha trabajado ya 400 días, ¿qué probabilidad hay que trabaja más de 200 días más?
  • c) Si se están usando 5 de tales baterías calcular la probabilidad de que más de dos de ellas continúen trabajando después de 360 días.
Solución
Sea X=el tiempo que trabaja la batería hasta que falle. El tiempo promedio de falla es de 360 días. Entonces, X ~Exp (ß=1/360) y su función de densidad es:
Monografias.com
EJEMPLO 2.-Suponga que la vida de cierto tipo de tubos electrónicos tiene una distribución exponencial con vida media de 500 horas. Si X representa la vida del tubo (tiempo q dura el tubo).
  • a) Hallar la probabilidad que se queme antes de las 300 horas.
  • b) ¿Cuál es la probabilidad que dure por lo menos 300 horas?
  • c) Si un tubo particular ha durado 300 horas. ¿cúal es la probabilidad de que dure otras 400 horas?
Solución
Monografias.com
Este, es una propiedad de la distribución exponencial que se conoce como la de no tener memoria.
EJEMPLO 3.-Suponga que el tiempo que necesita un cajero de un banco para atender a un cliente tiene un distribución exponencial con una media de 40 segundos.
  • a) Hallar la probabilidad que el tiempo necesario para atender un cliente dado sea mayor que 20 minutos?
  • b) ¿Cuál es la probabilidad que el tiempo necesario para atender a un cliente esté comprendido entre 1 y 2 minutos.
Solución

Monografias.com
DISTRIBUCCIÓN NORMAL
En estadística y probabilidad se llama distribución normaldistribución de Gauss o distribución gaussiana, a una de lasdistribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.[cita requerida]
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de lasmedias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

DISTRIBUCION HIPERGEOMETRICA

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatoriosy sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a laB. La distribución hipergeométrica mide la probabilidad de obtener x (0 \le x \le d) elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.

Propiedades

La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientoscombinatorios y es igual a
P(X=x)=\frac{{d \choose x}{{N-d \choose n-x}}}{{N \choose n}},
donde N es el tamaño de población, n es el tamaño de la muestra extraída, d es el número de elementos en la población original que pertenecen a la categoría deseada y x es el número de elementos en la muestra que pertenecen a dicha categoría. La notación {a \choose x} hace referencia al coeficiente binomial, es decir, el número de combinaciones posibles al seleccionar xelementos de un total a.
El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es
E[X]=\frac{nd}{N}
y su varianza,
Var[X]=\bigg(\frac{N-n}{N-1}\bigg)\bigg(\frac{nd}{N}\bigg)\bigg( 1-\frac{d}{N}\bigg).
En la fórmula anterior, definiendo
p = \frac{d}{N}
y
q = 1-p\,,
se obtiene
Var[X]=npq\frac{N-n}{N-1}.
La distribución hipergeométrica es aplicable a muestreos sin reemplazo y la binomial a muestreos con reemplazo. En situaciones en las que el número esperado de repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda. Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N, es pequeño.


Esperanza matemática

En estadística la esperanza matemática (también llamada esperanzavalor esperadomedia poblacional o media) de una variable aleatoria  X , es el número \operatorname{E}[X] que formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo

\begin{align}
\operatorname{E}(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6}
+ 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}\\[6pt] = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3,5
\end{align}
y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

\left( -1 \cdot \frac{37}{38} \right) + \left( 35 \cdot \frac{1}{38} \right),
que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de 1€, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los 35€. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

Teorema de Bayes

En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.
Sea \{A_1, A_2, ..., A_i,   ...,   A_n\} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A_i). Entonces, la probabilidad P(A_i | B) viene dada por la expresión:
P(A_i|B) = \frac{P(B | A_i) P(A_i)}{P(B)}
donde:
  • P(A_i) son las probabilidades a priori.
  • P(B|A_i) es la probabilidad de B en la hipótesis A_i.
  • P(A_i|B) son las probabilidades a posteriori.

Thomas Bayes (1763)














DISTRIBUCIÓN BINOMIAL

En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
X \sim B(n, p)\,
La distribución binomial es la base del test binomial de significación estadística.


Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:
  • Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10, 1/6)
  • Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2, 1/2)















DISTRIBUCION DE PROBABILIDAD DE VARIABLES ALEATORIAS DISCRETAS

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria.
La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.



Dada una variable aleatoria \scriptstyle X, su función de distribución\scriptstyle F_X(x), es
F_X(x) = \mathrm{Prob}( X \le x ) = \mu_P\{\omega\in \Omega|X(\omega)\le x\}
Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice \scriptstyle X y se escribe, simplemente, \scriptstyle F(x). Donde en la fórmula anterior:
\mathrm{Prob}\,, es la probabilidad definida sobre un espacio de probabilidad y una medida unitaria sobre el espacio muestral.
\mu_P\, es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad.
\Omega\, es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio de probabilidad en cuestión.
X:\Omega\to \R es la variable aleatoria en cuestión, es decir, una función definida sobre el espacio muestral a los números reales.

Propiedades

Como consecuencia casi inmediata de la definición, la función de distribución:
Además, cumple
\lim_{x \to -\infty} F(x) = 0
y
\lim_{x \to +\infty} F(x) = 1
Para dos números reales cualesquiera a y b tal que (a < b), los sucesos ( X \le a ) y ( a < X \le b ) son mutuamente excluyentes y su unión es el suceso ( X \le b ), por lo que tenemos entonces que:
P( X \le b ) = P( X \le a ) + P( a < X \le b )
P( a < X \le b ) = P( X \le b ) - P( X \le a )
y finalmente
P(a < X \le b ) = F(b) - F(a)
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.