miércoles, 10 de junio de 2015

2.2

Variable aleatoria:
En probabilidad y estadística, una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a números reales (p.e., su suma).
Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores.
Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lógicos, funciones... El término elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocástico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).
Función de probabilidad:
En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.
http://upload.wikimedia.org/wikipedia/commons/thumb/8/85/Discrete_probability_distrib.svg/220px-Discrete_probability_distrib.svg.png
http://bits.wikimedia.org/static-1.23wmf16/skins/common/images/magnify-clip.png
La gráfica de una función de probabilidad de masa, note que todos los valores no son negativos, y la suma de ellos es igual a 1.
http://upload.wikimedia.org/wikipedia/commons/thumb/4/4c/Fair_dice_probability_distribution.svg/220px-Fair_dice_probability_distribution.svg.png
http://bits.wikimedia.org/static-1.23wmf16/skins/common/images/magnify-clip.png
La funcion de masa de probablilidad de un Dado. Todos los numeros tienen la misma probabilidad de aparecer cuando este es tirado.
En concreto, si el espacio muestral, E de la variable aleatoria X consta de los puntos x1, x2, ..., xk, la función de probabilidadP asociada a X es
P(x_i) = p_i\,,
donde pi es la probabilidad del suceso X = xi.
Por definición de probabilidad,
\sum_1^kP(x_i) = 1.
Hay que advertir que el concepto de función de probabilidad sólo tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias continuas el concepto análogo es el de función de densidad.

Esperanza matemática:
En estadística la esperanza matemática (también llamada esperanzavalor esperadomedia poblacional o media) de una variable aleatoria  X , es el número\operatorname{E}[X] que formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo

\begin{align}
\operatorname{E}(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6}
+ 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}\\[6pt] = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3,5
\end{align}
y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a lamedia aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

\left( -1 \cdot \frac{37}{38} \right) + \left( 35 \cdot \frac{1}{38} \right),
que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de 1€, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los 35€. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

Varianza:

En teoría de probabilidad, la varianza (que suele representarse como \sigma^2) de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.
Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. Ladesviación estándar es la raíz cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas unidades de los datos de la variable objeto de estudio. La varianza tiene como valor mínimo 0.
Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.
El término varianza fue acuñado por Ronald Fisher en un artículo publicado en enero de 1919 con el título The Correlation Between Relatives on the Supposition ofMendelian Inheritance.1

Desviación estándar:

La desviación estándar o desviación típica (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de dispersiónpara variables de razón (variables cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada de la varianza de la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.

DESGLOSE DE LA DESVIACIÓN ESTÁNDAR:

La desviación estándar (DS/DE), también llamada desviación típica, es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores concretos del promedio en una distribución. De hecho, específicamente, el cuadrado de la desviación estándar es "el promedio del cuadrado de la distancia de cada punto respecto del promedio". Se suele representar por una S o con la letra sigma, \sigma^{}_{}.
La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su media. Esta medida es más estable que el recorrido y toma en consideración el valor de cada dato.

Distribución de probabilidad continua[editar]

Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz cuadrada de la integral
{\sigma}^2 = \int {(x - \mu)}^2 f(x) dx
donde
\mu = \int {x} f(x) dx

Distribución de probabilidad discreta[editar]

La Desviación Estándar es la raíz cuadrada de la varianza de la distribución de probabilidad discreta:
s^2 = \frac{1}{n} \sum_{i=1}^n
 \left( x_i - \overline{x} \right) ^ 2
Cuando los casos tomados son iguales al total de la población se aplica la fórmula de desviación estándar poblacional. Así la varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución.
Aunque esta fórmula es correcta, en la práctica interesa el realizar inferencias poblacionales, por lo que en el denominador en vez de \displaystyle n, se usa \displaystyle n-1 según lacorrección de Bessel. Esta ocurre cuando la media de muestra se utiliza para centrar los datos, en lugar de la media de la población. Puesto que la media de la muestra es una combinación lineal de los datos, el residual a la muestra media se extiende más allá del número de grados de libertad por el número de ecuaciones de restricción —en este caso una—. Dado esto a la muestra así obtenida de una muestra sin el total de la población se le aplica esta corrección con la fórmula desviación estándar muestral.

Gráfica:

Un gráfico o una representación gráfica son un tipo de representación de datos, generalmente numéricos, mediante recursos gráficos (líneasvectores,superficies o símbolos), para que se manifieste visualmente la relación matemática o correlación estadística que guardan entre sí. También es el nombre de un conjunto de puntos que se plasman en coordenadas cartesianas y sirven para analizar el comportamiento de un proceso o un conjunto de elementos o signos que permiten la interpretación de un fenómeno. La representación gráfica permite establecer valores que no se han obtenido experimentalmente sino mediante lainterpolación (lectura entre puntos) y la extrapolación (valores fuera del intervalo experimental).

Gráficas en estadística:

  • La estadística gráfica es la descripción e interpretación de datos e inferencias sobre éstos. Forma parte de los programas estadísticos usados con los ordenadores. Autores como Edward R. Tufte han desarrollado nuevas soluciones de análisis gráficos. Existen diferentes tipos de gráficas:
  • Gráfico lineal: los valores en dos ejes cartesianos ortogonales entre sí. Las gráficas lineales se recomiendan para representar series en el tiempo, y es donde se muestran valores máximos y mínimos; también se utilizan para varias muestras en un diagrama.
  • Gráfico de barras: se usa cuando se pretende resaltar la representación de porcentajes de datos que componen un total. Una gráfica de barras contiene barras verticales que representan valores numéricos, generalmente usando una hoja de cálculo. Las gráficas de barras son una manera de representar frecuencias; las frecuencias están asociadas con categorías. Una gráfica de barras se presenta de dos maneras: horizontal o vertical. El objetivo es poner una barra de largo (alto si es horizontal) igual a la frecuencia. La gráfica de barras sirve para comparar y tener una representación gráfica de la diferencia de frecuencias o de intensidad de la característica numérica de interés.
  • Histograma: se emplea para ilustrar muestras agrupadas en intervalos. Está formado por rectángulos unidos a otros, cuyos vértices de la base coinciden con los límites de los intervalos y el centro de cada intervalo es la marca de clase que representamos en el eje de las abscisas. La altura de cada rectángulo es proporcional a la frecuencia del intervalo respectivo.
  • Gráfico circular: permite ver la distribución interna de los datos que representan un hecho, en forma de porcentajes sobre un total. Se suele separar el sector correspondiente al mayor o menor valor, según lo que se desee destacar.
  • Pictograma: con imágenes que sirven para representar el comportamiento o la distribución de los datos cuantitativos de una población, utilizando símbolos de tamaño proporcional al dato representado. Una posibilidad es que el gráfico sea analógico por ejemplo, la representación de los resultados de las elecciones con colores sobre un hemiciclo.

http://t3.gstatic.com/images?q=tbn:ANd9GcTm0bI8JhY7r8v5bskjQuIS3ngTY0IQZho9zQJOLxvWL6pvFP5v

No hay comentarios.:

Publicar un comentario