martes, 15 de septiembre de 2009

medidas de dispersion

medidas de dispersion


son medidas q tratan de decir q tanto se desvian en general los datos ya sean muestrales o poblacion de la media.
"Las medidas de dispersión muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos."

VARIANZA

En teoría de probabilidad y estadística, la varianza es una medida de la dispersión de una variable aleatoria X \,\! respecto a su esperanza E[X] \,\!. Se define como la esperanza de la transformación \left ( X - E[X] \right )^2 \,\!: esto es,

V(X)=E \left [ \left ( X - E[X] \right )^2 \right ] \,\!

Está relacionada con la desviación estándar o desviación típica, que se suele denotar por la letra griega σ (sigma) y que es la raíz cuadrada de la varianza,

 \sigma = \sqrt {V(X)} \,\! o bien \sigma^2 = V(X) \,\!

Desviación estándar

La desviación estándar o desviación típica (σ) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva. Junto a la varianza -con la que está estrechamente relacionada-, es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.

Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que representan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad a la hora de describirlos e interpretarlos para la toma de decisiones.

coeficiente de simetria

Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica.

Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.

teorema de chevichev

Con la desviación típica es posible valorarla representatividad de la media de una tablade valores; la desviación típica y la mediapermiten comparar diferentes listas de datos.Los alumnos y alumnas deben comprobarque muy pocos datos de una tabla sedistribuyen, alrededor de la media, a unadistancia mayor que dos veces la desviaciónmedia y asi sucesivamente. con un teorema asi :

Polinomios de Chevichev de primera especie:
Polinomios de Chevichev de segunda especie:To (x) = 1Uo (x) = 1T1 (x) = xU1 (x) = 2 xT2 (x) = 2 x2 - 1U2 (x) = 4 x2 - 1T3 (x) = 4 x3 - 3 xU3 (x) = 8 x3 - 4 xT4 (x) = 8 x4 - 8 x2 + 1U4 (x) = 16 x4 - 12 x2 + 1
aplicaciones tanto en teoría de la aproximación de funciones por polinomios como en análisis numerico

T.Tc=1-1/k2

(La desviacion estandar siempre dice a mayor desviacion estandar los datos son menos confiables)


No hay comentarios:

Publicar un comentario