familias param. y no-param. - ferran torres – personal and edu...
TRANSCRIPT
Comparación de variables “continuas”
22
• Familias paramétricas: Funciones de distribución caracterizadas por pocos parámetros
• Familias no paramétricas: Funciones de distribución que no se pueden caracterizar con pocos parámetros
• Métodos paramétricos: Métodos estadísticos válidos para la familia de las distribuciones normales
• Métodos no paramétricos: Métodos estadísticos válidos para una familia de distribuciones no paramétricas. También se les llama métodos estadísticos de distribución libre puesto que sus propiedades estadísticas no dependen de la distribución de la población que se estudia
Métodos Paramétricos vs No ParamétricosIntroducción
Familias param. y no-param.
33
Ventajas
Desventajas
Métodos Paramétricos vs No ParamétricosIntroducción
Métodos No Paramétricos
44
• Requieren pocas asunciones (normalidad)
• El cálculo manual es más rápido en muestras pequeñas
• Son a menudo más fáciles de entender
• Son relativamente insensibles a valores extremos
Métodos Paramétricos vs No ParamétricosIntroducción
Ventajas
55
• Son aplicables en muchas situaciones donde los métodos paramétricosno lo son. Muchos métodos no paramétricos precisan sólo los rangos de las observaciones, en vez de la magnitud.
• Los métodos jacknife y boostrap permiten una aproximación en situaciones muy complicadas.
• El desarrollo de programas informáticos ha facilitado un rápido cálculo del p-valor en los métodos no paramétricos condicionados. Por eso, en principio, siempre es posible el cálculo exacto del p-valor.
Métodos Paramétricos vs No ParamétricosIntroducción
Ventajas
66
• Cuando las variables son normales (en cuyo caso ambos métodos son válidos) son menos eficientes (potentes).– En este caso el p-valor excede al obtenido por métodos
paramétricos. Así es más difícil encontrar un resultado significativo con una prueba no paramétrica. Aunque la diferencia no es muy grande
• El cálculo manual con muestras grandes es tedioso y largo
• Permiten menos refinamientos en el análisis posterior, más detallado, de los datos.
Métodos Paramétricos vs No ParamétricosIntroducción
Desventajas
77
• Un factor que limita la aplicabilidad de los métodos paramétricos es el tamaño de la muestra disponible para el análisis.
• Podemos asumir que la distribución de la muestra es normal aunque no estemos seguros si la variable en la población es normal, siempre que nuestra muestra sea suficientemente grande (p.e. 30 o 100 observaciones o más).
• Si nuestra muestra es pequeña, entonces estos métodos pueden ser usados solamente si estamos seguros de que la variable se distribuye normalmente y no hay manera de comprobar esta asunción si la muestra es pequeña.
Métodos Paramétricos vs No ParamétricosIntroducción
Tamaño de la muestra
88
• Las pruebas no paramétricas usan el orden de los datos para su análisis
• Rango: El orden de cada uno de los datos
• Puntuación (“score”): Se transforma el rango en una puntuación para realizar la prueba estadística
• Los empates pueden tratarse de diferente manera
Métodos Paramétricos vs No ParamétricosIntroducción
Rangos Puntuaciones
99
• Ejemplo
Métodos Paramétricos vs No ParamétricosIntroducción
Rangos Puntuaciones
Datos Wilcoxon Median VW Savage Siegel-Tukey Ansari-Bradley Klotz Mood1 1 0 -1,33518 -0,90000 1 1 1,78271 20,252 2 0 -0,90846 -0,78889 4 2 0,82530 12,253 3,5 0 -0,47667 -0,59246 6,5 3,5 0,22721 43 3,5 0 -0,47667 -0,59246 6,5 3,5 0,22721 44 5 0 -0,11419 -0,35437 10 5 0,01304 0,255 6,5 1 0,23147 -0,02937 8,5 4,5 0,05358 15 6,5 1 0,23147 -0,02937 8,5 4,5 0,05358 16 8 1 0,60459 0,42897 5 3 0,36553 6,257 9 1 0,90846 0,92897 3 2 0,82530 12,258 10 1 1,33518 1,92897 2 1 1,78271 20,25
1010
Métodos Paramétricos vs No ParamétricosIntroducción
Comprobación Normalidad• Prueba de Kolmogorov-Smirnov
– SAS también realiza los estadísticos de Anderson-Darling y Cramer-von Mises
– Se basan en las diferencias entre la distribución observada y la esperada
• Estadístico de Shapiro-Wilks– El SPSS versión 8 lo calcula para muestras 50 observaciones
– El SAS lo calcula para muestras 2000 observaciones
1111
Métodos Paramétricos vs No ParamétricosIntroducción
Comprobación Normalidad• Hay que tener en cuenta que la capacidad de una prueba de
rechazar la hipótesis nula (potencia) aumenta con el tamaño de la muestra
– Con tamaños de muestra grandes se pueden detectar desviaciones pequeñas de la normalidad
– Puesto que pequeñas desviaciones no afectan gravemente a la validez de las pruebas estadísticas es importante examinar otras pruebas y los gráficos
1212
Métodos Paramétricos vs No ParamétricosIntroducción
Preguntas comunes
• Si las pruebas no paramétricas con válidas para los datos con o sin distribución normal, ¿porqué no usarlos siempre?
1313
Métodos Paramétricos vs No ParamétricosIntroducción
Preguntas comunes– Se prefieren las pruebas paramétricas porque:
• Raramente estamos interesados sólo en la significación estadística; muchas veces queremos conocer aspectos de la población original, y esto se consigue con estimadores e intervalos de confianza
• Es difícil hacer un modelo flexible con las pruebas no paramétricas, por ejemplo para factores de confusión en regresión múltiple
1414
Métodos Paramétricos vs No ParamétricosIntroducción
Preguntas comunes
• ¿Las pruebas no paramétricascomparan medianas?
1515
Métodos Paramétricos vs No ParamétricosIntroducción
Preguntas comunes
– Es una creencia común que la prueba de Mann-Whitney es, de hecho, una prueba para diferencias entre medianas.• Sin embargo, dos grupos podrían tener la misma
mediana y tener una prueba significativa.• Considerar los siguientes datos de dos grupos
con 100 observaciones.– Grupo 1: 98 (0), 1, 2.– Grupo 2: 51 (0), 1, 48 (2).– La mediana en ambos casos es 0.– Prueba de Mann-Whitney: p<0.0001
1616
Métodos Paramétricos vs No ParamétricosIntroducción
Elección de la pruebaDatos independientes
P.e. ensayo clínico: Var.de entrada=Tipo de tratamiento (nominal). Var.resultado=Colesterol (cuant.normal). t-StudentP.e. Var.de entrada=Puntuación clínica (cuantitativa). Var.resultado=Curación (nominal). Regresión logística
(1) Si los datos son censurados(2) Hay muchas técnicas avanzadas. Sin embargo, requieren ciertas asunciones y a menudo es más fácil dicotomizar la variable
resultado o tratarla como continua
Variable ResultadoNominal Categórica
(>2 categorías)Ordinal Cuantitativa
DiscretaCuantitativaNo-Normal
CuantitativaNormal
Nominal 2 o Fisher 2 2-tendenciao Mann-W.
Mann-Whitney
Mann-Whitneyo log-rank (1)
t-Student
Categórica(>2 cat.)
2 2 Kruskal-Wallis
Kruskal-Wallis
Kruskal-Wallis Análisis de lavarianza
Ordinal 2-tendencia oMann-Whitney
(2) Spearman Spearman Spearman Spearman oregresión lineal
CuantitativaDiscreta
RegresiónLogística
(2) (2) Spearman Spearman Spearman oregresión lineal
CuantitativaNo-Normal
RegresiónLogística
(2) (2) (2) Gráfico datosy Pearson oSpearman
Gráfico datos yPearson oSpearman yregresión lineal
VariableInicial
CuantitativaNormal
RegresiónLogística
(2) (2) (2) Regresiónlineal
Pearson yregresión lineal
1717
Métodos Paramétricos vs No ParamétricosIntroducción
Elección de la prueba
Datos apareados
Variable PruebaNominal McNemarOrdinal (Categorías ordenadas) WilcoxonCuantitativa (Discreta o No-Normal) WilcoxonCuantitativa (Normal) t-test para datos apareados
Estimación y análisis
1919
Supón que todos los datos numéricos de tu muestra son cuantitativos y procede en consecuencia. Puede que el ordenador te calcule la media de la situación civil
No compruebes si tus datos siguen una ley normal. Las pruebas no paramétricas no son tan divertidas.
RESULTADOSSituación civil 3,4
Sexo 2,3Conduce 1,3
2020
2121 2222
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
2323
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
p < 0.05p 0.05
2424
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
p < 0.05p 0.05
2525
(A) (B)
(C) (D)
Pueden haber muchas formas...
2626
...y NO hay normalidad
• Transformar la variable
0 1 2 3 4 5
05
01
001
50
x
0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6
020
406
08
0
x^0.25
x
x^0,25
¿Raíz cuarta de ‘algo’?
2727
No pasa nada, hay otras técnicas
• Técnicas basadas en –Rangos–Puntuaciones–Signos
2828
¿Son independientes las variables?
2929
Métodos
• Métodos paramétricos– Coef. de correlación de Pearson
• Métodos no paramétricos– Coef. de correlación de Spearman– Kendall tau
3030
Clark y cols. realizaron diferentes pruebas psicológicas en gemelos bicigóticos (p.e. no idénticos) para comprobar si había relación entre entre ellas.
2301281318714912
114161112312321097114918822981842327221213614610851441394137157311816922562771
Gemelo 2Gemelo 1Pareja
Ejemplo de los gemelos
3131
50
100
150
200
250
300
50 100 150 200 250 300
Si lo graficamos...
3232
3333 3434
Coef. de correlación de Pearson
Correlations
1,000 ,649*
, ,016
13 13
,649* 1,000
,016 ,
13 13
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
GEMELO1
GEMELO2
GEMELO1 GEMELO2
Correlation is significant at the 0.05 level (2-tailed).*.
Se interpreta en términos de variabilidad explicada
3535
Coef. de correlación de Spearman
Al igual que el coef. de correlación de Pearson se interpreta en términos de variabilidad explicada. La diferencia es que el coef. de Spearman se calcula con rangos.
GEMELO1 GEMELO2GEMELO1 Correlation Coefficient 1.000 0.514
Sig. (2-tailed) , 0.072N 13 13
GEMELO2 Correlation Coefficient 0.514 1.000Sig. (2-tailed) 0.072 ,N 13 13
3636
Kendall tau
Es similar a Spearman en términos. Sin embargo son muy diferentes en cuanto a la magnitud puesto que los cálculos son muy diferentes (Spearman: rangos; Kendall: signos).
Se interpreta como la diferencia entre la probabilidad que en los datos observados las dos variables estén en el mismo orden versus la probabilidad que las dos variablesestén en diferente orden.
GEMELO1 GEMELO2GEMELO1 Correlation Coefficient 1,000 0,348
Sig. (2-tailed) , 0,099N 13 13
GEMELO2 Correlation Coefficient 0,348 1,000Sig. (2-tailed) 0,099 ,N 13 13
INDEPENDIENTES
3838
Métodos• U de Mann Whitney
- Independencia observaciones
- Distribución de Probabilidad contínuaEste test fue
desarrollado en 1945 por Wilcoxon y después ampliado por Mann y Whitney en 1947. De ahíque en algunos libros se denomine test de
Wilcoxon y en otros la prueba U de Mann-
Whitney.
3939
Características
El test U de Mann-Whitney, también denominado test de Wilconxon-Mann-Whitney, o test de la suma de rangos de Wilcoxon, evalúa los rangos de las puntuaciones combinadas de dos grupos independientes.
Es el test no paramétrico con más potencia estadística.
4040
Que en términos de eficiencia...
Siendo n el tamaño muestral necesario para conseguirUna determinada potencia del test.
oParamétricNo
oParamétricn N
NE
_
Para el caso de la U de Mann-Whitney E=95, es decir, si para el test paramétrico se necesita n=100, para el homólogo no paramétrico
es suficiente con 95
4141
¿Pero qué supone el Test?
• Supone que la forma de las muestras a comparar son la misma, sin tener en cuenta dicha forma
4242
¿Cómo trabaja?
• Este test examina la siguiente hipótesis nula:- “La probabilidad de que una observación obtenida
al azar de la primera población supere una observación aleatoria de la segunda población es igual a 1/2”.
• El test es sensible a diferencias de medianas• Poco sensible a diferencias de asimetría• Insensible a diferencias de varianzas• Resistente a los “outliers”
4343
Ejemplo
4444
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
4545
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
4646
4747 4848
4949
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
5050
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
p < 0.05p 0.05
5151
K-S de 1 muestra / Normal
H0: NORMALIDAD H1: NO NORMALIDAD
Prueba de Kolmogorov-Smirnov para una muestra
23
89.57
3.47
.115
.075
-.115
.552
.921
27
80.22
5.37
.179
.179
-.105
.931
.352
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
N
Media
Desviación típica
Parámetros normales a,b
Absoluta
Positiva
Negativa
Diferencias másextremas
Z de Kolmogorov-Smirnov
Sig. asintót. (bilateral)
SEXOhombre
mujer
PESOINICIAL
(kg)
La distribución de contraste es la Normal.a.
Se han calculado a partir de los datos.b.
p < 0.05p 0.05
5252
5353
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
5454
5555 5656
Prueba T para muestras independientes
H0: H1:
5757
Prueba T para muestras independientes
H0: H1:
Estadísticos del grupo
23 89.57 3.47 .72
27 80.22 5.37 1.03
SEXOhombre
mujer
PESO INICIAL (kg)N Media
Desviacióntíp.
Error típ.de lamedia
Prueba de muestras independientes
3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97
7.406 45.009 .000 9.34 1.26 6.80 11.88
Se han asumidovarianzas iguales
No se han asumidovarianzas iguales
PESO INICIAL (kg)F Sig.
Prueba de Levenepara la igualdad de
varianzas
t glSig.
(bilateral)Diferenciade medias
Error típ dela
diferencia Inferior Superior
Intervalo de confianzapara la diferencia
Prueba T para la igualdad de medias
5858
Prueba T para muestras independientes
H0: H1:
H0:
Estadísticos del grupo
23 89.57 3.47 .72
27 80.22 5.37 1.03
SEXOhombre
mujer
PESO INICIAL (kg)N Media
Desviacióntíp.
Error típ.de lamedia
Prueba de muestras independientes
3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97
7.406 45.009 .000 9.34 1.26 6.80 11.88
Se han asumidovarianzas iguales
No se han asumidovarianzas iguales
PESO INICIAL (kg)F Sig.
Prueba de Levenepara la igualdad de
varianzas
t glSig.
(bilateral)Diferenciade medias
Error típ dela
diferencia Inferior Superior
Intervalo de confianzapara la diferencia
Prueba T para la igualdad de medias
p < 0.05p 0.05
5959
Prueba T para muestras independientes
H0: H1:
H0:
Estadísticos del grupo
23 89.57 3.47 .72
27 80.22 5.37 1.03
SEXOhombre
mujer
PESO INICIAL (kg)N Media
Desviacióntíp.
Error típ.de lamedia
Prueba de muestras independientes
3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97
7.406 45.009 .000 9.34 1.26 6.80 11.88
Se han asumidovarianzas iguales
No se han asumidovarianzas iguales
PESO INICIAL (kg)F Sig.
Prueba de Levenepara la igualdad de
varianzas
t glSig.
(bilateral)Diferenciade medias
Error típ dela
diferencia Inferior Superior
Intervalo de confianzapara la diferencia
Prueba T para la igualdad de medias
6060
Prueba T para muestras independientes
H0: H1:
H0:
Estadísticos del grupo
23 89.57 3.47 .72
27 80.22 5.37 1.03
SEXOhombre
mujer
PESO INICIAL (kg)N Media
Desviacióntíp.
Error típ.de lamedia
Prueba de muestras independientes
3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97
7.406 45.009 .000 9.34 1.26 6.80 11.88
Se han asumidovarianzas iguales
No se han asumidovarianzas iguales
PESO INICIAL (kg)F Sig.
Prueba de Levenepara la igualdad de
varianzas
t glSig.
(bilateral)Diferenciade medias
Error típ dela
diferencia Inferior Superior
Intervalo de confianzapara la diferencia
Prueba T para la igualdad de medias
p < 0.05p 0.05
6161
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
6262
6363 6464
Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney
H0: U= N1*N2
H1: UN1*N2
6565
Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney
Rangos
23 36.65 843.00
27 16.00 432.00
50
SEXOhombre
mujer
Total
PESO INICIAL (kg)N
Rangopromedio
Suma derangos
Estadísticos de contrastea
54.000
432.000
-5.003
.000
U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintót. (bilateral)
PESOINICIAL
(kg)
Variable de agrupación: SEXOa.
H0: U= N1*N2
H1: U N1*N22
23*272
= = 310.5 310.5
6666
Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney
Rangos
23 36.65 843.00
27 16.00 432.00
50
SEXOhombre
mujer
Total
PESO INICIAL (kg)N
Rangopromedio
Suma derangos
Estadísticos de contrastea
54.000
432.000
-5.003
.000
U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintót. (bilateral)
PESOINICIAL
(kg)
Variable de agrupación: SEXOa.
H0: U= N1*N2
H1: U N1*N22
23*272
= = 310.5 310.5
p < 0.05p 0.05
6767
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
6868
6969
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
7070
7171 7272
Prueba T para muestras relacionadas
H0:d H1:d
7373
Prueba T para muestras relacionadas
H0:d H1:d
Estadísticos de muestras relacionadas
84.52 50 6.54 .93
79.68 50 7.38 1.04
PESO INICIAL (kg)
PESO FINAL (kg)
Par1
Media NDesviación
típ.
Error típ.de lamedia
Correlaciones de muestras relacionadas
50 .571 .000PESO INICIAL (kg) yPESO FINAL (kg)
Par 1N Correlación Sig.
Prueba de muestras relacionadas
4.84 6.49 .92 3.00 6.68 5.272 49 .000PESO INICIAL (kg) -PESO FINAL (kg)
Par 1Media
Desviacióntíp.
Error típ.de la
media Inferior Superior
Intervalo de confianzapara la diferencia
Diferencias relacionadas
t glSig.
(bilateral)
7474
Prueba T para muestras relacionadas
H0:d H1:d
Estadísticos de muestras relacionadas
84.52 50 6.54 .93
79.68 50 7.38 1.04
PESO INICIAL (kg)
PESO FINAL (kg)
Par1
Media NDesviación
típ.
Error típ.de lamedia
Correlaciones de muestras relacionadas
50 .571 .000PESO INICIAL (kg) yPESO FINAL (kg)
Par 1N Correlación Sig.
Prueba de muestras relacionadas
4.84 6.49 .92 3.00 6.68 5.272 49 .000PESO INICIAL (kg) -PESO FINAL (kg)
Par 1Media
Desviacióntíp.
Error típ.de la
media Inferior Superior
Intervalo de confianzapara la diferencia
Diferencias relacionadas
t glSig.
(bilateral)
p < 0.05p 0.05
7575
Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal
COMPARACIÓN
DE MEDIAS
Grupos independientes
Grupos apareados
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
V. DIFERENCIA NO NORMAL
Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney
Estadística /Comparar medias /Prueba T para muestras independientes
V. CUANTITATIVA NO NORMALEN ALGUN GRUPO
V. DIFERENCIA NORMAL
Estadística /Comparar medias /Prueba T para muestras relacionadas
7676
7777 7878
Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon
H0: T= n (n+1)
H1: T n (n+1)
7979
Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon
Rangos
38a 27.68 1052.00
11b 15.73 173.00
1c
50
Rangos negativos
Rangos positivos
Empates
Total
PESO FINAL (kg) - PESOINICIAL (kg)
NRango
promedioSuma derangos
PESO FINAL (kg) < PESO INICIAL (kg)a.
PESO FINAL (kg) > PESO INICIAL (kg)b.
PESO INICIAL (kg) = PESO FINAL (kg)c.
Estadísticos de contrasteb
-4.379a
.000
Z
Sig. asintót. (bilateral)
PESOFINAL (kg)
- PESOINICIAL
(kg)
Basado en los rangos positivos.a.
Prueba de los rangos con signo de Wilcoxonb.
H0: T= n (n+1)
H1: T n (n+1)= 49*50
4= 612.5 612.5
8080
Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon
Rangos
38a 27.68 1052.00
11b 15.73 173.00
1c
50
Rangos negativos
Rangos positivos
Empates
Total
PESO FINAL (kg) - PESOINICIAL (kg)
NRango
promedioSuma derangos
PESO FINAL (kg) < PESO INICIAL (kg)a.
PESO FINAL (kg) > PESO INICIAL (kg)b.
PESO INICIAL (kg) = PESO FINAL (kg)c.
Estadísticos de contrasteb
-4.379a
.000
Z
Sig. asintót. (bilateral)
PESOFINAL (kg)
- PESOINICIAL
(kg)
Basado en los rangos positivos.a.
Prueba de los rangos con signo de Wilcoxonb.
H0: T= n (n+1)
H1: T n (n+1)= 49*50
4= 612.5 612.5
p < 0.05p 0.05
8181
Comparación de dos medianas
• Sirve para comprobar si dos muestras aleatorias independientes y cuyos datos se miden por lo menos en una escala ordinal proceden de poblaciones con la misma mediana.
• Es una forma alternativa de testar la hipótesis nula 1=2
• Si ambas muestras proceden de poblaciones con la misma mediana, cabe esperar bajo H0 que la mitad de valores de una muestra y la mitad de la otra han de ser superiores a la mediana de la población.
• ATENCIÓN: sólo un 64% de eficiencia respecto a una T de Student.
8282
Trabajo previoDeterminar la mediana combinada de las observaciones
de las Muestras n1 + n2
Contar cuántas observaciones en cada grupo caen por encima y por debajo de la mediana combinada (Tabla de contingencia 2 x 2)
Realizar un contraste de hipótesis tipo Ji al cuadrado o prueba Exacta de Fisher (según frecuencia esperada)
8383
La tabla en cuestión...
Muestra 1 Muestra 2 Total
A B A+B
C D C+D
A+C B+D N1+N2
Valores superiores a
la mediana
Valores inferiores a
la mediana
8484
...y las consideraciones del tamaño
• Si n1+n2 > 40
• Si 20 < n1+n2 >40
• Si n1+n2 < 20
2 con corrección de Yates
2 con Yates, si no hay freq. Esperadas <5, en tal caso Fisher
• Prueba exacta de Fisher
8585
Trat Control80 9677 7976 7482 8283 6984 7275 9469 7797 7771 9785 7574 6998 9588 7896 7372 8375 7094 .
Un ejemplo
Mediana Tratamiento 81Mediana Control 77
Mediana combinada 78
8686
Los cálculos
Trat Control Total<Me 8 10 18>Me 10 7 17Total 18 17 35
Obtenidas
Trat Control Total<Me 9.257 8.743 18>Me 8.743 8.257 17Total 18 17 35
Esperadas
Estadístico 2= 0.7237 Valor de p= 0.3949
8787
Independientes
8989
Test H de Kruskal-Wallis
El punto de partida del test H de Kruskal Wallis es el mismo que para la U
Se ordenan las n observaciones de las k muestras en una única serie creciente y se les asigna números de rango (desde 1 hasta n)
Sea Ri la suma de rangos de la muestra i-ésima
Si se cumple la hipótesis nula, y para valores de n suficientemente grandes (en la práctica ni 5 y k 4), el estadístico
Que sigue una distribución 2 con k-1 grados de libertad
9090
Aplicación
9191
Interpretación de losprimeros resultados
• Queda claro que las muestras son diferentes pero cuáles son distintas entre sí.
•Se ordenan las sumas de rangos de las k muestras
•de mayor a menor como en las comparaciones paramétricas de Tukey)
•Se empieza comparando la suma de rangos mayor con la menor
•Se divide la diferencia de rangos por el error estándar apropiado par obtener un estadístico de distribución conocida. En esta caso Q.
9292
Solución elegante
• Realización de un ANOVA con rangos– El SAS lo hace previo cambio de los
datos a rangos (Proc Rank)– Permite la interpretación de los
resultados vía la típica tabla de Análisis de la Varianza
Dependientes
9494
Comparación de más de 2 muestras relacionadas. Test de Friedman
Ejemplo:
• Comparación de la eficacia de k=4 muestras de penicilina por el método de la difusión en placas.
• La experiencia se realiza con n=3 placas de agar de 9 cm de diámetro cada una en las que se cultiva B. Subtilis (bacilo de heno).
• En cada una de las placas se deposita una cantidad fija de penicilina y se extiene provocando la inhibición de crecimiento de la B.subtilis. El diámetro de la zona de inhibición es proporcional a la concentración de penicilina. Se pregunta si los diámetros de las zonas de inhibición presentan alguna diferencia.
9595
Comparación de más de 2 muestras relacionadas. Test de Friedman
• Análisis de la variancia de un diseño experimental de bloques con una observación por celda.
Placa nº 1 2 3 41 27 23 26 212 27 23 25 213 25 21 26 20
Disoluciones de penicilina
Placa nº 1 2 3 41 4 2 3 12 4 2 3 13 3 2 4 1
Disoluciones de penicilina
Suma de rangos 11 6 10 39696
Comparación de más de 2 muestras relacionadas. Test de Friedman
• H0: el diámetro de las zonas de inhibición son las mismas en todas las disoluciones de penicilina
b= nº de bloquesa=nº de tratamientos
9797
Comparación de más de 2 muestras relacionadas. Test de Friedman
• El test de Friedman se puede considerar que se aproxima a una distribución ji cuadrado con a-1 grados de libertas
• Se rechaza la hipótesis nula de igualdad de las cuatro soluciones
9898
Resultados iniciales con SPSSEstadísticos descriptivos
3 6.3333 1.1547 25.00 27.00 5.0000 27.0000 7.0000
3 2.3333 1.1547 21.00 23.00 1.0000 23.0000 3.0000
3 5.6667 .5774 25.00 26.00 5.0000 26.0000 6.0000
3 0.6667 .5774 20.00 21.00 0.0000 21.0000 1.0000
Disolució
Disolució
Disolució
Disolució
N MediaDesviación
típica MínimoMáximo 25 0 (Mediana 75
Percentiles
Rangos
3.67
2.00
3.33
1.00
Disolución 1
Disolución 2
Disolución 3
Disolución 4
Rangopromedio
Estadísticos de contrastea
3
8.200
3
.042
.017
.016
N
Chi-cuadrado
gl
Sig. asintót.
Sig. exacta
Probabilidad en el punto
Prueba de Friedmana.
9999
Muestras relacionadas:COCHRAN
Prueba 1 Prueba 2 Prueba 3 Prueba 40 1 0 01 0 1 01 0 1 01 0 0 01 0 0 01 1 1 01 0 0 01 0 0 0
Frecuencias
1 7
6 2
5 3
8 0
P1
P2
P3
P4
0 1
Valor
Estadísticos de contraste
8
12.000a
3
.007
.006
.004
N
Q de Cochran
gl
Sig. asintót.
Sig. exacta
Probabilidad en el punto
0 se trata como un éxito.a.
Variables binarias