familias param. y no-param. - ferran torres – personal and edu...

17
Comparación de variables “continuas” 2 Familias paramétricas : Funciones de distribución caracterizadas por pocos parámetros Familias no paramétricas : Funciones de distribución que no se pueden caracterizar con pocos parámetros Métodos paramétricos : Métodos estadísticos válidos para la familia de las distribuciones normales Métodos no paramétricos : Métodos estadísticos válidos para una familia de distribuciones no paramétricas. También se les llama métodos estadísticos de distribución libre puesto que sus propiedades estadísticas no dependen de la distribución de la población que se estudia Métodos Paramétricos vs No Paramétricos Introducción Familias param. y no-param. 3 Ventajas Desventajas Métodos Paramétricos vs No Paramétricos Introducción Métodos No Paramétricos 4 Requieren pocas asunciones (normalidad) El cálculo manual es más rápido en muestras pequeñas Son a menudo más fáciles de entender Son relativamente insensibles a valores extremos Métodos Paramétricos vs No Paramétricos Introducción Ventajas 5 Son aplicables en muchas situaciones donde los métodos paramétricos no lo son. Muchos métodos no paramétricos precisan sólo los rangos de las observaciones, en vez de la magnitud. Los métodos jacknife y boostrap permiten una aproximación en situaciones muy complicadas. El desarrollo de programas informáticos ha facilitado un rápido cálculo del p-valor en los métodos no paramétricos condicionados. Por eso, en principio, siempre es posible el cálculo exacto del p-valor. Métodos Paramétricos vs No Paramétricos Introducción Ventajas 6 Cuando las variables son normales (en cuyo caso ambos métodos son válidos) son menos eficientes (potentes). En este caso el p-valor excede al obtenido por métodos paramétricos. Así es más difícil encontrar un resultado significativo con una prueba no paramétrica. Aunque la diferencia no es muy grande El cálculo manual con muestras grandes es tedioso y largo Permiten menos refinamientos en el análisis posterior, más detallado, de los datos. Métodos Paramétricos vs No Paramétricos Introducción Desventajas

Upload: ngocong

Post on 04-Nov-2018

238 views

Category:

Documents


0 download

TRANSCRIPT

Comparación de variables “continuas”

22

• Familias paramétricas: Funciones de distribución caracterizadas por pocos parámetros

• Familias no paramétricas: Funciones de distribución que no se pueden caracterizar con pocos parámetros

• Métodos paramétricos: Métodos estadísticos válidos para la familia de las distribuciones normales

• Métodos no paramétricos: Métodos estadísticos válidos para una familia de distribuciones no paramétricas. También se les llama métodos estadísticos de distribución libre puesto que sus propiedades estadísticas no dependen de la distribución de la población que se estudia

Métodos Paramétricos vs No ParamétricosIntroducción

Familias param. y no-param.

33

Ventajas

Desventajas

Métodos Paramétricos vs No ParamétricosIntroducción

Métodos No Paramétricos

44

• Requieren pocas asunciones (normalidad)

• El cálculo manual es más rápido en muestras pequeñas

• Son a menudo más fáciles de entender

• Son relativamente insensibles a valores extremos

Métodos Paramétricos vs No ParamétricosIntroducción

Ventajas

55

• Son aplicables en muchas situaciones donde los métodos paramétricosno lo son. Muchos métodos no paramétricos precisan sólo los rangos de las observaciones, en vez de la magnitud.

• Los métodos jacknife y boostrap permiten una aproximación en situaciones muy complicadas.

• El desarrollo de programas informáticos ha facilitado un rápido cálculo del p-valor en los métodos no paramétricos condicionados. Por eso, en principio, siempre es posible el cálculo exacto del p-valor.

Métodos Paramétricos vs No ParamétricosIntroducción

Ventajas

66

• Cuando las variables son normales (en cuyo caso ambos métodos son válidos) son menos eficientes (potentes).– En este caso el p-valor excede al obtenido por métodos

paramétricos. Así es más difícil encontrar un resultado significativo con una prueba no paramétrica. Aunque la diferencia no es muy grande

• El cálculo manual con muestras grandes es tedioso y largo

• Permiten menos refinamientos en el análisis posterior, más detallado, de los datos.

Métodos Paramétricos vs No ParamétricosIntroducción

Desventajas

77

• Un factor que limita la aplicabilidad de los métodos paramétricos es el tamaño de la muestra disponible para el análisis.

• Podemos asumir que la distribución de la muestra es normal aunque no estemos seguros si la variable en la población es normal, siempre que nuestra muestra sea suficientemente grande (p.e. 30 o 100 observaciones o más).

• Si nuestra muestra es pequeña, entonces estos métodos pueden ser usados solamente si estamos seguros de que la variable se distribuye normalmente y no hay manera de comprobar esta asunción si la muestra es pequeña.

Métodos Paramétricos vs No ParamétricosIntroducción

Tamaño de la muestra

88

• Las pruebas no paramétricas usan el orden de los datos para su análisis

• Rango: El orden de cada uno de los datos

• Puntuación (“score”): Se transforma el rango en una puntuación para realizar la prueba estadística

• Los empates pueden tratarse de diferente manera

Métodos Paramétricos vs No ParamétricosIntroducción

Rangos Puntuaciones

99

• Ejemplo

Métodos Paramétricos vs No ParamétricosIntroducción

Rangos Puntuaciones

Datos Wilcoxon Median VW Savage Siegel-Tukey Ansari-Bradley Klotz Mood1 1 0 -1,33518 -0,90000 1 1 1,78271 20,252 2 0 -0,90846 -0,78889 4 2 0,82530 12,253 3,5 0 -0,47667 -0,59246 6,5 3,5 0,22721 43 3,5 0 -0,47667 -0,59246 6,5 3,5 0,22721 44 5 0 -0,11419 -0,35437 10 5 0,01304 0,255 6,5 1 0,23147 -0,02937 8,5 4,5 0,05358 15 6,5 1 0,23147 -0,02937 8,5 4,5 0,05358 16 8 1 0,60459 0,42897 5 3 0,36553 6,257 9 1 0,90846 0,92897 3 2 0,82530 12,258 10 1 1,33518 1,92897 2 1 1,78271 20,25

1010

Métodos Paramétricos vs No ParamétricosIntroducción

Comprobación Normalidad• Prueba de Kolmogorov-Smirnov

– SAS también realiza los estadísticos de Anderson-Darling y Cramer-von Mises

– Se basan en las diferencias entre la distribución observada y la esperada

• Estadístico de Shapiro-Wilks– El SPSS versión 8 lo calcula para muestras 50 observaciones

– El SAS lo calcula para muestras 2000 observaciones

1111

Métodos Paramétricos vs No ParamétricosIntroducción

Comprobación Normalidad• Hay que tener en cuenta que la capacidad de una prueba de

rechazar la hipótesis nula (potencia) aumenta con el tamaño de la muestra

– Con tamaños de muestra grandes se pueden detectar desviaciones pequeñas de la normalidad

– Puesto que pequeñas desviaciones no afectan gravemente a la validez de las pruebas estadísticas es importante examinar otras pruebas y los gráficos

1212

Métodos Paramétricos vs No ParamétricosIntroducción

Preguntas comunes

• Si las pruebas no paramétricas con válidas para los datos con o sin distribución normal, ¿porqué no usarlos siempre?

1313

Métodos Paramétricos vs No ParamétricosIntroducción

Preguntas comunes– Se prefieren las pruebas paramétricas porque:

• Raramente estamos interesados sólo en la significación estadística; muchas veces queremos conocer aspectos de la población original, y esto se consigue con estimadores e intervalos de confianza

• Es difícil hacer un modelo flexible con las pruebas no paramétricas, por ejemplo para factores de confusión en regresión múltiple

1414

Métodos Paramétricos vs No ParamétricosIntroducción

Preguntas comunes

• ¿Las pruebas no paramétricascomparan medianas?

1515

Métodos Paramétricos vs No ParamétricosIntroducción

Preguntas comunes

– Es una creencia común que la prueba de Mann-Whitney es, de hecho, una prueba para diferencias entre medianas.• Sin embargo, dos grupos podrían tener la misma

mediana y tener una prueba significativa.• Considerar los siguientes datos de dos grupos

con 100 observaciones.– Grupo 1: 98 (0), 1, 2.– Grupo 2: 51 (0), 1, 48 (2).– La mediana en ambos casos es 0.– Prueba de Mann-Whitney: p<0.0001

1616

Métodos Paramétricos vs No ParamétricosIntroducción

Elección de la pruebaDatos independientes

P.e. ensayo clínico: Var.de entrada=Tipo de tratamiento (nominal). Var.resultado=Colesterol (cuant.normal). t-StudentP.e. Var.de entrada=Puntuación clínica (cuantitativa). Var.resultado=Curación (nominal). Regresión logística

(1) Si los datos son censurados(2) Hay muchas técnicas avanzadas. Sin embargo, requieren ciertas asunciones y a menudo es más fácil dicotomizar la variable

resultado o tratarla como continua

Variable ResultadoNominal Categórica

(>2 categorías)Ordinal Cuantitativa

DiscretaCuantitativaNo-Normal

CuantitativaNormal

Nominal 2 o Fisher 2 2-tendenciao Mann-W.

Mann-Whitney

Mann-Whitneyo log-rank (1)

t-Student

Categórica(>2 cat.)

2 2 Kruskal-Wallis

Kruskal-Wallis

Kruskal-Wallis Análisis de lavarianza

Ordinal 2-tendencia oMann-Whitney

(2) Spearman Spearman Spearman Spearman oregresión lineal

CuantitativaDiscreta

RegresiónLogística

(2) (2) Spearman Spearman Spearman oregresión lineal

CuantitativaNo-Normal

RegresiónLogística

(2) (2) (2) Gráfico datosy Pearson oSpearman

Gráfico datos yPearson oSpearman yregresión lineal

VariableInicial

CuantitativaNormal

RegresiónLogística

(2) (2) (2) Regresiónlineal

Pearson yregresión lineal

1717

Métodos Paramétricos vs No ParamétricosIntroducción

Elección de la prueba

Datos apareados

Variable PruebaNominal McNemarOrdinal (Categorías ordenadas) WilcoxonCuantitativa (Discreta o No-Normal) WilcoxonCuantitativa (Normal) t-test para datos apareados

Estimación y análisis

1919

Supón que todos los datos numéricos de tu muestra son cuantitativos y procede en consecuencia. Puede que el ordenador te calcule la media de la situación civil

No compruebes si tus datos siguen una ley normal. Las pruebas no paramétricas no son tan divertidas.

RESULTADOSSituación civil 3,4

Sexo 2,3Conduce 1,3

2020

2121 2222

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

2323

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

p < 0.05p 0.05

2424

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

p < 0.05p 0.05

2525

(A) (B)

(C) (D)

Pueden haber muchas formas...

2626

...y NO hay normalidad

• Transformar la variable

0 1 2 3 4 5

05

01

001

50

x

0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6

020

406

08

0

x^0.25

x

x^0,25

¿Raíz cuarta de ‘algo’?

2727

No pasa nada, hay otras técnicas

• Técnicas basadas en –Rangos–Puntuaciones–Signos

2828

¿Son independientes las variables?

2929

Métodos

• Métodos paramétricos– Coef. de correlación de Pearson

• Métodos no paramétricos– Coef. de correlación de Spearman– Kendall tau

3030

Clark y cols. realizaron diferentes pruebas psicológicas en gemelos bicigóticos (p.e. no idénticos) para comprobar si había relación entre entre ellas.

2301281318714912

114161112312321097114918822981842327221213614610851441394137157311816922562771

Gemelo 2Gemelo 1Pareja

Ejemplo de los gemelos

3131

50

100

150

200

250

300

50 100 150 200 250 300

Si lo graficamos...

3232

3333 3434

Coef. de correlación de Pearson

Correlations

1,000 ,649*

, ,016

13 13

,649* 1,000

,016 ,

13 13

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

GEMELO1

GEMELO2

GEMELO1 GEMELO2

Correlation is significant at the 0.05 level (2-tailed).*.

Se interpreta en términos de variabilidad explicada

3535

Coef. de correlación de Spearman

Al igual que el coef. de correlación de Pearson se interpreta en términos de variabilidad explicada. La diferencia es que el coef. de Spearman se calcula con rangos.

GEMELO1 GEMELO2GEMELO1 Correlation Coefficient 1.000 0.514

Sig. (2-tailed) , 0.072N 13 13

GEMELO2 Correlation Coefficient 0.514 1.000Sig. (2-tailed) 0.072 ,N 13 13

3636

Kendall tau

Es similar a Spearman en términos. Sin embargo son muy diferentes en cuanto a la magnitud puesto que los cálculos son muy diferentes (Spearman: rangos; Kendall: signos).

Se interpreta como la diferencia entre la probabilidad que en los datos observados las dos variables estén en el mismo orden versus la probabilidad que las dos variablesestén en diferente orden.

GEMELO1 GEMELO2GEMELO1 Correlation Coefficient 1,000 0,348

Sig. (2-tailed) , 0,099N 13 13

GEMELO2 Correlation Coefficient 0,348 1,000Sig. (2-tailed) 0,099 ,N 13 13

INDEPENDIENTES

3838

Métodos• U de Mann Whitney

- Independencia observaciones

- Distribución de Probabilidad contínuaEste test fue

desarrollado en 1945 por Wilcoxon y después ampliado por Mann y Whitney en 1947. De ahíque en algunos libros se denomine test de

Wilcoxon y en otros la prueba U de Mann-

Whitney.

3939

Características

El test U de Mann-Whitney, también denominado test de Wilconxon-Mann-Whitney, o test de la suma de rangos de Wilcoxon, evalúa los rangos de las puntuaciones combinadas de dos grupos independientes.

Es el test no paramétrico con más potencia estadística.

4040

Que en términos de eficiencia...

Siendo n el tamaño muestral necesario para conseguirUna determinada potencia del test.

oParamétricNo

oParamétricn N

NE

_

Para el caso de la U de Mann-Whitney E=95, es decir, si para el test paramétrico se necesita n=100, para el homólogo no paramétrico

es suficiente con 95

4141

¿Pero qué supone el Test?

• Supone que la forma de las muestras a comparar son la misma, sin tener en cuenta dicha forma

4242

¿Cómo trabaja?

• Este test examina la siguiente hipótesis nula:- “La probabilidad de que una observación obtenida

al azar de la primera población supere una observación aleatoria de la segunda población es igual a 1/2”.

• El test es sensible a diferencias de medianas• Poco sensible a diferencias de asimetría• Insensible a diferencias de varianzas• Resistente a los “outliers”

4343

Ejemplo

4444

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

4545

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

4646

4747 4848

4949

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

5050

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

p < 0.05p 0.05

5151

K-S de 1 muestra / Normal

H0: NORMALIDAD H1: NO NORMALIDAD

Prueba de Kolmogorov-Smirnov para una muestra

23

89.57

3.47

.115

.075

-.115

.552

.921

27

80.22

5.37

.179

.179

-.105

.931

.352

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

N

Media

Desviación típica

Parámetros normales a,b

Absoluta

Positiva

Negativa

Diferencias másextremas

Z de Kolmogorov-Smirnov

Sig. asintót. (bilateral)

SEXOhombre

mujer

PESOINICIAL

(kg)

La distribución de contraste es la Normal.a.

Se han calculado a partir de los datos.b.

p < 0.05p 0.05

5252

5353

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

5454

5555 5656

Prueba T para muestras independientes

H0: H1:

5757

Prueba T para muestras independientes

H0: H1:

Estadísticos del grupo

23 89.57 3.47 .72

27 80.22 5.37 1.03

SEXOhombre

mujer

PESO INICIAL (kg)N Media

Desviacióntíp.

Error típ.de lamedia

Prueba de muestras independientes

3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97

7.406 45.009 .000 9.34 1.26 6.80 11.88

Se han asumidovarianzas iguales

No se han asumidovarianzas iguales

PESO INICIAL (kg)F Sig.

Prueba de Levenepara la igualdad de

varianzas

t glSig.

(bilateral)Diferenciade medias

Error típ dela

diferencia Inferior Superior

Intervalo de confianzapara la diferencia

Prueba T para la igualdad de medias

5858

Prueba T para muestras independientes

H0: H1:

H0:

Estadísticos del grupo

23 89.57 3.47 .72

27 80.22 5.37 1.03

SEXOhombre

mujer

PESO INICIAL (kg)N Media

Desviacióntíp.

Error típ.de lamedia

Prueba de muestras independientes

3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97

7.406 45.009 .000 9.34 1.26 6.80 11.88

Se han asumidovarianzas iguales

No se han asumidovarianzas iguales

PESO INICIAL (kg)F Sig.

Prueba de Levenepara la igualdad de

varianzas

t glSig.

(bilateral)Diferenciade medias

Error típ dela

diferencia Inferior Superior

Intervalo de confianzapara la diferencia

Prueba T para la igualdad de medias

p < 0.05p 0.05

5959

Prueba T para muestras independientes

H0: H1:

H0:

Estadísticos del grupo

23 89.57 3.47 .72

27 80.22 5.37 1.03

SEXOhombre

mujer

PESO INICIAL (kg)N Media

Desviacióntíp.

Error típ.de lamedia

Prueba de muestras independientes

3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97

7.406 45.009 .000 9.34 1.26 6.80 11.88

Se han asumidovarianzas iguales

No se han asumidovarianzas iguales

PESO INICIAL (kg)F Sig.

Prueba de Levenepara la igualdad de

varianzas

t glSig.

(bilateral)Diferenciade medias

Error típ dela

diferencia Inferior Superior

Intervalo de confianzapara la diferencia

Prueba T para la igualdad de medias

6060

Prueba T para muestras independientes

H0: H1:

H0:

Estadísticos del grupo

23 89.57 3.47 .72

27 80.22 5.37 1.03

SEXOhombre

mujer

PESO INICIAL (kg)N Media

Desviacióntíp.

Error típ.de lamedia

Prueba de muestras independientes

3.896 .054 7.163 48 .000 9.34 1.30 6.72 11.97

7.406 45.009 .000 9.34 1.26 6.80 11.88

Se han asumidovarianzas iguales

No se han asumidovarianzas iguales

PESO INICIAL (kg)F Sig.

Prueba de Levenepara la igualdad de

varianzas

t glSig.

(bilateral)Diferenciade medias

Error típ dela

diferencia Inferior Superior

Intervalo de confianzapara la diferencia

Prueba T para la igualdad de medias

p < 0.05p 0.05

6161

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

6262

6363 6464

Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney

H0: U= N1*N2

H1: UN1*N2

6565

Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney

Rangos

23 36.65 843.00

27 16.00 432.00

50

SEXOhombre

mujer

Total

PESO INICIAL (kg)N

Rangopromedio

Suma derangos

Estadísticos de contrastea

54.000

432.000

-5.003

.000

U de Mann-Whitney

W de Wilcoxon

Z

Sig. asintót. (bilateral)

PESOINICIAL

(kg)

Variable de agrupación: SEXOa.

H0: U= N1*N2

H1: U N1*N22

23*272

= = 310.5 310.5

6666

Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney

Rangos

23 36.65 843.00

27 16.00 432.00

50

SEXOhombre

mujer

Total

PESO INICIAL (kg)N

Rangopromedio

Suma derangos

Estadísticos de contrastea

54.000

432.000

-5.003

.000

U de Mann-Whitney

W de Wilcoxon

Z

Sig. asintót. (bilateral)

PESOINICIAL

(kg)

Variable de agrupación: SEXOa.

H0: U= N1*N2

H1: U N1*N22

23*272

= = 310.5 310.5

p < 0.05p 0.05

6767

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

6868

6969

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

7070

7171 7272

Prueba T para muestras relacionadas

H0:d H1:d

7373

Prueba T para muestras relacionadas

H0:d H1:d

Estadísticos de muestras relacionadas

84.52 50 6.54 .93

79.68 50 7.38 1.04

PESO INICIAL (kg)

PESO FINAL (kg)

Par1

Media NDesviación

típ.

Error típ.de lamedia

Correlaciones de muestras relacionadas

50 .571 .000PESO INICIAL (kg) yPESO FINAL (kg)

Par 1N Correlación Sig.

Prueba de muestras relacionadas

4.84 6.49 .92 3.00 6.68 5.272 49 .000PESO INICIAL (kg) -PESO FINAL (kg)

Par 1Media

Desviacióntíp.

Error típ.de la

media Inferior Superior

Intervalo de confianzapara la diferencia

Diferencias relacionadas

t glSig.

(bilateral)

7474

Prueba T para muestras relacionadas

H0:d H1:d

Estadísticos de muestras relacionadas

84.52 50 6.54 .93

79.68 50 7.38 1.04

PESO INICIAL (kg)

PESO FINAL (kg)

Par1

Media NDesviación

típ.

Error típ.de lamedia

Correlaciones de muestras relacionadas

50 .571 .000PESO INICIAL (kg) yPESO FINAL (kg)

Par 1N Correlación Sig.

Prueba de muestras relacionadas

4.84 6.49 .92 3.00 6.68 5.272 49 .000PESO INICIAL (kg) -PESO FINAL (kg)

Par 1Media

Desviacióntíp.

Error típ.de la

media Inferior Superior

Intervalo de confianzapara la diferencia

Diferencias relacionadas

t glSig.

(bilateral)

p < 0.05p 0.05

7575

Estadística /Pruebas no paramétricas /2 muestras relacionadas /Wilcoxon

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

NORMALIDAD? Estadísticos / Pruebas no paramétricas /K-S de 1 muestra / Normal

COMPARACIÓN

DE MEDIAS

Grupos independientes

Grupos apareados

V. CUANTITATIVA NORMALEN AMBOS GRUPOS

V. DIFERENCIA NO NORMAL

Estadística /Pruebas no paramétricas /2 muestras independientes /U de Mann-Whitney

Estadística /Comparar medias /Prueba T para muestras independientes

V. CUANTITATIVA NO NORMALEN ALGUN GRUPO

V. DIFERENCIA NORMAL

Estadística /Comparar medias /Prueba T para muestras relacionadas

7676

7777 7878

Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon

H0: T= n (n+1)

H1: T n (n+1)

7979

Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon

Rangos

38a 27.68 1052.00

11b 15.73 173.00

1c

50

Rangos negativos

Rangos positivos

Empates

Total

PESO FINAL (kg) - PESOINICIAL (kg)

NRango

promedioSuma derangos

PESO FINAL (kg) < PESO INICIAL (kg)a.

PESO FINAL (kg) > PESO INICIAL (kg)b.

PESO INICIAL (kg) = PESO FINAL (kg)c.

Estadísticos de contrasteb

-4.379a

.000

Z

Sig. asintót. (bilateral)

PESOFINAL (kg)

- PESOINICIAL

(kg)

Basado en los rangos positivos.a.

Prueba de los rangos con signo de Wilcoxonb.

H0: T= n (n+1)

H1: T n (n+1)= 49*50

4= 612.5 612.5

8080

Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon

Rangos

38a 27.68 1052.00

11b 15.73 173.00

1c

50

Rangos negativos

Rangos positivos

Empates

Total

PESO FINAL (kg) - PESOINICIAL (kg)

NRango

promedioSuma derangos

PESO FINAL (kg) < PESO INICIAL (kg)a.

PESO FINAL (kg) > PESO INICIAL (kg)b.

PESO INICIAL (kg) = PESO FINAL (kg)c.

Estadísticos de contrasteb

-4.379a

.000

Z

Sig. asintót. (bilateral)

PESOFINAL (kg)

- PESOINICIAL

(kg)

Basado en los rangos positivos.a.

Prueba de los rangos con signo de Wilcoxonb.

H0: T= n (n+1)

H1: T n (n+1)= 49*50

4= 612.5 612.5

p < 0.05p 0.05

8181

Comparación de dos medianas

• Sirve para comprobar si dos muestras aleatorias independientes y cuyos datos se miden por lo menos en una escala ordinal proceden de poblaciones con la misma mediana.

• Es una forma alternativa de testar la hipótesis nula 1=2

• Si ambas muestras proceden de poblaciones con la misma mediana, cabe esperar bajo H0 que la mitad de valores de una muestra y la mitad de la otra han de ser superiores a la mediana de la población.

• ATENCIÓN: sólo un 64% de eficiencia respecto a una T de Student.

8282

Trabajo previoDeterminar la mediana combinada de las observaciones

de las Muestras n1 + n2

Contar cuántas observaciones en cada grupo caen por encima y por debajo de la mediana combinada (Tabla de contingencia 2 x 2)

Realizar un contraste de hipótesis tipo Ji al cuadrado o prueba Exacta de Fisher (según frecuencia esperada)

8383

La tabla en cuestión...

Muestra 1 Muestra 2 Total

A B A+B

C D C+D

A+C B+D N1+N2

Valores superiores a

la mediana

Valores inferiores a

la mediana

8484

...y las consideraciones del tamaño

• Si n1+n2 > 40

• Si 20 < n1+n2 >40

• Si n1+n2 < 20

2 con corrección de Yates

2 con Yates, si no hay freq. Esperadas <5, en tal caso Fisher

• Prueba exacta de Fisher

8585

Trat Control80 9677 7976 7482 8283 6984 7275 9469 7797 7771 9785 7574 6998 9588 7896 7372 8375 7094 .

Un ejemplo

Mediana Tratamiento 81Mediana Control 77

Mediana combinada 78

8686

Los cálculos

Trat Control Total<Me 8 10 18>Me 10 7 17Total 18 17 35

Obtenidas

Trat Control Total<Me 9.257 8.743 18>Me 8.743 8.257 17Total 18 17 35

Esperadas

Estadístico 2= 0.7237 Valor de p= 0.3949

8787

Independientes

8989

Test H de Kruskal-Wallis

El punto de partida del test H de Kruskal Wallis es el mismo que para la U

Se ordenan las n observaciones de las k muestras en una única serie creciente y se les asigna números de rango (desde 1 hasta n)

Sea Ri la suma de rangos de la muestra i-ésima

Si se cumple la hipótesis nula, y para valores de n suficientemente grandes (en la práctica ni 5 y k 4), el estadístico

Que sigue una distribución 2 con k-1 grados de libertad

9090

Aplicación

9191

Interpretación de losprimeros resultados

• Queda claro que las muestras son diferentes pero cuáles son distintas entre sí.

•Se ordenan las sumas de rangos de las k muestras

•de mayor a menor como en las comparaciones paramétricas de Tukey)

•Se empieza comparando la suma de rangos mayor con la menor

•Se divide la diferencia de rangos por el error estándar apropiado par obtener un estadístico de distribución conocida. En esta caso Q.

9292

Solución elegante

• Realización de un ANOVA con rangos– El SAS lo hace previo cambio de los

datos a rangos (Proc Rank)– Permite la interpretación de los

resultados vía la típica tabla de Análisis de la Varianza

Dependientes

9494

Comparación de más de 2 muestras relacionadas. Test de Friedman

Ejemplo:

• Comparación de la eficacia de k=4 muestras de penicilina por el método de la difusión en placas.

• La experiencia se realiza con n=3 placas de agar de 9 cm de diámetro cada una en las que se cultiva B. Subtilis (bacilo de heno).

• En cada una de las placas se deposita una cantidad fija de penicilina y se extiene provocando la inhibición de crecimiento de la B.subtilis. El diámetro de la zona de inhibición es proporcional a la concentración de penicilina. Se pregunta si los diámetros de las zonas de inhibición presentan alguna diferencia.

9595

Comparación de más de 2 muestras relacionadas. Test de Friedman

• Análisis de la variancia de un diseño experimental de bloques con una observación por celda.

Placa nº 1 2 3 41 27 23 26 212 27 23 25 213 25 21 26 20

Disoluciones de penicilina

Placa nº 1 2 3 41 4 2 3 12 4 2 3 13 3 2 4 1

Disoluciones de penicilina

Suma de rangos 11 6 10 39696

Comparación de más de 2 muestras relacionadas. Test de Friedman

• H0: el diámetro de las zonas de inhibición son las mismas en todas las disoluciones de penicilina

b= nº de bloquesa=nº de tratamientos

9797

Comparación de más de 2 muestras relacionadas. Test de Friedman

• El test de Friedman se puede considerar que se aproxima a una distribución ji cuadrado con a-1 grados de libertas

• Se rechaza la hipótesis nula de igualdad de las cuatro soluciones

9898

Resultados iniciales con SPSSEstadísticos descriptivos

3 6.3333 1.1547 25.00 27.00 5.0000 27.0000 7.0000

3 2.3333 1.1547 21.00 23.00 1.0000 23.0000 3.0000

3 5.6667 .5774 25.00 26.00 5.0000 26.0000 6.0000

3 0.6667 .5774 20.00 21.00 0.0000 21.0000 1.0000

Disolució

Disolució

Disolució

Disolució

N MediaDesviación

típica MínimoMáximo 25 0 (Mediana 75

Percentiles

Rangos

3.67

2.00

3.33

1.00

Disolución 1

Disolución 2

Disolución 3

Disolución 4

Rangopromedio

Estadísticos de contrastea

3

8.200

3

.042

.017

.016

N

Chi-cuadrado

gl

Sig. asintót.

Sig. exacta

Probabilidad en el punto

Prueba de Friedmana.

9999

Muestras relacionadas:COCHRAN

Prueba 1 Prueba 2 Prueba 3 Prueba 40 1 0 01 0 1 01 0 1 01 0 0 01 0 0 01 1 1 01 0 0 01 0 0 0

Frecuencias

1 7

6 2

5 3

8 0

P1

P2

P3

P4

0 1

Valor

Estadísticos de contraste

8

12.000a

3

.007

.006

.004

N

Q de Cochran

gl

Sig. asintót.

Sig. exacta

Probabilidad en el punto

0 se trata como un éxito.a.

Variables binarias