pruebas estadísticas en medicina

Post on 19-Mar-2017

64 Views

Category:

Data & Analytics

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Test estadísticos

Curso de metodología de la investigación

Dr Juan Carlos López Robledillo

Mèdico especialista en Reumatologìa Doctor en Medicina Diplomado superior de Metodologia de Investigacion Clìnica Experto universitario en estadistica de la salud

● Describir ● Realizar inferencias ● Predecir ● Obtener evidencias

A) Atendiendo a la escala de medida ●  Cuantitativas

o Discretas: número finito de valores o Continuas: número infinito de valores

●  Cualitativas (atributos o factores) o Nominales: clasificación sin graduación o Ordinales: clasificación con orden o graduación implícita

B) Según la manipulación del investigador ●  Dependientes: se miden o registran sin manipulación ●  Independientes: permiten manipulación

●  Nominal o clasificatoria :

Escala cualitativa de clasificación de personas, objetos o características sin graduación implícita

●  Ordinal o de rango:

Escala cualitativa de clasificación que lleva implicita un orden o graduación

●  De intervalo

Escala cuantitativa con un punto 0 arbitrario

●  De proporción Escala cuantitativa con un valor 0 real

Variables discretas ● Binonial ● Poisson

Variables continuas ● Gaussiana (normal)

¿ Distribución normal ?

Edad de los niños que acuden a urgencias del HNJ con neumonía

Edad de los niños que acuden a urgencias del HNJ con neumonía

Variables continuas

Valorar normalidad de las variables de estudio

Realizar transformación que normalize la variable

Utilizar estadística no paramétrica

● Estadística descriptiva o Medidas de tendencia central: media, mediana, moda

o Medidas de dispersión: varianza, desviación típica, rango

Población externa

Población diana (target)

Población muestreada (actual)

Muestra (study pop)

Inferencia estadística

Validez interna

Validez externa

● Estadística inferencial o Contraste de hipótesis (significación estadística) o Intervalos de confianza (significación y precisión)

P<0,05

Procedimiento estadístico mediante el cual se llega a aceptar o rechazar una hipótesis. 1.  Planteamiento de hipótesis. •  Hipótesis nula •  hipótesis alternativa 2. Elección de una prueba de significación estadística •  Normal •  T de Student •  Chi cuadrado etc 3. Rechazo o aceptación de las hipótesis iniciales

1. Planteamiento de las hipótesis a contrastar: ● Hipótesis nula Ho:

Es la hipótesis que se quiere contrastar y por lo tanto se rechazará o no se rechazará.

● Hipótesis alternativa H1:

Es la hipótesis contraria o alternativa y se aceptará si se rechaza la hipótesis nula

2. Elección de la prueba de significación estadística ● Tipo de variables.

● Existencia o no de apareamiento

● Condiciones de aplicación de cada prueba:

o pruebas paramétricas

o pruebas no paramétricas

Prueba de significación: Estadístico del contraste Variable de distribución conocida en cuyos valores nos basamos para rechazar o no la hipótesis nula. ● “Z” Distribución normal estandarizada ● “t” de Student ● “Chi-cuadrado” ● “F” de Snedecor

⏐ Oi-Ei ⏐ 2

Ei χ2 = ∑

Con (f-1) . (c-1) gdl

3. Rechazo o aceptación de las hipótesis ● p < 0,05 Rechazar hipótesis nula

- Existen diferencias significativas - Se acepta la hipótesis alternativa ● p >0,05 No rechazar hipótesis nula

- No encontrar diferencias no significa que no las haya - No equivale a “aceptar” la hipótesis nula - No equivale a rechazar la hipótesis alternativa

Error de tipo I (alfa): rechazar Ho siendo cierta (encontrar diferencias significativas cuando no las hay) Error de tipo II (beta): aceptar Ho siendo falsa (no encontrar diferencias significativas cuando las hay) Nivel de significación del test (1-alfa): no rechazar Ho siendo cierta probabilidad de no encontrar diferencias cuando no las hay Potencia del contraste (1-beta): probabilidad de rechazar Ho siendo falsa (encontrar diferencias significativas cuando las hay)

● Probabilidad de rechazar la hipótesis nula (ausencia de efecto o asociación) cuando es cierta.

● Probabilidad de encontrar diferencias significativas cuando en

realidad no las hay. ● Probabilidad de encontrar un efecto o asociación debido al azar

(cuando en la población no existe) ● “SEGURIDAD” en el efecto o asociación encontrados

● Probabilidad de error que cometemos al aceptar los resultados

observados como válidos (representativos de la población)

Comparación de dos medias muestras independientes

Prueba de la “Z” tamaño de las muestras >30

Prueba “t” de Student-Fisher tamaño de las muestras <30

Prueba “U” de Mann-Whitney

Si no se cumplen condiciones de aplicación

Diferencia de peso = 100 IC 95 % (27,53 ; 172,46)

P = 0.007

Ejemplo Comparación de dos medias (muestras independientes)

Diferencia de peso = 100 IC 95 % (0 ; 207)

P = 0.15

Ejemplo Comparación de dos medias (muestras independientes)

Comparación de dos medias muestras apareadas

Prueba “t” de Student-Fisher para datos apareados.

Prueba de Wilcoxon

Si no se cumplen condiciones de aplicación

VSG antes y después de antibioterapia IV

Ejemplo Comparación de dos medias (muestras apareadas)

Comparación de más de dos medias muestras independientes

Analisis de la varianza (ANOVA de 1 vía o factor)

Prueba de Kruskall- Wallis

Si no se cumplen condiciones de aplicación

P = 0,375

Estancia media según tipo de antibiótico

Ejemplo Comparación de más de dos medias: ANOVA

Ejemplo Comparación de más de dos medias

Comparación de más de dos medias muestras dependientes

Analisis de la varianza (ANOVA de 2 vías o factores)

Prueba de Friedman

Si no se cumplen condiciones de aplicación

Comparación de proporciones muestras independientes

Prueba “Chi cuadrado”. Prueba exacta de Fisher. (frecuencia esperada < 5 % en más del 20 % de las celdillas de la tabla)

Frecuencia en población 51,61 %

Ejemplo: comparación de dos proporciones χ2

62,50 % 31,82 %

● H0: frecuencia observada de caries = frecuencia esperada

● H1: hay diferencias (y por lo tanto asociación)

● Estadístico del contraste: Chi-cuadrado

● Resultado: p= 0,0010 ● Conclusión= rechazamos la H0, y asumimos que hay diferencias

significativas. “Existe asociación entre el lugar de residencia y la caries dental”

Ejemplo:

comparación de dos proporciones χ2

P=0,001

N=80 N=44

Ejemplo:

comparación de dos proporciones χ2

ciudad campo

Comparación de proporciones muestras apareadas

Prueba de Mc Nemar Pruebas de concordancia (prueba de Kappa)

Correlación lineal

Coeficiente de correlación de Pearson “r” Coeficiente de correlación de Spearman

Si no se cumplen condiciones de aplicación

∑  (x-x) (y-y)

∑  √ ∑ (x-x) 2 ∑ (y-y) 2 r = (n-1) gdl

Condiciones de aplicación:

Distribución conjunta de ambas variables normal

Relación lineal

r= 0,875

p=0,004

VSG

PCR

r

r r

r

= 0,9

= 0

= - 0,9

= 0,45

= 0,5 r

x

y

r= -0,3

x

y

= 0,04 r

x

y

r =0,8

x

y

r =0,1

x

y r = - 0,31

Principales pruebas estadísticas

Cualitativa / cualitativa

Cuantitativa / cualitativa

Cualitativa / cualitativa

Correlación

Cuantitativa / cuantitativa

Verdadero valor poblacional

0

100 Nº de muestras

Media muestral

Definición de límites entre los que se espera que esté situado el verdadero valor poblacional con un nivel de confianza fijado (95 %)

µ×

Intervalo confianza

Nivel de confianza (1-α) 90 % 95 % 99 %

Tipo de medida: ● Media ● Proporción ● Diferencia de medias ● Diferencia de proporciones

● Coeficiciente de correlación

● Riesgo relativo ● Odds ratio ● Kappa

Fórmula

m ± (Zα x ES)

media

Muestras grandes (n>30)

X ± Zα x ESM (ESM= s / √n)

Muestras pequeñas (n<30)

X ± tn-1, α x ESM (ESM= s / √n)

proporción

p ± Zα x ESP (ESP= √ p x (1-p) / n) aplicable cuando np y n(1-p) son iguales o superiores a 5

Muestras grandes:

(X2-X1) ± Zα x ESdM

ESdM= √ ES12 + ES22

Muestras pequeñas

(X2-X1) ± t n-2,α x ESdM ESdM= (N1-1) S12 + (N2-1) S22 1 + 1

N1 + N2 - 2 x N1 N2

Diferencia de medias muestras independientes

Muestras grandes:

(X2-X1) ± Zα x ESdM ESdM= ES (X2-X1) Muestras pequeñas

(X2-X1) ± t n-1,α x ESdM

ESdM= ES (X2-X1)

Diferencia de medias muestras apareadas

(p2-p1) ± Zα x ESdP

ESdP= √ (p1 x (1-p1) / n1) + (p2 x (1-p2) / n2)

Diferencia de proporciones muestras independientes

top related