mbe unidad 4. lectura comprensiva estadistica bivarial junio 2014

53
1 UNIDAD 4. ENTENDIENDO ESTADÍSTICAS PARA MEDICINA BASADA EN EVIDENCIAS DE DUDAS TERAPÉUTICAS OBJETIVOS DE APRENDIZAJE Comprender e interpretar indicadores estadísticos en literatura científica para aplicar en la toma de decisiones. ACTIVIDAD DE APRENDIZAJE 1 1. Lea el texto que se presenta a continuación utilizando las técnicas de lectura comprensiva, sistemática y elabore resúmenes o cuadros sinópticos. 2. Identifique los indicadores estadísticos que se adjuntan en los resúmenes y artículos científicos proporcionados por el tutor. 3. Analice los indicadores de efectividad o eficacia de los artículos proporcionados utilizando el gráfico de análisis de dirección y fuerza del efecto y la significación estadística de los mismos. 1. INTRODUCCÓN AL ANÁLISIS DE DATOS La compresión de indicadores estadísticos y la interpretación de los resultados de un artículo científico constituyen un gran reto para el desarrollo de las habilidades de lectura comprensiva y del análisis crítico. Cada tabla o figura debería ser evaluada preguntándose ¿Qué pienso que significa realmente? La discreción es la palabra clave: resultados grandes, excitantes o inesperados son extremadamente raros. En contraste, estudios defectuosos y hallazgos equivocados son mucho más comunes. Los resultados deben ser abordados con cuidado para evaluar su significancia o confiabilidad y para observar posibles peligros en el análisis. Esta unidad presenta las ideas fundamentales para interpretar resultados y evaluar si los resultados fueron adecuadamente procesados y analizados. 2. CONCEPTOS BÁSICOS Variable: Un proceso de la realidad que cambia o varia de sujeto a sujeto. Es una variación a ser medida. Valor: Son los elementos concretos de la variable. Opción: Valor preciso de una variable. Parámetro: Valores de la población. Estimador: Valores de la muestra. Muestra: Parte o subconjunto de la población. Población: Conjunto de unidades relevantes de la población.

Upload: nonizur

Post on 27-Dec-2015

150 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

1

UNIDAD 4. ENTENDIENDO ESTADÍSTICAS PARA MEDICINA BASADA EN EVIDENCIAS DE DUDAS

TERAPÉUTICAS

OBJETIVOS DE APRENDIZAJE Comprender e interpretar indicadores estadísticos en literatura científica para aplicar en la toma de decisiones.

ACTIVIDAD DE APRENDIZAJE 1 1. Lea el texto que se presenta a continuación utilizando las técnicas de lectura comprensiva, sistemática y elabore resúmenes o cuadros sinópticos. 2. Identifique los indicadores estadísticos que se adjuntan en los resúmenes y artículos científicos proporcionados por el tutor. 3. Analice los indicadores de efectividad o eficacia de los artículos proporcionados utilizando el gráfico de análisis de dirección y fuerza del efecto y la significación estadística de los mismos.

1. INTRODUCCÓN AL ANÁLISIS DE DATOS La compresión de indicadores estadísticos y la interpretación de los resultados de un artículo científico constituyen un gran reto para el desarrollo de las habilidades de lectura comprensiva y del análisis crítico. Cada tabla o figura debería ser evaluada preguntándose ¿Qué pienso que significa realmente? La discreción es la palabra clave: resultados grandes, excitantes o inesperados son extremadamente raros. En contraste, estudios defectuosos y hallazgos equivocados son mucho más comunes. Los resultados deben ser abordados con cuidado para evaluar su significancia o confiabilidad y para observar posibles peligros en el análisis. Esta unidad presenta las ideas fundamentales para interpretar resultados y evaluar si los resultados fueron adecuadamente procesados y analizados.

2. CONCEPTOS BÁSICOS Variable: Un proceso de la realidad que cambia o varia de sujeto a sujeto.

Es una variación a ser medida. Valor: Son los elementos concretos de la variable. Opción: Valor preciso de una variable. Parámetro: Valores de la población. Estimador: Valores de la muestra. Muestra: Parte o subconjunto de la población. Población: Conjunto de unidades relevantes de la población.

Page 2: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

2

3. EVALUACIÓN DEL DISEÑO DE ANALISIS Y DEL ANÁLISIS DE DATOS

3.1. REVISIÓN DEL DISEÑO DE ANÁLISIS DE DATOS Antes de revisar las tablas o gráficos se debe primero leer como el autor analizó los datos en la sección metodología. En este capítulo debe constar el diseño del análisis en el cual se debe considerar el diseño de la investigación, por lo que es necesario revisar las hipótesis u objetivos del estudio y analizar si el análisis corresponde a las mismas.

Si la hipótesis u objetivo es descriptivo, se debe realizar análisis univarial, pero si es explicativo o de asociación se deberá haber realizado análisis bivarial o multivarial. En este segundo caso es importante reconocer como se clasificaron las variables de acuerdo a su ubicación causal, ¿Cuál o cuáles son dependientes (o efecto) y cuáles independientes (factores de riesgo o exposiciones)? y dentro de estas cuál es la variable antecedente simple o causal directa, las intervinientes (cofactores y moderadoras o interacción) y las perturbadoras, etc.

Analice si el diseño planteado coincide con las tablas y gráficos, considerando la exposición, los efectos y los potenciales variables de confusión o perturbadoras y variables moderadoras.

Observe como se definieron los subgrupos y categorías de cada una de las variables. Las forma de estructurar subgrupos se debe basar en: i) los conocimientos que se tiene sobre el objeto de estudio, ii) las hipótesis biológicas de importancia y iii) de la manera en que el estudio va a ser (o fue) conducido. Los estudios tienen mayor posibilidad de ser útiles si el análisis toma en cuenta asociaciones y pruebas de hipótesis, basadas en la biología más que en la mecánica (o electrónica), comparando toda posible exposición (variable independiente) con cada daño o efecto posible (variable dependiente).

3.2. EVALUACIÓN DEL ANÁLISIS DE DATOS

3.1.1. REGLAS PARA LEER EL ANÁLISIS DE DATOS

Tres son las reglas más importantes a seguir en la lectura del análisis de datos: 1. El análisis de datos debe ir desde lo simple a lo complejo, las técnicas de análisis sofisticadas no pueden reparar una información de mala calidad (mala representatividad, sesgo sistemático, sesgos por falta de respuestas de los encuestados). Por ello es importante primero analizar la información más simple.

2. Evaluar la consistencia de la información, que implica evaluar la presencia de valores imposibles, duplicados, datos extraños y el porcentaje de no respuesta (datos en blanco).

Page 3: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

3

Tanto las tablas simples como la representación gráfica permiten observar los valores que difieren ostensiblemente del resto (valores extraños o fuera de rango) y los llamados valores imposibles.

Los valores extraños y los fuera de rango son aquellos que es posible encontrar pero que no se esperarían encontrar, por ejemplo valores de hemoglobina menores de 5 o edad mayor de 80 años.

Los valores imposibles son aquellos cuya existencia no es factible. Por ejemplo, cuando se estudia la variable sexo se esperan solo dos códigos: M para masculino y F para femenino y no otra letra como G o N. La importancia de estos valores extraños radica en que pueden alterar los resultados estadísticos (asociación, significación, estimación) pudiendo modificar la interpretación de los resultados.

El evaluar si la información es correcta y limpia de errores es más importante que proceder a analizar las pruebas estadísticas sofisticadas. Una elevada proporción de datos en blanco (“missing value”) es una importante fuente de sesgo que con frecuencia es considerada al evaluar la validez de las investigaciones. Es necesario primero determinar el porcentaje de no respuestas dentro de cada variable, y apreciar si esto afecta a los resultados; obviamente con las variables fundamentales de estudio no se debería aceptar un alto porcentaje de no respuestas.

3. Evaluar el uso adecuado de las técnicas estadísticas. Para cumplir este objetivo a continuación se presentan los elementos necesarios para poder evaluar si el análisis de datos se hizo o no adecuadamente.

3.1.2. TIPOS DE ANÁLISIS DE DATOS

El análisis de información se puede clasificar de varias formas, las mismas que no son excluyentes:

AANNÀÀLLIISSIISS DDEESSCCRRIIPPTTIIVVOO EE IINNFFEERREENNCCIIAALL

Descriptivo Es el análisis de las características de las variables en la muestra (análisis univarial) y la explicación de las relaciones entre variables (análisis bivarial o multivariado). El análisis estadístico se puede hacer en muestras en muestras o en la población (cuando se trabaja con censos). Con mucha frecuencia se diferencia descripción de explicación, pero en Estadística el análisis descriptivo abarca las dos actividades: la descripción de las características de las variables y la explicación de sus relaciones.

Inferencial

Este análisis se refiere a como pasar de los hallazgos de la muestra a sacar conclusiones en el universo. Incluye la estimación y la significación estadística.

Page 4: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

4

AANNÁÁLLIISSIISS UUNNIIVVAARRIIAALL YY MMUULLTTIIVVAARRIIAALL

Análisis univarial se refiere al análisis de una sola variable, puede ser descriptiva o inferencial. Los objetivos del análisis univarial son resumir y presentar la información de cada variable individual. Multivarial se refiere al estudio (descriptivo e inferencial) de dos o más variables. En este texto se diferencia análisis bivarial (dos variables) de multivarial (más de dos variables), por las características y técnicas particulares que estas dos modalidades presentan.

AANNÁÁLLIISSIISS CCAAUUSSAALL,, FFAACCTTOORRIIAALL YY CCLLAASSIIFFIICCAATTOORRIIOO

En los estudios epidemiológicos y clínicos experimentales, cohorte, casos testigo o de corte transversal se estudia con más frecuencia la relación causa efecto de dos o más variables. Este tipo de estudios necesitan un análisis causal bivarial o multivarial.

4. EVALUACIÓN DE USO DE LAS TÉCNICAS DE ANÁLISIS BIVARIAL Para efectos de evaluación de la eficacia o efectividad de intervenciones terapéuticas en esta unidad se enfatiza la comprensión de medidas estadísticas bivariales. Por lo que, después de haber revisado la distribución de las variables claves de interés (análisis univarial), revise los cruces de variables. El conocimiento de las distribuciones simples y de los cruces de variables garantiza la comprobación de hipótesis.

Al igual que en el análisis univarial, la elección del tipo y técnicas de análisis bivarial depende de los objetivos de la investigación, del tipo de datos que se estudian y de la audiencia a la que va dirigida la investigación. Además de lo anterior, el uso de técnicas especificas de análisis bivarial depende de: el tipo de variables que se manejan (cuantitativas o cualitativas), su lugar en el estudio como variable independiente o dependiente y el tipo de distribución que tienen (normal, sesgada, leptocúrvica, etc.). Las técnicas de análisis pueden ser gráficas o matemáticas. Para el análisis matemático bivarial se debe realizar dos tipos de pruebas estadísticas:

Medidas de asociación o relación, que son medidas descriptivas

Medidas de análisis inferencial: de estimación y de significación estadística. Existen cuatro alternativas de análisis bivarial:

1. Cuando las dos variables la independiente y dependiente son cualitativas 2. Cuando se cruza una variable independiente cuantitativa y la dependiente es

cualitativa 3. Cuando de cruza una variable independiente cualitativa y la dependiente

cualitativa 4. Cuando las dos variables con cuantitativas

Page 5: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

5

En los estudios epidemiológicos y clínicos, cuando se relacionan dos variables con frecuencia se buscan relaciones causales. Para poder apreciar el grado de relación que tienen dos variables entre si, las más importantes y usuales medidas son las que se muestran en la siguiente tabla:

Variable dependiente

CUALITATIVA CUANTITATIVA

Variable Independiente

CUALITATIVA

Coeficientes de asociación (RR,OR, RA, NNT)

Diferencias de medias o medianas.

CUANTITATIVA Regresión logística

Regresión (r), Correlación (β).

4.1.1. COEFICIENTES DE ASOCIACIÓN

El análisis de la relación de dos variables cualitativas se puede hacer mediante el cálculo de porcentajes en una tabla o mediante los coeficientes de asociación. Para el cálculo de porcentajes en una tabla es necesario recordar algunas reglas básicas para evaluar el análisis bivarial (cruces) entre dos variables cualitativas:

Identificar cual es la variable dependiente y cual la independiente. La variable independiente en el ejemplo siguiente es FUMA (filas) y la dependiente es CANCER DE PULMON (columnas).

El cálculo de porcentajes debe ser en el sentido de la variable independiente. En el ejemplo a continuación se calculó los porcentajes en el sentido de las filas (fuma) y el análisis se hace comparando los resultados en el sentido contrario al calculado.

Ejemplo: Asociación Tabaco y Cáncer de Pulmón

FUMA CA. PULMON TOTAL

SI NO

No % No %

Si 40 90 10 20 50 100%

No 10 20 40 80 50 100%

TOTAL 50 100 50 100 100 100%

Aunque se calculó los porcentajes en sentido horizontal es decir en el sentido de la variable independiente (FUMAR), pero para el análisis se compara el porcentaje de hombres que fuman con el de mujeres que fuman. En este ejemplo, se puede decir que los que fuman tienen porcentaje más alto de Cáncer de Pulmón (90%) que los que no fuman (20%). Cuando se trata de tablas de dos por dos se debe calcular coeficientes de asociación. Estos coeficientes se clasifican en dos grupos

1. Coeficientes de producto cruzado: Riesgo Relativo, Razón de Productos Cruzados, Diferencia de Riesgo.

2. Coeficientes basados en Chi cuadrado: Pearson, Tschuprow, Cramer’V

Page 6: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

6

En este curso se revisarán solamente los Coeficientes de Producto Cruzado. Medición del efecto En el ejemplo anterior el objetivo del estudio era evaluar el riesgo o protección. Cuando se trata de medir la eficacia de un medicamento lo más común es que los ensayos clínicos controlados midan la incidencia de algún evento en los grupos de individuos seguidos en un determinado lapso y que este evento se exprese de manera dicotómica (es decir, la presencia o no del desenlace: infarto al miocardio, recurrencia de una neoplasia, muerte, etc.) como la proporción de sujetos que llegan a presentarlo. Para entender mejor el análisis de efecto a continuación se desarrolla un ejemplo de un estudio en el que 20% (0.20) de los enfermos en el grupo control fallecieron en contraste con sólo 15% (0.15) de los que recibieron el tratamiento en evaluación (Tabla 1) Enfermedad/ efecto

+ -

Exposición Si A 15 B 85 H1 100 I(+) = 15/ 100 = 0.15

No C 20 D 80 H2 100 I(-)= 20 / 100 = 0.20

V1 35 V2 165 N 200

Primero calculamos las Tasas de Incidencia para cada grupo

Riesgo del evento en los pacientes con el tratamiento (grupo experimental) I (+) = 15/100 = 0.15 o 15% Riesgo del evento en los pacientes sin el tratamiento (grupo control) I (-) = 20/100 = 0.20 o 20%

CCooeeffiicciieenntteess ddee PPrroodduuccttoo CCrruuzzaaddoo Estas medidas de asociación evalúan la magnitud de la fuerza o poder de la asociación estadística entre la exposición y el efecto o la enfermedad estudiada. Para poder calcular estos coeficientes se debe articular adecuadamente una tabla de 2 x 2, el diseño debe ser el que se presenta en el ejemplo siguiente: H1 y V1 representa los totales horizontal y vertical en los cuales la enfermedad o la exposición están presentes. H2 y V2 son los totales en los cuales la exposición o la enfermedad están ausentes. N es el gran total producto de la suma de todas las celdas. Por ejemplo, se estudió un brote de gastroenteritis después de una fiesta (que es el efecto). Se sospechó del pollo frito como el alimento causante, se quiere comprobar si fue este alimento el causante y por lo tanto esta es la exposición.

Page 7: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

7

Enfermedad/ efecto + -

Exposición Si A 40 B 170 H1 210 R1 = 40/ 210 = 0.19

No C 10 D 190 H2 200 R0 = 10 / 200 = 0.05

V1 50 V2 360 N 410 Rt = 50 / 410 = 0.12 El primer paso es calcular tasas de ataque de la enfermedad en los casos que se evalúa riesgo y Tasas de Incidencia para los que comieron pollo (expuestos) a la que se denominará Riesgo 1 (R1) y para los no expuestos Riesgo 0 (R0). Con estos dos datos se pueden calcular los siguientes coeficientes:

a. Riesgo Relativo o Razón de Tasas La razón de tasas es simple, el riesgo en el grupo de expuestos dividido para el grupo de no expuestos:

Riesgo Relativo (RR) = R1 / R0 = (A/H1) / (C/H2) RR = 0.19 / 0.05 = 3.8

Al igual que la diferencia de riesgo, la razón de tasas refleja también el exceso de riesgo o de efecto en el grupo de expuestos o grupo de intervención comparado con el grupo no expuesto o grupo de comparación, pero expresado como una razón. Un RR de 3.8 significa que los expuestos tienen 3.8 veces más riesgo que los no expuestos que tienen 1 de riesgo. No es 3.8 veces más. El RR se utiliza en estudios de Cohorte o en experimentales, porque permite calcular las tasas de incidencia de la enfermedad según la exposición. Cuando no existen diferencias de riesgo el resultado es 1. Si el valor del RR es mayor a 1 se considera mayor efecto o factor de riesgo, si es menor de 1 es factor de protección o menor efecto. Mientras más alejado este de 1 el resultado de RR, significa que hay mayor fuerza o poder de la asociación entre exposición y enfermedad o efecto. En Ingles se denomina Relative Risk (RR) o Harm Risk (HR)

b. Razón de Productos Cruzados o Razón de Momios (ODDS RATIO) Se puede calcular los riesgos de expuestos y no expuestos (R1, R0), no solamente con tasas, sino también con Razones y con estos resultados calcular la razón de razones o razón de riesgos. Para el efecto se calculan razones entre casos con efecto y casos sin efecto para cada uno de los grupos.

Razón de evento y no evento en los pacientes expuestos o con el tratamiento (grupo experimental) R1 = 15/100 = 0.15 o 15%

Page 8: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

8

Razón de evento y no evento en los pacientes no expuestos o sin el tratamiento (grupo control) R0 = 20/100 = 0.20 o 20%

Efecto + -

Exposición Si a 40 b 170 210 R1 = 40/ 170 = 0,235

No c 10 d 190 200 R0 = 10 / 190 = 0,056

50 360 410 Rt = 50 / 360 = 0,13 La fórmula para el cálculo de la razón de razones es: OR = (a / b) / (c / d) = R1 / R0 = 0,235 / 0,056 = 4,5

El nombre que se utiliza con más frecuencia para denominar a esta Razón es Razon de Momios, porque momio es sinónimo de razón. La traducción al Inglés es Odds Ratio (Odds=momios; Ratio= razón).

Como se trata de una razón la interpretación de la Razón de Momios es igual a la que se hace con el Riesgo Relativo. La razón de momios se denomina también Razón de Productos Cruzados o Razón de Disparidades, debido a que la ecuación anterior puede transformarse matemáticamente en una Razón de Productos Cruzados o Razón de Disparidades, como puede verse en las siguientes ecuaciones: Razón de Momios = (a / b) / (c / d) Razón de Productos Cruzados = (a x d) / (c x b) Aplicando la formula de productos cruzados el cálculo sería el siguiente: OR = (40 x 190) / (10 x 170)= 4,47= 4,5 Como se puede apreciar la Razón de Momios o de Productos Cruzados a más de ser fácil de calcular, es una medida útil de asociación porque mide también la diferencia de riesgo o de exposición entre enfermos y no enfermos, lo que le hace útil para estudios de Casos y Testigos, Corte Transversal y en cohortes de enfermedades raras, en las cuales las muestras son pequeñas. Es importante enfatizar que esta medida en español puede tener varios nombres: Razón de Momios o Razón de Razones. Momio es un sinónimo del término “razón” Razón de Productos Cruzados o Razón de Disparidades. En inglés solo tiene una denominación Odds Ratio (OR)

Page 9: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

9

c. Reducción del riesgo relativo (RRR) o fracción de prevención La Reducción de Riesgo Relativo (en Inglés Preventive fraction (PF) o Preventable Fraction, se calcula a partir del Riesgo Relativo o de la Razón de Momios (OR). Se debe usar cuando una exposición reduce el riesgo y provee el porcentaje de casos que puede evitarse o prevenirse si una población se expone a una intervención, comparada con una no expuesta. La reducción del riesgo relativo (RRR) se expresa como un porcentaje. La fórmula para calcular esta medida es:

RRR = [(1 – Riesgo Relativo) *100] o [(1-Razón de Momios)*100]

Ejemplo: Para el ejemplo de Medición de Efecto el resultado es: RRA = I(-) – I(+) = 0.15 – 0.20 = 0,75 Con este dato se calcula el RRR RRR= (1 – 0,75) *100= 25% Esta cifra significa que el nuevo tratamiento reduce el riesgo de sufrir el evento (morir o enfermar) en 25% con relación a lo que ocurre en los pacientes del grupo control; mientras mayor sea la RRR mayor es la eficacia del tratamiento.

d. Diferencia de efectividad, Diferencia de riesgo, Riesgo Atribuible o Reducción

del riesgo absoluto (RRA) La diferencia de riesgos o diferencia de eficacia se calcula de una manera simple, se resta del riesgo o efectividad de expuestos el riesgo o efectividad del grupo de no expuestos.

Diferencia de riesgos (DR) = R1-RO = a/H1 - c/HO DR = 0.19 - 0.05 = 0.14 = 14 %

La diferencia de riesgos refleja el exceso de asociación de riesgo de exposición. Si no existiría diferencia de enfermar entre expuestos y no expuestos el resultado será 0. Valores con signo positivo significan riesgo o efecto mayor y valores con signo negativo riesgo o efecto menor. Mientras más alejada este de 0, mayor será la asociación entre el factor de exposición y el efecto. En Ingles puede tener dos denominaciones:

Atributable Risk (AR)

Efficacy Difference (ED)

Risk Diference

Page 10: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

10

e. Número Necesario a Tratar (NNT) y Número Necesario para hacer Daño El Numero Necesario a Tratar (NNT), “Number Needed to Treat” en Inglés, es una medida de la eficacia de un tratamiento. Es el número de personas que se necesitaría tratar con un tratamiento específico (ej. aspirina a quienes han sufrido un ataque cardíaco) para producir, o evitar, una ocurrencia adicional de un evento determinado (ej. prevención de muerte). Por ejemplo, si una droga tiene un NNT de 5, significa que se debe tratar 5 personas con esta droga para prevenir un resultado negativo adicional. El NNT es una medida de probabilidad. Para calcular el NNT usted necesita conocer el Riesgo Atribuible (RA) o la Reducción Absoluta de Riesgo (AAR). Donde RA = Tasa del Evento en Grupo Control (TEGC) - Tasa del Evento en el Grupo Experimental (TEGE). El NNT es lo contrario del RA NNT=1/RA (RA calculado en proporción) Si se calcula a partir del RA en porcentaje la formula es: NNT = 100 / RA (calculado en porcentaje) Ejemplo: NNT = 1 / 0,14 = 100 / 14 = 7,14 Número necesario a dañar o perjudicar (NND) o Number Needed to Harm (NNH), es una medida de los efectos adversos de un tratamiento, definida de modo similar al NNT, como el número de personas que hay que tratar para producir un efecto adverso adicional (ej. aspirinas para producir trastornos gástricos). Puede expresarse con valores negativos por ejemplo -3. Calculo de NNT a partir del RR o del OR Es posible calcular el NNT y el Numero Necesario a Tratar (NNH) a partir de la razón de Momios u Odds Ratio (OR) con las siguientes formulas: NNT = (1-(TEEP*(1-OR))) / ((1-TEEP)*(TEEP)*(1-OR)) NNH = ((TEEP*(OR-1))+1) / (TEEP*(OR-1)*(1-TEEP)) Donde TEEP es Tasa de Eventos Esperados en Pacientes, en Inglés Patient Event Expected Rate (PEER), que es el riesgo de tener un evento en la población. Esta tasa es la incidencia o prevalencia en la población que es la prevalencia en el grupo no expuesto.

Page 11: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

11

Ejemplo: Enfermedad/ efecto

+ -

Exposición Si a 40 b 170 210 R1 = 40/ 170 = 0,235

No c 10 d 190 200 R0 = 10 / 190 = 0,056

50 360 410 Rt = 50 / 360 = 0,13 OR = (a / b) / (c / d) = R1 / R0 = 0,235 / 0,056 = 4,47

Aplicando la formula anterior el resultado es: NNT = (1-(0,05*(1-4,47))) / ((1-0,05)*(0,05)*(1-4,47)) NNT = 7,12, un poco menor al NNT calculado a partir del Riesgo Atribuible que fue de 7,5. Hay que recordar que el OR presenta siempre valores superiores al RR. Para calcular el NNT a partir del OR se puede diseñar un programa en Excel. Se adjunta a este curso un programa para el cálculo del NNT o del NND a partir del OR.

4.1.2. DIFERENCIA DE MEDIAS O MEDIANAS

El análisis descriptivo bivarial de diferencia de medias o promedios y de diferencia de mediana es muy simple, se trata de cuantificar la diferencia entre las medias o medianas muestrales restando el promedio del grupo no expuesto del promedio del grupo expuesto. En este caso la variable independiente es cualitativa y la dependiente cuantitativa. De igual forma que con la diferencia de tasas o proporciones 0 es igual riesgo o igual efecto, valores con signo positivo son mayor riesgo o mayor efecto y valores con signo negativo son menor riesgo o menor efecto. Ejemplo: Promedio de peso en Kg en niños Grupo experimental 39,26 Grupo Control 32,93 DIFERENCIA + 6,33 Mayor riesgo o mayor efecto Promedio de peso en Kg en niños Grupo experimental 39,26 Grupo Control 39,26 DIFERENCIA 0,00 Igual efecto Promedio de peso en Kg en niños Grupo experimental 32,93 Grupo Control 39,26 DIFERENCIA - 6,33 Menor riesgo o menor efecto

Page 12: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

12

La diferencia de promedios o medias se utiliza cuando las distribuciones de los dos grupos son simétricas o normales. LA diferencia de mediana se utiliza cuando las distribuciones de los dos grupos en comparación son asimétricas o sesgadas o también cuando el un grupo tiene una distribución normal y el otro grupo asimétrica.

4.1.3. CORRELACIÓN Y REGRESIÓN

CCoorrrreellaacciióónn Es una prueba de asociación que se utiliza cuando se quiere establecer la presencia o ausencia de una correlación o asociación entre dos variables cuantitativas: una dependiente “Y” y la otra independiente “X”. Esta prueba permite ver el grado en que varían conjuntamente las dos variables, aunque el descubrir la existencia de una relación no dice mucho del grado de asociación o correlación. Por ejemplo se dice que los gastos están relacionados con el ingreso: gasto más cuando gano más, aunque no siempre sucede así, porque hay personas que teniendo un ingreso alto gastan poco. El peso y la talla están asociados: mientras más alto, más peso, sin embargo algunas personas altas pesan poco y algunas pequeñas pesan mucho. La CORRELACION varía respecto a su fuerza, estas variaciones se pueden apreciar por medio de un diagrama de dispersión. El diagrama de dispersión o dispersograma Es un gráfico que permite ver la forma en que se distribuyen los puntajes de dos variables “X” y “Y” en toda la escala de los posibles valores de los puntajes. Este diagrama tiene como base un sistema de coordenadas, en el que la variable “Y” que es la variable dependiente se ubica en la línea vertical y la variable “X” que es la independiente en la línea horizontal. En el diagrama de dispersión se puede observar la fuerza de correlación entre “X” y “Y”, la misma que aumenta a medida que los puntos se van juntando y van formando un línea recta imaginaria por el centro del gráfico.

El coeficiente de correlación r

Se expresa con la letra “r” y es el valor que expresa numéricamente tanto la dirección

como la fuerza de la correlación lineal. Indica la estrechez de la asociación. Esta medida puede ir de un valor de -1 a un valor de +1. Para analizar esta medida de estadística bivarial se utilizan tres criterios: Dirección de la correlación

Page 13: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

13

La dirección de la correlación puede ser:

Directa o positiva

Negativa La correlación es positiva cuando los puntajes en el diagrama de dispersión muestran una tendencia hacia arriba y hacia la derecha. Los puntajes altos de “Y” se asocian con los puntajes altos de “X” y los bajos de “Y” con las bajos de “X” La línea equidistante entre los puntos denominada línea de regresión tiene una dirección de descendente. Ejemplos:

La correlación es negativa cuando la tendencia de los puntajes en el diagrama es hacia abajo y hacia la derecha. A puntajes bajos de la variable X corresponden valores altos de la variable Y y a valores altos de X, los de Y son bajos. Es decir a un incremento de la una variable la otra decrece. Por ejemplo, cuando menos años de estudio tienen los padres, mayor es el número de hijos que tienen. No correlación cuando no hay ninguna relación entre las variables X y Y, en este caso los valores de X y de Y se distribuyen indistintamente como una nube. Tanto la correlación positiva como la negativa representan una relación lineal en la que los valores en el diagrama van formando una línea recta. Existen otros tipos de correlación, así, la curvilínea, la cuadrática, etc. En este curso se explica la correlación lineal únicamente. El grado de asociación entre dos variables cuantitativos se mide con tres medidas: el coeficiente de correlación, el coeficiente de regresión y la intersección de Y

Page 14: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

14

El signo que antecede al número indica la dirección de la correlación. + si es positiva, - si es negativa. Valores con signos positivos indican correlación positiva, valores con signos negativos indican correlación negativa y valor igual a 0 ninguna correlación. Fuerza o poder En cuanto al grado o nivel de fuerza o poder, mientras más se acerca a -1 o a +1, la fuerza de la correlación es mayor. El valor de “r” de -1 indica que la correlación es negativa perfecta y +1 cuando es positiva perfecta. Un valor igual a 0 significa ninguna correlación. En la siguiente tabla se presenta categorías de la fuerza o poder de la correlación: Correlación negativa Correlación positiva

-1 -0.99 a -0.75 -0.74 a -0.50 -0.49 a - 0.10

Correlación negativa perfecta Correlación negativa fuerte Correlación negativa moderada Correlación negativa débil

+0.10 a 0.49 +0.50 a 0.74 +0.75 a 0.99 +1.00

Correlación positiva débil Correlación positiva moderada Correlación positiva fuerte Correlación positiva perfecta

0.00 Ninguna correlación

El coeficiente de correlación nunca debe ser mayor a +1 o -1. Para realizar un análisis gráfico de la correlación hay que considerar el grado de dispersión de los puntos de intersección en relación a la línea de regresión. Si todos los puntos están en la línea, la correlación es perfecta. En el gráfico siguiente la correlación

es negativa perfecta, r igual a -1. En cambio en el grafico de la izquierda los puntos no

siguen una tendencia, por lo que no hay ninguna correlación, r igual a 0.

En los gráficos siguientes se presentan ejemplos de correlaciones positivas con diferentes niveles de fuerza o poder de débil (0,3) a fuerte (0,9).

Page 15: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

15

RReeggrreessiióónn

Línea de regresión En la correlación, en el diagrama de dispersión los valores se distribuyen de acuerdo a la fuerza de asociación y a su dirección en una línea imaginaria que se va formando en el centro. En la regresión, se identifica esta línea como una línea recta que se traza a través del diagrama de dispersión. En todos los gráficos anteriores se presenta la línea de correlación para cada nube.

Coeficiente de Regresión Es una prueba estadística que permite estudiar cambios concomitantes entre la variable ”X” (variable independiente) y la “Y” (variable dependiente), por lo que permite predecir los valores de la variable “Y” a partir de los valores de la variable “X”. La regresión no indica causalidad, indica la variación promedial de la variable Y en relación a un cambio de la variable X. Este coeficiente se expresa como “β” (beta) y mide el incremento promedial de “Y” por cada unidad de aumento de X. Por ejemplo, un “β” =1 significa que si “X” cambia en una unidad (1), “Y” cambia también en una unidad. Si el “β” = 2, significa que si “X” cambia en una unidad (1), “Y” cambia también en dos (2) unidades. Ejemplo:

Page 16: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

16

CONSIDERACIONES IMPORTANTES

Para evaluar si se utilizó adecuadamente la regresión lineal es importante tomar en cuenta los siguientes aspectos: 1. La correlación es útil solamente cuando se quiere ver una asociación entre “X” y “Y”. 2. Las muestras deben ser extraídas aleatoriamente de la población y deben ser

representativa de la misma. 3. Tanto la variable “X” como la “Y” deben tener la característica de distribuirse

normalmente en la población. Por lo tanto la muestra no de tener menor de 30 casos. 4. En caso que una o las dos distribuciones sean no normales o tengan menos de 30

observaciones se debe hacer una transformación logarítmica de datos para poder utilizar correlación y regresión lineal.

0 1 2 3 4 5 6 7 8 9

10

0 1 2 3 4 5 6 7 8 9 10

Y

X

β=1

0 1 2 3 4 5 6 7 8 9

10 11 12 13 14 15 16 17 18 19 20

0 1 2 3 4 5 6 7 8 9 10

Y

x x

β=2

Page 17: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

17

5. ANALISIS INFERENCIAL Hacer inferencia estadística es pasar de los datos obtenidos en la muestra (estimador), a calcular valores en la población de la que se obtuvo la muestra (parámetro) con un cierto grado de certeza o confiabilidad. Existen dos tipos de pruebas de análisis inferencial:

1. Pruebas de significación estadística o de estimación de punto 2. Intervalos de confianza o estimación de intervalo.

En el pasado en los artículos científicos se presentaban simplemente tablas y gráficos con una descripción y explicación de los principales hallazgos. Actualmente se exige que la evaluación de la significación estadística de los hallazgos a través del uso de pruebas de significación o intervalos de confianza. La necesidad de las pruebas de significación y los intervalos de confianza cobraron importancia por la presencia del error de muestreo en los estudios.

5.1. ERROR DE MUESTREO Cualquiera que sea el procedimiento de selección de los individuos de un estudio, el tamaño de la muestra y de las medidas estadísticas calculadas, siempre hay la probabilidad de que exista un error de muestreo que afecta los resultados. Los efectos del error de muestreo son más evidentes cuando las muestras son más pequeñas.

Supongamos que en el universo de una población en estudio tienen el 50% de varones y el 50% de mujeres. Si se toma una muestra de diez niños, aunque esperaríamos que cerca de la mitad podrían ser mujeres, no deberíamos sorprendernos si se encuentra siete mujeres y solamente tres niños varones. Si se toma una segunda muestra, el obtener cuatro mujeres y de seis varones, tampoco debería sorprendernos. El ejemplo anterior nos hace ver que debido al error de muestreo rara vez tendríamos 50% mujeres y 50% varones en muestras pequeñas.

Los efectos del error del muestreo se presentan en cualquier circunstancia en la investigación médica. Supongamos que dos tratamientos se están comparando en un estudio clínico controlado. Los pacientes han sido asignados aleatoriamente (por sorteo) en dos grupos. Aunque la asignación aleatoria o randomización evita diferencias sistemáticas (o debidas al azar) entre los dos grupos, no evita que existan diferencias por error de muestreo. Por ejemplo, podría suceder que en uno de los dos grupos de estudio existan mas pacientes enfermos graves, creando una diferencia aparente entre los tratamientos aunque en realidad no existan. En la práctica es poco usual que dos grupos de un estudio clínico controlado sean exactamente iguales, hay con frecuencia pequeños errores de muestreo entre ellos y es raro encontrar errores de muestreo grandes o diferencias entre los dos grupos.

La importancia del error de muestreo radica en la magnitud con la cual este afecta los resultados observados. Algunas veces puede encontrarse un resultado interesante, pero

Page 18: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

18

este puede tratarse de un hallazgo casual estadístico. Afortunadamente los métodos estadísticos inferenciales nos permiten probar si los resultados observados se deben o no se deben a un error de muestreo. Un concepto central en estos métodos es el concepto de probabilidad.

5.2. PROBABILIDAD La probabilidad de obtener un seis, al lanzar un dado es uno en seis; la probabilidad de ganarse un sorteo de navidad, con un solo guachito en el que se imprimieron 1000 boletos en uno en mil. La probabilidad, es simplemente, una forma de describir cómo un evento puede ocurrir probablemente.

Las probabilidades se pueden expresar en porcentajes, pero en estadística son casi siempre expresadas en fracciones decimales. En este caso sería 1,0 sería igual a 100%. Las probabilidades varían de entre 0,0 y 1,0, donde 0 significa que un evento nunca sucederá y 1 significa que hay la total certeza que sucederá. Por ejemplo, si se expresa en fracciones decimales 1 en 6 vendría a ser 0,167, resultado de dividir 1 para 6 y uno en mil sería igual a 0,001.

La interpretación de probabilidades es un poco difícil, cuando un evento tiene una pequeña probabilidad por ejemplo 0,001, es poco probable que suceda, cuando una probabilidad es grande por ejemplo, 0,9 el evento es muy probablemente que suceda. Por ejemplo la probabilidad de que un adulto sano muera algún día es de 1.0 (100%), porque todos morirán algún día, en contraste la probabilidad de que un adulto muera mañana podría se menor que 1 en 100.000, o 0,00001.

Las probabilidades son un aspecto medular de la estadística inferencial. Estos son expresados con frecuencia en términos de valor de p o valor de probabilidad, en la cual la letra p significa probabilidad.

Se pueden escribir como p = 0,0003, indicando que un evento tiene 3 en 1000 oportunidades de ocurrir, es algo que casi no ocurrirá. Se puede escribir también como p < 0,001 o p < 0,005, donde el símbolo “<” significa “menor que”. El símbolo “<” es ampliamente usado, pero escribir p < 0,01 es menos preciso que p= 0.003. El uso de “<” está ampliamente usado, con lo cual se redondean las cantidades a ciertos valores; los más frecuentes son p<0,05, p<0,01 y p<0,001. Se recomienda dar el valor exacto de p, porque el redondeo puede caer en un valor aproximado al mínimo aceptado, lo que echa a perder la información porque no se puede conocer la probabilidad de cometer errores Tipo I o Tipo II.

Page 19: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

19

5.3. LA LÓGICA DE LAS PRUEBAS ESTADÍSTICAS INFERENCIALES Las pruebas o test estadísticos pueden parecer que han sido creados para dar dificultades. Sin embargo son de gran utilidad porque es la única forma de conocer si los resultados obtenidos en la muestra son similares a los que obtendría si se estudiaría a todo el universo o población de la que se extrajo la muestra. Lo anterior se conoce también como validez externa o capacidad de generalización estadística de un estudio.

Imagine que en un estudio clínico controlado en el que se comparan dos tratamientos, se encontró que un tratamiento da mejores resultados que el otro. Pero como este resultado es de una muestra de pacientes, es necesario estimar si los resultados obtenidos en esta muestra se encontrarán también en el universo de pacientes de donde se obtuvo la muestra. Para lograr este propósito el primer paso es proponer, que la diferencia observada entre los tratamientos es debido solamente a un error de muestreo, es decir que no hay diferencias entre los dos tratamiento en el universo. Esto no es lo que se espera, con la lógica que se utiliza a menudo siempre se espera que un nuevo tratamiento sea superior al convencional. Sin embargo, cuando se hace análisis inferencial se inicia planteando lo contrario a lo esperado a lo que se denomina Hipótesis Nula (H0) y el resultado que se espera que suceda se denomina Hipótesis Alternativa o de trabajo (Ha).

Las pruebas estadísticas inferenciales indican la probabilidad (valor de p) de que, los resultados obtenidos en la muestra se deban al error muestral. Cuando este valor es pequeño, ejemplo p<0,01 se concluye que el resultado observado es improbable que suceda por error, lo que lleva a rechazar la propuesta de que no hay diferencias entre los tratamientos y por lo tanto a rechazar la hipótesis nula. Se puede concluir entonces que uno de los tratamientos es realmente mejor que el otro, o dicho de otra manera los resultados observados en el estudio (en el que se utilizó una muestra) también se dan en el universo del que se extrajo la muestra o que el resultado es significativo o confiable.

El valor de p es una muy buena guía para analizar si los resultados observados pueden deberse al error muestral: valores pequeños de p, indican que los resultados son improbables que sucedan por error muestral. Sin embargo, es importante definir a que denominamos un valor de p pequeño. Existe una regla conveniente pero arbitraria: cuando el valor de p es menor de 0,05 (p<0,05) es decir 5%, se excluirá el error muestral como explicación. Cuando se tiene un valor de p pequeño se puede decir que se ha alcanzado significación estadística.

Sin embargo, el uso de esta regla arbitraria de p<0,05 no es una garantía. Supongamos que se realizan una gran cantidad de test estadísticos, puede aparecer un resultado estadístico espurio o incorrecto una vez en cada veinte pruebas. Esto se debe a que p=0,05 significa una probabilidad de uno en veinte de que ocurra un evento. Hay dos conclusiones de este análisis:

1. Los estudios en los cuales se han realizado múltiples test de significación darán regularmente significados espurios.

Page 20: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

20

2. Valores pequeños de p, es decir p<0,01 o aun p<0,001 darían una confianza mayor de que el resultado no fue por un error de muestreo.

5.4. ANALISIS DE LOS ERRORES TIPO I Y TIPO II La mayoría de las investigaciones sociales, clínicas o epidemiológicas tienen como objetivo contrastar hipótesis que plantean diferencias entre dos o más grupos o muestras. La hipótesis nula sustenta que no hay diferencias entre dos muestras, posiblemente porque han sido extraídas de la misma población; por lo tanto, cualquier diferencia observada entre las muestras se considera como un hecho casual o debido al azar, resultante únicamente del error de muestreo. Es por tanto la afirmación a comprobar. La hipótesis alternativa es la afirmación a rechazar.

Desde el punto de vista teórico, al aceptar la Hipótesis Nula (Ho) o la Hipótesis de Trabajo (Ht) se pueden cometer dos tipos de errores:

Si se acepta la Ht y esta decisión es correcta no existe error. El error tipo I o error alfa se comete cuando se rechaza una hipótesis nula siendo verdadera. La probabilidad de cometer este tipo de error sólo puede presentarse cuando rechaza la hipótesis nula y varía de acuerdo al nivel de confianza que se imponga. Esto puede suceder cuando el valor de p es cercano a 0,05, por ejemplo 0,049.

Por el contrario, si se acepta la hipótesis nula (Ho) y ésta es falsa se comete un error tipo II. A la probabilidad de cometer este error se le denomina Beta (β). De igual manera como en el caso anterior esto puede suceder cuando el valor de p es mayor pero muy cercano a 0,05, por ejemplo 0,052.

ACEPTA Ho Ho Correcta No error Ho Falsa Error Tipo II (beta) ACEPTA Ht Ht Correcta No error Ht Falsa Error Tipo I (alfa)

La probabilidad de cometer error alfa será menor mientras haya más rigor en el nivel de confianza; es decir mientras más pequeño sea el valor de p. Así, con un “valor de p” de 0,001 la probabilidad de cometer Error Tipo I, es 1 vez en 1000, en cambio con un valor de p de 0,049, tan cercano a 0,05 la probabilidad de cometer error Tipo I es mayor. El riesgo de cometer error beta o tipo II será menor si el “valor de p” esta lo más alejado posible del valor de referencia 0.05 o 0.01. Por ejemplo, con un valor de p de 0.1 la probabilidad de cometer un error Tipo II será pequeño, en cambio con un valor de p de 0.51, tan cercano al valor de referencia (0.05) la probabilidad de cometer un error Tipo II será grande. De forma arbitraria, solo como referencia para entender lo explicado anteriormente, se pueden transformar los valores de p a categorías de nivel de significación estadística o confiabilidad como se muestra en el ejemplo siguiente:

Page 21: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

21

Valor de p Nivel de significación

0,049 Significación o confiabilidad baja o débil. Probabilidad de error tipo I.

0,0049 Significación o confiabilidad moderada.

0,00049 Altamente significativo o altamente confiable

0,051 No estadísticamente significativo o no confiable. Probabilidad de error tipo II.

0,08 No significativo o no confiable moderado

0,8 Altamente No significativo o no confiable

Cuando se observan en los artículos científicos valores de p muy cercanos al valor de referencia (0.05 o 0.01) una de las explicaciones es que el tamaño de la muestra es muy pequeño para demostrar la hipótesis. Por lo tanto, una forma de evaluar si el tamaño de la muestra es suficiente para cumplir los objetivos o demostrar las hipótesis es analizar los valores exactos de p. En general se consideran muestras pequeñas para estudios experimentales y observacionales analíticos cuando se estudian menos de 100 individuos, muestras aceptables de 100 a 400 personas y muestras grandes cuando superan las 400 personas. Mientras más grande la muestra más pequeño o confiable será el valor de p. Analizar el tamaño de la muestra es una forma rápida, pero no precisa de evaluar la capacidad de generalización de un estudio.

5.5. EVALUACIÓN DEL TEST DE SIGNIFICACIÓN UTILIZADO Para evaluar si se ha escogido adecuadamente el test de significación estadística es importante conocer que esto depende de:

1. El tipo de variables en estudio, si son cualitativas o cuantitativas. 2. El tipo de hipótesis u objetivos del estudio. Se dividen en dos tipos:

Los que buscan asociaciones o relación de dependencia/ independencia.

Los que contrastan resultados entre dos o más grupos o muestras. 3. El tipo de diseño: independiente o pareado. 4. Comportamiento de la variables, si es normal o no normal (sesgada, platicúrvica o

leptocúrvica), o si las varianzas son diferentes entre los grupos o muestras que se comparan.

5. Tamaño de los grupos (muestras)

5.5.1. POR TIPO DE VARIABLE EN ESTUDIO

De forma muy esquemática existen cuatro posibilidades:

1. La dos variables (independiente y dependiente) son cuantitativas, 2. Las dos variables son cuantitativas 3. La variable dependiente es cualitativa y la independiente cuantitativa. 4. La variable dependiente es cuantitativa y la independiente es cualitativa

A continuación se expone una tabla resumen de las pruebas de significación más usadas según el tipo de variables.

Page 22: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

22

Tabla 1. Pruebas de significación estadística según tipo de variables

VARIABLE DEPENDIENTE

CUALITATIVA CUANTITATIVA

VARIABLE INDEPENDIENTE

CUALITATIVA - 2 grupos: Z o t para diferencia de proporciones. - Más de 2 grupos (tablas n x n) y tablas - Tablas de 2 x2 : Chi cuadrado o Test Exacto de Fisher

- 2 grupos: Z o t para diferencia de promedios o medianas - Más de 2 grupos: ANOVA.

CUANTITA-TIVA

Regresión logística 2 Grupos:

Correlación r y

Regresión β.

Por el número de elementos que intervienen en la muestra se deben utilizar la prueba t cuando son menos 30 y la Z cuando son más de 30.

PPrruueebbaass ddee ssiiggnniiffiiccaacciióónn ppaarraa aassoocciiaacciióónn ddee vvaarriiaabblleess ccuuaalliittaattiivvaass ccoonn

ccuuaalliittaattiivvaass Las variables cualitativas únicamente pueden describirse como proporciones. Por ello, entre variables cualitativas únicamente podremos realizar estudios de asociación o relación entre dos variables, una variable independiente y una dependiente, nunca se realizará comparación de medias. Si los datos son independientes, de entrada debe considerarse como test de elección la prueba Chi cuadrado. No obstante, como este test presenta una serie de limitaciones en ocasiones es preciso utilizar el test de exactitud de Fisher. En el caso de datos cualitativos apareados se utilizará el test de Mac Nemar.

Chi Cuadrado Se usa como prueba de significación estadística de las medidas de asociación entre variables cualitativas o para probar diferencias entre dos proporciones. Las dos categorías deben ser mutuamente excluyentes e independientes. Existen tres variantes de Chi cuadrado:

1. Chi cuadrado sin corrección, que se utilizan cuando los valores esperados en cada celda es mayor o igual a cinco.

2. Mantel Haenszel, que se utiliza cuando existen variables perturbadoras 3. Corrección de yates, se utiliza cuando los valores esperados en cada celda son

menores de cinco. Los valores esperados constituyen los valores teóricos que tendría la distribución si no existirían diferencias entre las categorías de las variables estudiadas. Para esto se calculan los valores teóricos o esperados de cada celda, multiplicando el total de la fila por el total de la columna en la que está la celda y luego se divide para el total de las

Page 23: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

23

observaciones. Con esto se consigue tener una cantidad que distribuye el total de la columna, tomando en cuenta el peso que tiene la fila correspondiente. Ejemplo:

GRUPO SOCIAL

OBSERVADOS ESPERADOS

Enfermos Sanos Total Enfermos Sanos Total

Expuestos 21 a 79 b 100 13 a 87 b 100

No expuestos 5 c 95 d 100 13 c 87 d 100

TOTAL 26 174 200 26 174 200

Valores esperados:

a = 26 x 100 / 200 = 13 b = 174 x 100/ 200 = 87 c = 26 x 100 / 200 = 13 d = 174 x 100 / 200 = 87

Si se calcula tasas de incidencia de expuestos y no expuestos en esperados, se puede observar que no hay diferencias entre los dos grupos. Los dos grupos tienen una tasa de enfermar de 14,9%. Por lo tanto los valores de esperados representan a la hipótesis nula y lo que se trata es de medir las diferencias entre esperados y no esperados, si no hay diferencias o las diferencias son pequeñas se acepta la hipótesis nula. Paquetes estadísticos como Statcalc de EpiInfo 6.04 proveen los tres tipos de Chi Cuadrado, el investigador debe seleccionar cual es el más conveniente para su análisis. A continuación se presentan estas tres alternativas. Valor Chi² Valor p

Chi² sin corrección 11,32 0,00076

Mantel Haenszel 11,26 0,0079 Corrección yates 9,95 0,001611 Como en este ejemplo no hay valores esperados menores de cinco en cada celda, se debería usar Chi² sin corrección. Cuando se tiene tablas de contingencia de dos filas y mas de dos columnas (2 x n) o de más de dos filas y columnas (r x c), se utiliza e Chi² de Pearson. Prueba de exactitud de Fisher Esta prueba es considerada el “estándar de oro” de las pruebas estadísticas, pues provee un valor exacto de p mientras el Chi-Cuadrado provee un valor aproximado. Es la prueba a escoger cuando los números en la tabla son pequeños (valores esperados menores de cinco en una o más celdas). Con esta fórmula se calcula directamente el “valor de p” y no se necesita la tabla de Chi Cuadrado. Este test provee dos resultados: para una cola, como para dos colas. Para una cola se refiere cuando calcula la probabilidad en una sola dirección, es decir comparando la

Page 24: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

24

distribución teórica con una distribución en la que se conoce por estudios o referencias la dirección de la asociación. De dos colas se debe usar cuando no se desconoce la dirección de la asociación. Ejemplo si la Ht dice que el OR es mayor de 1 es de una cola, si la Ht dice que OR puede ser mayor o menor a 1 es de dos colas.

PPrruueebbaass ddee ssiiggnniiffiiccaacciióónn ppaarraa ccoommppaarraacciióónn ddee pprrooppoorrcciioonneess

Comparación de una proporción con un estándar conocido. Para comparar la proporción de personas (P) con ciertas características (enfermedad) con un valor estándar conocido, se utiliza una prueba de significación de diferencias de proporciones, utilizando la tabla Z distribución normal para muestras de más de 30 observaciones para identificar el valor de “p” y la distribución T para muestras de menos de 30 observaciones. Ejemplo: Se tomaron 100 muestras para evaluar prevalencia de bocio en un área endémica, obteniendo una prevalencia de 18%. Se quiere evaluar el impacto de un programa de intervención. Se reportó 30% de prevalencia antes de la intervención. Diferencia de proporciones = 0,12 (12%) Estadístico Z= 2,6 Valor de p= 0,01

Comparación de dos porcentajes de dos muestras Para comparar diferencias de dos muestras con proporciones P1 y P2, se usa la prueba de significación de diferencia de proporciones. Al igual que en la prueba anterior para identificar el valor de “p” se utiliza la tabla Z de distribución normal para muestras de mas

de 30 observaciones y la distribución t para muestras de menos de 30 observaciones.

Ejemplo: En la encuesta de prevalencia de alcoholismo en el Ecuador se encontró 360 alcohólicos para la sierra y 280 para la costa. Se quiere saber si estas dos diferencias son significativas. La muestra de la Sierra fue de 3600 y la de la Costa 4000. Diferencia de proporciones = 0,10 – 0,07 = 0,03 (3%)

Estadístico Z = 4,66 Valor de p = 0,0000 (< 0,0001)

PPrruueebbaass ddee ssiiggnniiffiiccaacciióónn ppaarraa ccoommppaarraacciióónn ddee pprroommeeddiiooss Cuando la variable independiente es cualitativa y la dependiente es cuantitativa se deben utilizar pruebas de significación estadística para diferencia de promedios o medianas. Para diferencia de promedios hay dos tipos de pruebas: la Prueba Z y la Prueba t de student.

Page 25: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

25

Prueba z Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe entre valores de dos muestras es estadísticamente significativa o se debe al azar. Se utiliza para comparan dos promedios o dos proporciones cuando las muestras son mayores a 30 y su distribución se aproxima a una distribución normal.

Prueba t o t de student Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe entre valores de dos muestras es estadísticamente significativa o se debe al azar. De preferencia se utiliza cuando las muestras son pequeñas -menores a 30 - aunque se puede utilizar en muestras mayores, en este caso su distribución se aproxima a una distribución normal. Es paramétrica porque las frecuencias se distribuyen bajo la curva normal o se aproximan a élla. Toma como referencia los parámetros para estimar o probar. Esta prueba permite convertir la diferencia de promedios o de proporciones en unidades estandarizadas. La prueba t debe interpretarse con referencia a los grados de libertad, los mismos que varían directamente con el tamaño de la muestra. Mientras mayor es el tamaño de la muestra, mayores serán los grados de libertad y mientras mayor sea los grados de libertad más se acercará la distribución en la curva normal. Grados de libertad: Técnicamente se refiere a la libertad de variación entre un conjunto de puntajes. Así, si se tiene una muestra de cinco puntajes o grupos, cuatro son libres de variar, mientras que solo uno es valor fijo. En este caso, el cálculo de grados de libertad sería = 5 - 1 = 4 porque gl = n - 1.

Comparación de una media de una muestra con un estándar conocido En este caso se quiere probar si la media muestral tiene una diferencia significativa con un estándar conocido. Para muestras de más de 30 observaciones se utilizará la distribución Z. Para muestras pequeñas de menos de 30 observaciones la fórmula es la misma, pero por tener una distribución de t, el resultado se busca en una tabla de distribución T student con grados de libertad igual a n-1, porque se comparan solo dos grupos. El valor de “p” se obtiene mirando el valor calculado de “z” en la tabla de distribución normal o en la tabla “t”. Ejemplo Prueba Z: El promedio de Yodo en Sal de una muestra de 100 observaciones fue de 70 p.p.m con una desviación estándar de 15. El mínimo aceptable según las normas del país es de 67 p.p.m.

Page 26: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

26

Diferencia de medias = 70 - 67 = 3 Estadístico Z = 2 Valor de p = 0,024 Ejemplo: El valor de glucosa en la sangre considerado como normal es de 100. Se determinó la glucosa en una muestra de 25 personas y se encontró que el promedio en este grupo fue de 110 y la desviación estándar de 10. Queremos saber si esta diferencia es significativa, es decir que existe en la población o se debe al azar.

Ho = No hay diferencia entre el promedio de glucosa encontrado con el valor considerado como normal. Ha = Existe diferencia entre el promedio de glucosa encontrado y el valor de glucosa referencial. Diferencia de medias = 110 - 100 = 10 Grados de libertad = n-1 = 25 - 1 = 24

Estadistico t = 5 Valor de p < 0.05.

Comparación de medias de dos muestras En este caso se quiere probar si una media muestral tiene una diferencia significativa con otra media muestral. Si las dos muestras tienen más de 30 observaciones se utilizará la distribución Z. Si una de las muestras o grupos o las dos tienen menos de 30 observaciones el valor de p se busca en una tabla de distribución T student. El valor de “p” se obtiene de la tabla Z de la curva normal para muestras de más de 30 observaciones y la distribución “t” para muestras de menos de 30 observaciones. Ejemplo en muestras mayores a 30: Se comparan el contenido de Iodo en muestras de sal de dos marcas. La marca Crissal tiene 69,5 ppm de iodo en sal y una desviación estándar de 2,5 en 50 observaciones. La marca Super Max tiene 70,1 ppm y DE 2,3 en 60 observaciones.

Diferencia de medias = 70,1 - 69,5 = 0,6 Estadístico Z = 1,18 Valor de p= 0,53

Se acepta la hipótesis nula, se rechaza la hipótesis alternativa o de investigación Ejemplo de muestras menores a 30: En un estudio se determinó nivel de colesterol en mujeres que toman anticonceptivos y en mujeres que no toman anticonceptivos.

Los resultados fueron los siguientes:

Toman anticonceptivos No toman anticonceptivos

Media colesterol 198 181

Desvio estandar 29 12

No pariciepantes 26 26

Page 27: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

27

Hipótesis nula: No hay diferencia en los niveles de colesterol entre los dos grupos. Hipótesis Alternativa: Si hay diferencia en los niveles de colesterol entre los dos grupos. Diferencia de medias = -17

Estadístico t = 2,71 Valor de p = 0,04 (<0,05)

Se rechaza la hipótesis nula, se acepta la hipótesis alternativa o de investigación.

Análisis de varianza Es un test de significación estadística que se usa cuando se cruza una variable cualitativa con una cuantitativa y se quiere comprobar si las diferencias en los promedios de una variable que presenta más de dos categorías o muestras se deben al azar o existe en el universo. Cuando se realiza comparaciones entre promedios de dos muestras se utiliza la prueba t o Z, pero cuando el número de comparaciones aumentan, es decir son 3, 4 o más el procedimiento que puede utilizarse es hacer pruebas -t- por separado. Esto implica no sólo gran cantidad de trabajo sino también una limitación estadística porque aumenta la probabilidad de cometer el error alpha o Tipo I, es decir, rechazar la Ho cuando es verdadera y debe ser aceptada, lo que implica obtener resultados estadísticamente significativos por error de muestreo más que por una verdadera diferencia poblacional. Para superar este problema se utiliza la prueba ANALISIS DE VARIANZA (ANOVA). Esta prueba permite comparar 3, 4 o más promedios de diferentes muestras. La prueba calcula la Razón F que indica la magnitud de la diferencia entre los grupos en relación a la magnitud de la variación dentro de cada grupo. Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos en relación con la variación dentro de éstos, menor será el valor de p y por lo tanto mayor será la probabilidad de rechazar la Ho y aceptar la Ha o de trabajo. Esta prueba también se interpreta con el valor de p de la misma manera que el Chi cuadrado. Ejemplo: Promedio de peso en los estudiantes de 4 facultades de la universidad. Variación dentro del grupo: DIBUJO Variación entre los grupos: DIBUJO RAZON F: Indica la magnitud de la diferencia entre los grupos en relación a la magnitud de la variación dentro de cada grupo. Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos en relación con la variación dentro de éstos, mayor será la probabilidad de rechazar la Ho y aceptar la Ht o de trabajo.

Page 28: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

28

PPrruueebbaass ddee ssiiggnniiffiiccaacciióónn ppaarraa rreeggrreessiióónn yy ccoorrrreellaacciióónn Para analizar si los resultados de los coeficientes de correlación y regresión se deben al azar o son representativos del universo del que se obtuvo la muestra, se pueden usar los Intervalos de Confianza o las Prueba F de significación para el coeficiente de correlación

r o para el coeficiente de regresión β (Beta).

La lógica de análisis es la misma que antes. Para lo cual es necesario definir la Hipótesis Nula (Ho) y el Valor crítico de “p”.

5.5.2. SEGÚN EL TIPO DE HIPÓTESIS U OBJETIVOS DEL ESTUDIO

Como se puede analizar en la sección anterior hay dos tipos de hipótesis u objetivos: los que buscan asociaciones o relación de dependencia/ independencia y los que contrastan resultados entre dos o más grupos o muestras. Ya se señaló previamente que las dos hipótesis principales a contrastar pueden ser las diferencias entre promedios o proporciones de muestras (contrastar resultados) y la relación o asociación entre dos variables cualitativas (evaluar asociaciones).

Tipo de hipótesis Pruebas de significación estadística

Relación o asociación Chi cuadrado Test de exactitud de Fisher Correlación y regresión

Comparación o contrastación de resultados

Z o t para diferencia de proporciones. Z o t para diferencia de promedios ANOVA

5.5.3. ANÁLISIS POR EL TIPO DE DISEÑO: INDEPENDIENTE O PAREADO

Los datos apareados son aquellos que proceden de los mismos individuos en dos condiciones diferentes. En general, se denominan a las pruebas que incluyen datos apareados pruebas antes-después. Por ejemplo en los estudios clínico controlados se hacen mediciones antes después en los mismos individuos. Cuando los datos obtenidos proceden de diferentes individuos se denominan independientes, por ejemplo cuando se hacen encuestas transversales en la misma población en dos ocasiones pero en dos muestras diferentes.

5.5.4. POR TIPO DE DISTRIBUCIÓN NORMAL O SESGADA

Si las muestras se distribuyen normalmente es preciso realizar un test de homoscedasticidad: Si este test confirma la similitud de varianzas (valor de p mayor de 0,05 para diferencia de varianzas), indicará el empleo de test paramétricos. Si, por el contrario las muestras no se distribuyen normalmente, se plantean dos opciones: emplear

Page 29: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

29

directamente test no paramétricos o realizar las transformaciones. Hay que recordar que la diferencia de promedios se utiliza cuando las distribuciones de los grupos analizados son normales y la diferencia de mediana cuando una o más de las distribuciones evaluadas son asimétricas. Para transformar una distribución sesgada en normal se puede elevar al cuadrado u obtener el logaritmo de cada observación y obtener el promedio de esta distribución.

PPrruueebbaass ppaarraammééttrriiccaass Si nos interesa evaluar la relación de independencia-dependencia entre dos variables emplearemos los estudios de correlación. Si nos interesa comparar las medias de diferentes grupos, en el caso de dos muestras emplearemos la prueba de la T DE STUDENT, para datos pareados o independientes, y el ANALISIS DE VARIANZA en el caso de que existan tres o más muestras. El análisis de varianza puede poner de manifiesto que existen diferencias significativas entre los diferentes grupos; en este caso es útil conocer entre qué grupos existen diferencias. Para esto se hará la DSH de Turkey (Diferencia Significativa Honesta).

PPrruueebbaass nnoo ppaarraammééttrriiccaass Los estudios de correlación no paramétricos más utilizados son el COEFICIENTE DE CORRELACION DE SPEARMAN Y EL COEFICIENTE DE CORRELACION DE KENDALL. Ambos coeficientes tienen un significado equivalente al coeficiente de Pearson. La comparación entre diferentes muestras con datos pareados se realiza empleando el TEST DE WILCOXON. Si las muestras son independientes existen varios test: algunos son sensibles únicamente a medidas de tendencia central (U de MANN-WHITNEY) mientras que otros (prueba de Kolmogorov-Smirnov para dos muestras o test de las rachas de Wald-Worfowitz) son sensibles a diferencias en distribución, tendencial central, etc. Si existen más de dos grupos, el equivalente al análisis de varianza con un factor de variación es el test de Kruskal-Wallis, mientras si existen dos factores de variación el equivalente al análisis de la varianza es el test de Friedman.

DDiiffeerreenncciiaass eennttrree llaass pprruueebbaass ppaarraammééttrriiccaass yy nnoo ppaarraammééttrriiccaass

PRUEBAS PARAMETRICAS PRUEBAS NO PARAMETRICAS

Mayor potencia Precisa mayor número de individuos en la muestra Mayor rigor matemático Solo datos cuantitativos Aplicación más compleja

Más conservadora Precisa muestras de menor número. Menor Rigor matemático Datos Cuantitativos o cualitativos. Aplicación más sencilla

Page 30: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

30

5.5.4. SEGÚN COMPORTAMIENTO DE LA VARIABLES

VVaarriiaannzzaass ssiimmiillaarreess oo ddiiffeerreenntteess Para conocer si las muestras o grupos tienen varianzas similares y diferentes se debe realizar un test de homoscedasticidad (test de Hartley, test de Cochran y test de Bartllert) adecuado a las condiciones del estudio. Así, en presencia de varias muestras de tamaño similar debe considerarse cuál es el número de grupos de estudio; si es inferior a doce suele emplearse el test de Hartley, mientras que si es superior está indicado el test de Cochran. Si el número de individuos de cada muestra es muy diferente debe utilizarse el test de Bartllet, prueba que requiere como condición de aplicación que la muestra se distribuya normalmente. Si las variables tienen varianza similares se utilizan test paramétricos, pero si son diferentes o heterogéneas se deben utilizar test no paramétricos.

5.5.5. NÚMERO DE GRUPOS DE ESTUDIO

El test estadístico que debe utilizarse es diferente según el número de grupos de estudio (dos grupos o más de dos grupos). En esta última circunstancia, debido a la posibilidad de obtener diferentes significativas al azar (postulado de Bonferroni) lo adecuado es realizar inicialmente un test que evalúe si existen diferencias significativas globales entre todos los grupos. En este caso, deberá realizarse a continuación otras pruebas que intentan descubrir entre qué grupos existen diferencias. Un ejemplo de prueba para comparar los resultados entre dos o mas grupos es el ANOVA.

5.5.6. PODER ESTADÍSTICO O CARÁCTER CONSERVADOR

En algunos casos, se disponen de varias pruebas estadísticas diferentes para un mismo problema. La elección de una u otra prueba va a depender de varios factores, entre ellos el carácter conservador o el poder estadístico de la prueba. Un test más conservador proporciona intervalos de confianza más amplios y por lo tanto es menos probable que detecte diferencias significativas si estas no existen. Por el contrario, un test más potente tiene más capacidad para descubrir pequeñas diferencias, pero también es posible que localice diferencias que no poseen un significado real. Un ejemplo de test más conservador es el Chi cuadrado y un ejemplo de test más potente el Test exacto de Fisher

Page 31: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

31

5.6. EVALUACIÓN DE LOS INTERVALOS DE CONFIANZA A los Intervalos de Confianza se les denomina también Pruebas de Estimación y consiste en calcular un parámetro a partir de un estimador, o calcular el valor aproximado de una variable en el universo de estudio (Intervalos de Confianza) a partir de los resultados de la muestra. El propósito es que, a partir de los resultados de las muestras (estimador), realizar generalizaciones en el universo del que proceden (parámetro).

Los Intervalos de Confianza (IC) proveen una vía alternativa de evaluar los efectos del error muestral y tienen más información que las pruebas de significación. Efectivamente, los IC proveen un rango o intervalo en el cual puede estar el valor de la variable estudiada en la población (universo). Este rango puede tener distintos niveles de certeza o probabilidad, en general en los estudios causales se usa un nivel de certeza o confianza de 95%.

Supongamos que en un estudio clínico controlado de dos drogas anti-hipertensivas, muestran que el promedio de la presión diastólica en sangre en un grupo tiene una medición de 95 mm. de mercurio, al mismo tiempo en el otro grupo tiene un promedio de solo 90 mm. de mercurio. La diferencia de promedios de 10 mm. parece bastante grande pero hay que recordar que este valor es el encontrado en las muestras y que puede estar influenciado por el error muestral.

En este estudio clínico controlado se obtiene un IC95% de 3 a 17, que significa que la diferencia de presión arterial en el universo podría ir de 3 como el valor mas bajo a 17 como el valor más alto, aunque podría ser cualquier valor dentro del rango (3, 4, 5, 6, 7, 8, .....16 o 17).

Los IC se expresan como: IC 95% 3 < 10 < 17

Se puede decir entonces esto que un intervalo de 95% de nivel de confianza, nos da un rango en el cual nosotros tenemos 95% de certeza de que en este intervalo cae el valor real de la variable en estudio en universo del que proviene la muestra. Tomando el ejemplo anterior se puede decir que en la muestra la diferencia de promedios de presión arterial diastólica es de 10 y que en el universo o población de la que se tomó la muestra puede ser de 3 a 17 con una certeza o probabilidad de acierto del 95%.

Se pueden calcular Intervalos de Confianza para análisis univarial o para análisis bivarial. En la siguiente sección se explica intervalos de confianza para análisis bivarial.

Page 32: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

32

INTERVALOS DE CONFIANZA PARA ANÁLISIS BIVARIAL

Se pueden calcular IC para todos los parámetros estadísticos de análisis bivarial:

1. Las medidas de asociación: Riesgo Relativo (RR), Razón de Productos Cruzados (OR) y Riesgo Atribuible (RA).

2. De la diferencia de promedios, medianas o proporciones de dos muestras

3. Del Coeficiente de Correlación r y del Coeficiente de Regresión (β)

En la siguiente tabla se presentan el tipo de intervalos a calcular según las variables de estudio.

Tabla 2. Intervalos de confianza según tipo de cruces de variables

Variable dependiente

CUALITATIVA CUANTITATIVA

Variable Independiente

CUALITATIVA

IC95% para RR, OR, RA y NNT

IC95% para diferencias de medias o medianas.

CUANTITATIVA IC95% para OR ajustado (Regresión logística)

IC95% para Coeficiente de

Correlación r y Coeficiente

de Regresión β.

LOS INTERVALOS DE CONFIANZA COMO PRUEBAS DE SIGNIFICACIÓN

Los Intervalos de Confianza pueden también ser usados como pruebas de significación estadística. El primer paso para hacer esto es plantearse la Ho y la Ht. En el ejemplo anterior se planteó que en un estudio clínico controlado de dos drogas anti-hipertensivas, muestran que el promedio de la presión diastólica en sangre en un grupo tiene una medición de 95 mm. de mercurio, al mismo tiempo en el otro grupo tiene un promedio de solo 90 mm. de mercurio. La diferencia de promedios de 10 mm.

En el ejemplo anterior la Ho plantearía que el valor real de la diferencia entre los tratamientos podría tener un valor cercano o igual a cero (0) en la población de la que se obtuvo la muestra, es decir que no hay diferencias. La Ha o Ht plantearía que la diferencia de promedios es diferente de 0. Si existe un valor igual a 0 dentro del intervalo aceptamos la Ho y rechazamos la alternativa. En este estudio clínico controlado se obtuvo un IC95% de 3 a 17.

IC 95% 3 < 10 < 17

Page 33: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

33

En este ejemplo el 0 (cero) cae fuera de este intervalo por lo tanto concluimos que es muy probable que este sea un valor real. Esto es equivalente a tener un “valor de p” menor de 0,05 y por lo tanto es estadísticamente significativo. Otro aspecto interesante a analizar es la amplitud del intervalo, ya que a amplitudes mayores significa que el tamaño de la muestra fue pequeño y por lo tanto hay una probabilidad mayor de cometer errores. Si el rango o amplitud es pequeño, ejemplo IC95% 3 < 10 < 17, no es lo mismo que un rango o amplitud de 2 < 10 < 24. En este último caso la interpretación es diferente, porque el límite inferior está más cercano a cero y la amplitud es mayor, lo que nos da una mayor probabilidad de cometer un Error Tipo II y por lo tanto que la evidencia no es lo suficientemente confiable para concluir que hay diferencia entre los tratamientos. En otro ejemplo, en un IC95% de -1 < 10 < 17, el cero (0) está dentro del intervalo, por lo que aceptamos la Ho y rechazamos la Ha, por lo tanto el resultado no es estadísticamente significativo. De igual manera si se tiene el un IC95% de 0.7 < 10 < 17 aunque el resultado es estadísticamente significativo, el rechazar la Ho existe una alta posibilidad de cometer un Error Tipo I. En resumen en este ejemplo, si el valor 0 de la diferencia de promedios cae entre el intervalo de confianza se concluye que no hay efecto, si cae fuera del rango nosotros concluimos que la no presencia de efecto es improbable, esto es equivalente a decir que los resultados fueron estadísticamente significativos Los intervalos de confianza son siempre interpretados de la misma manera, tanto si se trata de un estudio clínico controlado, un estudio de corte o cualquier otro tipo de estudio. En todos se prueba la hipótesis de que no hay diferencia entre los dos grupos. La formulación de las hipótesis cambiará según el tipo de estimador que se utilice. Por ejemplo si se utiliza el Riesgo Relativo o la Razón de Momios para un estudio de un factor las hipótesis dirían:

Ho ≤ 1 HT > 1

Con un RR de 3, se tiene un IC95% de 2 < 3 < 5. En este caso el valor uno (1), no está en el intervalo, por lo que rechazamos la hipótesis nula y aceptamos la alternativa. La ventaja de los intervalos de confianza es que estos hacen mucho más que solo indicar si el resultado puede ser por un error muestral, muestran y permiten evaluar la magnitud del error muestral, es decir cuan pequeño o cuán grande el tamaño real del efecto puede ser.

5.7. IDENTIFICACION DE ERRORES DE ANALISIS INFERENCIAL El valor de p y los intervalos de confianza proveen un guía útil para la interpretación de resultados cuando el análisis estadístico ha sido realizado correctamente, pero el reto es identificar cuando el análisis es erróneo. Con los detalles que se presentan en los

Page 34: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

34

artículos científicos es difícil decir si hay errores en el análisis. Todos los test de análisis hacen algunas presunciones acerca de los datos, pero en la medida que no hay acceso a los datos crudos no es posible probar si existen o no en la realidad.

VALORES FUERA DE RANGO

De cualquier manera hay algunos aspectos que pueden servir para identificar posibles errores. Cuando los datos son presentados en tablas y figuras hay la posibilidad de identificar valores fuera de rango. Un valor fuera de rango es usualmente un valor muy alto o un valor muy bajo. Por ejemplo muchos de los valores para la presión diastólica sanguínea de adultos en la población general pueden esperarse que caigan entre 46,5 a 90mm. Hg, valores menores de 40 o mayores 250 pueden ser denominados fuera de rango. Estos pueden ser datos correctos o pueden ser producto de errores de recolección. La presencia de aunque sea un poco de observaciones que caen fuera del conjunto de datos puede distorsionar los resultados porque tienen una gran influencia sobre el promedio. En términos estadísticos valores un poco distantes pueden hacer un pull en contra del conjunto de datos creando un efecto equivocado. No hay una regla general para tratar con los datos fuera de rango, pero si están presentes se deberían tomar algunas medidas para investigar sus efectos, ignorarlos pone en duda el conjunto del análisis. Por esta razón en los artículos científicos se deben describir como los valores fuera de rango fueron manejados .

LA NO INDEPENDENCIA

Una presunción común en los test estadísticos es que todas las observaciones son independientes. Por ejemplo, si en una encuesta se midió el peso en una muestra de niños escolares, se asume que el valor del peso de un niño no tiene efecto en el peso del siguiente niño. Sin embargo si un niño es pesado más de una vez, como en los estudios clínicos controlados en los cuales hay pre-evaluaciones y post-evaluaciones de los mismos sujetos de estudio, no existe independencia entre mediciones. Hay test estadísticos y métodos estadísticos especiales, como los métodos de medidas repetidas, los cuales pueden resolver este problema, pero muchos de los test estadísticos no lo hacen. Si en algunos estudios algunos individuos son medidos varias veces para tratar de mejorar el tamaño de la muestra, esto es válido solo cuando los métodos estadísticos pueden corregir la no independencia de los datos.

HALLAZGOS CASUALES ENMASCARADOS COMO HIPÓTESIS

Muchos, sino la mayoría de los estudios recolectan una gran cantidad de datos de los sujetos a ser estudiados o recogen datos de muchas variables, a pesar de que pueden haber sido diseñados para probar unas pocas hipótesis específicas. Sin embargo, con mucha frecuencia se exploran de varias formas la relación entre variables o los efectos, aunque estas no hayan sido formuladas en las hipótesis.

Page 35: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

35

Un ejemplo de lo descrito ocurre cuando se analizan los datos sub dividiéndoles (análisis estratificado) por variables como edad, sexo o gravedad de la enfermedad. Estos procedimientos en investigación son válidos y puede ser una perdida no explorar los datos enteramente; pero se cometen errores cuando los resultados obtenidos por azar o por accidente son presentados como si fueran resultado de una hipótesis previamente formulada. Por ejemplo, en un estudio clínico de dos anti-hipertensivos en la que los investigadores podrían chequear si la misma magnitud del efecto se observó en los jóvenes comparados con los viejos o los hombres comparados con las mujeres, sería legítimo reportar alguna diferencia encontrada entre estos grupos siempre y cuando se especifique claramente como un avance del análisis. Pero es incorrecto presentarlo como el resultado de una hipótesis que el estudio quería probar. Hay muchas formas mediante las cuales los datos pueden subdividirse, por lo tanto por efecto del azar algunos resultados estadísticos pueden revelar interesantes efectos o asociaciones, los cuales pueden ser probados en otros sub estudios. Hay que recordar que un simple test estadístico no puede ser usado para generar y probar hipótesis.

CAJA NEGRA ANÁLISIS

Aplicar Test estadísticos en forma apropiada mejora la credibilidad de los artículos científicos, pero no se debe asumir que los más sofisticados test dan más autoridad a los hallazgos. En la actualidad los paquetes computacionales hacen muy fácil llevar a cabo análisis complejos aún cuando los usuarios no tengan un completo entendimiento de los métodos que han sido usados. Con análisis más complejos se tienden a ser mayores presunciones a cerca de los datos que están siendo analizados y es también muy fácil cometer errores durante el análisis. Los artículos que presentan solamente los resultados de algunos análisis complejos pueden ser vistos con sospecha, ya que esto hace más difícil la identificación de problemas con los datos como por ejemplo los sesgos, o asimetría de las curvas y los valores fuera de rango. Es mejor si los resultados de análisis más simples son presentados primero, entonces estos pueden ser chequeados para ver si están de acuerdo con los más complejos, si existen discrepancias. Las discrepancias deberían ser explicadas en el texto del artículo; discrepancias no explicadas pueden poner dudas en la propiedad de los análisis. Los sesgos de la investigación significan que los resultados que nosotros alcanzamos son sistemáticamente diferentes de lo que realmente son. Los sesgos pueden ocurrir en una variedad de asuntos pero sus efectos son siempre los mismos, los resultados observados son equivocaciones y las conclusiones son erróneas. Los sesgos pueden presentarse cuando en el estudio los sujetos fueron seleccionados; aun cuando los estudios han sido llevados cuidadosamente es posible que estos incluyan diferencias con los datos de la población general de la cual se obtuvo la muestra, algunos podrían haber sido incluidos porque eran enfermos más severos o viceversa.

Page 36: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

36

6. COMPRESION E INTERPRETACION DE MEDIDAS ESTADISTICAS DE ANALISIS BIVARIAL

Para la interpretación de la eficacia de un medicamento o la seguridad del mismo se deben aplicar los siguientes criterios:

1. Dirección del efecto 2. Fuerza o poder del efecto o significación clínica 3. Significación estadística o confiabilidad

Para el análisis se puede utilizar el siguiente gráfico. En este gráfico los valores equivalentes a igual efecto están en el centro (línea vertical). Los valores que caen a la derecha se interpretan como mayor efecto y los valores que caen a la izquierda como menor efecto. Menor Efecto Igual Efecto Mayor efecto

6.1. INTERPRETACIÓN DEL RIESGO RELATIVO (RR) Y DE LA RAZÓN DE MOMIOS (OR) Tanto el riesgo relativo como la razón de momios se analizan de la misma manera. Hay que recordar que el RR se utiliza en estudios experimentales y en cohortes y los OR en estudios de casos controles y estudios de corte transversal. Para analizar estas dos medidas estadísticas se presenta en el gráfico como consignar los valores de RR y OR. Como ya se explicó anteriormente hay que aplicar cuatro criterios: Para el análisis de la dirección y fuerza del efecto se utilizan los resultados de los indicadores estadísticos en la muestra (resultados crudos del estudio), para el análisis de la significación estadística se utilizan las pruebas de significación y/o los Intervalos de confianza y para el análisis de la significación clínica se utiliza tanto los valores crudos de los indicadores como los IC95%. En el análisis de la Dirección como se explicó anteriormente, en estas dos medidas estadísticas un valor igual a 1 significa igual efecto, valores mayores de 1 significan mayor efecto y menores de uno menor efecto. Sin embargo debe estar claro que menor efecto no quiere decir menos eficaz ya que esto depende del indicador de efecto que se este

Page 37: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

37

evaluando. Si evaluamos días estadía hospitalaria, valores menores de 1 significan menor estancia hospitalaria, lo cual es un resultado beneficioso y por lo tanto se puede interpretar como mas eficaz. Para el análisis de fuerza o poder del efecto o de la asociación la regla es que mientras más lejos este el RR u OR crudo de la línea de igualdad (valor 1). Mientras más alejado este de uno el valor a cualquiera de los dos lados, mayor es el poder. Analizar el poder o fuerza en valores mayores de uno es muy fácil, un RR de 5 tiene mayor fuerza que 2. Pero el análisis de valores menores de 1 suele ser difíciles, porque no se toma en cuente que el RR y el OR son razones y no números absolutos. En razones un RR iguala dos para mayor efecto es igual a 0,5 para menor efecto. Por ejemplo si hay 20 hombres y 10 mujeres en una serie de datos la razón Hombres /Mujeres es igual a 2, pero si calculo la razón de Mujeres/ Hombres la razón es 0,5. Para entender la fuerza o poder en RR u OR menores de 1 hay que hacer una comparación en espejo como se presenta en la tabla y en el gráfico a continuación.

Mayor Efecto Menor Efecto

1,5 0,67

2 0,50

3 0,33

3,5 0,29

4 0,25

5 0,20

6 0,17

10 0,10 Menor Efecto Igual Efecto Mayor efecto

0,17 0,20 0,25 0,33 0,5 1 2 3 4 5 6

En la evaluación de la significación clínica se debe tomar en cuenta la fuerza o poder y el intervalo. Mientras mayor sea la fuerza o poder de la asociación o efecto, mayor será la significación clínica, pero también mientras más alejado este el intervalo de la línea de la igualdad la significación clínica será mayor. Por ejemplo un RR crudo de 4 con IC95% de 1,4 a 6,6 puede interpretarse como de alta significación clínica, pero como el límite inferior

Page 38: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

38

está muy cerca de 1 la probabilidad de que esta fuerte asociación sea también fuerte en el universo del que se obtuvo la muestra es baja. Para facilitar el análisis de la significación clínica se puede transformar los valores en categorías ordenales de la siguiente manera.

Categoría Fuerza o poder Mayor Efecto Menor Efecto

Débil 1,1 - 1,49 0,66 -0,99

Moderado 1,5 - 1,99 0,67 - 0,49

Fuerte 2,0 -3,49 0,50 - 0,28

Muy Fuerte 3,5 y mas 0,29 y menos Para el análisis de significación estadística puede utilizarse las pruebas de significación o los Intervalos de Confianza. Para esta segunda alternativa la regla es la siguiente. Si el intervalo no está cruzado por la línea de igualdad o el 1 no está dentro del intervalo, esta asociación es estadísticamente significativa o confiable. Se puede evaluar también el nivel de significación con la estrechez o amplitud del intervalo: Intervalos más cortos o estrechos, no cruzados por la línea de la igualdad son más altamente significativos.

6.2. ANÁLISIS DE RIESGO ATRIBUIBLE Al igual que el Riesgo Relativo, para analizar el Riesgo Atribuible (RA) se deben tomar en cuenta cuatro criterios: dirección, fuerza o poder, significación estadística y significación clínica. Dirección: El riesgo atribuible es una diferencia de tasas o proporciones, para su análisis el valor 0 es equivalente a igual efecto, cualquier valor con signo positivo es mayor efecto, cualquier valor con signo negativo es menor efecto. Fuerza o poder: Nuevamente mientras más alejado de 0 este el RA a cualquiera de los dos lados, mayor es el poder o fuerza. Al igual que con RR y OR para la evaluación de la significación clínica se debe tomar en cuenta la fuerza o poder y el intervalo. Mientras mayor sea la fuerza o poder de la asociación o efecto, mayor será la significación clínica, pero también mientras más alejado este el intervalo de la línea de la igualdad la significación clínica será mayor. Los valores del Riesgo Atribuible pueden ser clasificados por categorías de fuerza de la siguiente manera:

Categoría Fuerza o poder Mayor Efecto Menor Efecto

Débil +1 a + 9% -1 a – 9%

Moderado +10 a + 49% -10 a – 49%

Fuerte +50 a + 80% - 50 a – 80%

Page 39: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

39

Muy Fuerte + 80 a +100% - 80 a -100% El riesgo atribuible se puede también expresar en proporciones de tal manera que +100 es igual a +1 y menos 100 es igual a -1. Para el análisis de significación estadística puede utilizarse las pruebas de significación o los Intervalos de Confianza. Para esta segunda alternativa la regla es la siguiente. Si el intervalo no está cruzado por la línea de igualdad o el 0 no está dentro del intervalo, esta asociación es estadísticamente significativa o confiable. El nivel de significación se evalúa con la estrechez o amplitud del intervalo: Intervalos más cortos o estrechos, no cruzados por la línea de la igualdad son más altamente significativos. Menor Efecto Igual Efecto Mayor efecto

No Confiable

Confiable

Confiable

No confiable

-50 -40 -30 -20 -10 0 + 10 +20 +30 +40 + 50

6.3. ANÁLISIS DE DIFERENCIA DE PROMEDIOS O MEDIANAS El análisis de diferencia de promedios o de medianas se hace de la misma manera que el análisis de Riesgo Atribuible. Solo en la fuerza o poder hay diferencias, ya que esta depende del rango de valores máximos y mínimos que pueda tener el indicador de efecto a evaluar. Por ejemplo si evaluamos carga parasitaria para Plasmodium una diferencia de promedios de 50 puede ser considerada efecto fuerte porque el número de parásitos por campo más altos no llega a más de 100, mientras que si evaluamos carga viral para VIH esta misma diferencia es muy débil porque la carga viral llega a valores de millones. El análisis grafico de la diferencia de promedios es igual al del Riesgo Atribuible

6.4. ANALISIS DE CORRELACIÓN

Para analizar el coeficiente de correlación r, hay que recordar que los valor máximo es 1

y el valor mínimo 0. Al igual que en todas los demás medidas estadísticas se deben aplicar los cuatro criterios:

Page 40: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

40

Dirección: Valores positivos se interpretan como correlación positiva y valores con signo negativo como correlación negativa. Cero es ninguna correlación.

Fuerza o poder: Mientras más alejado de cero sea el valor de r mayor fuerza de

asociación. En la tabla siguiente se presentan en categorías la fuerza o poder de la asociación o correlación. Correlación negativa Correlación positiva

-1 -0.99 a -0.75 -0.74 a -0.50 -0.49 a - 0.10

Correlación negativa perfecta Correlación negativa fuerte Correlación negativa moderada Correlación negativa débil

+0.10 a 0.49 +0.50 a 0.74 +0.75 a 0.99 +1.00

Correlación positiva débil Correlación positiva moderada Correlación positiva fuerte Correlación positiva perfecta

0.00 Ninguna correlación

Para el análisis de significación estadística puede utilizarse las pruebas de significación o los Intervalos de Confianza. Para esta segunda alternativa la regla es la siguiente. Si el intervalo no está cruzado por la línea de igualdad o el 0 no está dentro del intervalo, esta asociación es estadísticamente significativa o confiable. El nivel de significación se evalúa con la estrechez o amplitud del intervalo: Intervalos más cortos o estrechos, no cruzados por la línea de la igualdad son más altamente significativos. Correlación negativa Igual Efecto Correlación Positiva

-1 -0,8 -0,6 -0,4 -0,2 0 + 0,2 +0,4 +0,06 +0,8 + 1

6.5. ANÁLISIS DE GRAFICOS DE METAANALISIS Los gráficos de resultados de Meta análisis tienen dos tipos de representación de intervalos.

Intervalos de Confianza de cada uno de los estudios que forman parte del metaanálisis en donde la medida estadística cruda (RR, OR, RA, etc.) está representada por un cuadrado y el intervalo por una línea. El tamaño del cuadrado

Page 41: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

41

está determinado por el tamaño de la muestra, mientras más grande es mayor es la contribución de este estudio al metaanálisis.

Intervalo de Confianza del metaanálisis representada por un rombo. Los extremos horizontales del rombo son el limite interior (Li) y superior (Ls) y la línea que uno los dos puntos extremos verticales la medida estadística cruda.

Li Ls RR crudo Ejemplo:

7. ACTIVIDADES DE APRENDIZAJE

7.1. TAREA INDIVIDUAL Ejercicio 1. Con la siguiente información calcule las medidas estadísticas que correspondan:

Page 42: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

42

Autor (año) Intervención experimental

N personas Muertes (n) Medidas de asociacion

G. Experim

G. Control

G. Experim

G. Control

RR OR RA NNT

Douglass 82 (USA)

FU+Sem. 71 71 29 40

Schlag 82 (Alemania)

FU+Carm. 49 54 10 17

Escoja uno de los indicadores, analice los resultados y evalue la dirección y poder cual de los dos estudios tiene mayor eficacia

Estudio Medida estadística

Dirección Fuerza y Poder

En cuál de los dos estudios la eficacia es mejor: _______________________ Ejercicio 2. Analice la dirección y fuerza (poder) de la efectividad de los siguientes resultados. Pregunta 2.1: RR = 1,3 Mayor efecto poder bajo Mayor efecto poder moderado Menor efecto poder bajo Menor efecto poder moderado Pregunta 2.2. OR = 0,20 Mayor efecto poder fuerte Mayor efecto poder muy fuerte Menor efecto poder fuerte Menor efecto poder muy fuerte Pregunta 2.3. Diferencia de promedios de edad = - 5 Mayor efecto poder bajo Mayor efecto poder moderado Menor efecto poder bajo Menor efecto poder moderado Pregunta 2.4. Coeficiente de correlación r = +0,2 Correlación positiva poder bajo Correlación positiva poder moderado Correlación negativa poder bajo Correlación poder moderado

Page 43: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

43

Ejercicio 3. Se realizó un estudio de series de casos para evaluar la eficacia del Misoprostol en la Vagiprost en el manejo de la muerte fetal intrauterina.

Pregunta 3.1. Analice el siguiente resultado del estudio el estudio “Vagiprost en el manejo de la muerte fetal intrauterina en el segundo y tercer trimestre” y concluya:

Variable Trimester Range Media ±SD P-value

Edad 2do

3ro

17-38

17-38

25.09 ± 5.12

25.53 ± 5.67

0,464

Pregunta 3.2. Qué tipo de prueba estadística se realiza en este resultado

a. Diferencia de promedios b. Diferencia de medianas c. Diferencia de rangos d. Riesgo relativo

Pregunta 3.3. Cómo interpreta el valor de p de esta prueba (0,464): a. Estadísticamente significativo, la diferencia de promedios no es confiable b. Estadísticamente significativo, la diferencia de promedios es confiable c. No Estadísticamente significativo, la diferencia de promedios no es confiable d. No Estadísticamente significativo, la diferencia de promedios no es confiable

Pregunta 3.4. Analice el siguiente texto “La tasa de éxito fue de 90% y 45% en mujeres en el tercer y segundo trimestre respectivamente” y responda cual es la razón de tasas de éxito (RR) de uso de misoprostol entre tercero y segundo trimestre:

a. RR = 2 b. RR = 0,5 c. RR = 50% d. RR= 2,5

Pregunta 3.5. Qué tipo de gráfico es el que se presenta a continuación:

a. Gráfico de asociación de variables cuantitativa con cuantitativa

b. Gráfico de asociación de variables cualitativa con cuantitativa

c. Gráfico de asociación de variables cuantitativa con cualitativa

d. Gráfico de asociación de variables cualitativa con cualitativa

Page 44: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

44

Pregunta 3.6. Analice el resultado que se presenta en el gráfico anterior: Correlación positiva muy fuerte altamente significativa

Correlación positiva muy fuerte medianamente significativa

Correlación negativa muy fuerte altamente significativa

Correlación negativa muy fuerte no significativa

Pregunta 3.7. Qué pruebas de estadística bivarial debe usar para el siguiente ejemplo: Variable Independiente: Tratamiento A vs. Tratamiento B Variable Dependiente: Carga pasasitaria de plasmodium

a. Riesgo Relativo b. Razón de productos cruzados (OR) c. Diferencia de medias

d. Coeficiente de correlación r

Page 45: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

45

7.2. TAREA INDIVIDUAL 2. Análisis de resúmenes de artículos científicos Ejercicio 4. Utilizando un gráfico evalúe la dirección y el nivel de confiabilidad de los intervalos de confianza (IC95%) que se presentan a continuación.

Monoterapia con carbamazepina versus valproato para la epilepsia

Marson AG, Williamson PR, Hutton JL, Clough HE, Chadwick DW; on behalf of the epilepsy monotherapy trialists

Marson AG, Williamson PR, Hutton JL, Clough HE, Chadwick DW; on behalf of the epilepsy monotherapy trialists

Cochrane Database of Systematic Reviews, Issue 3, 2008 (Status in this issue: )

DOI: .CD001030.pub 3 Esta revisión debe ser citada como: Marson AG, Williamson PR, Hutton JL, Clough HE, Chadwick DW;

on behalf of the epilepsy monotherapy trialists . Monoterapia con carbamazepina versus valproato para la epilepsia (Cochrane Review). In: La Biblioteca Cochrane Plus, Issue 3, CD001030.

La última modificación significativa de esta revisión sistemática se hizo por última vez el 18 Abril 2000. Las revisiones Cochrane se revisan periódicamente y se actualizan de ser necesario.

Resumen

Antecedentes

La carbamazepina y el valproato son drogas de primera línea para el tratamiento de la epilepsia. A pesar de la falta de evidencia fuerte derivada de ensayos controlados aleatorios individuales, hay una fuerte creencia acerca de que el valproato es el medicamento de elección para las epilepsias generalizadas y la carbamazepina para las epilepsias parciales.

Objetivos

Lograr una visión general de la mejor evidencia que compara la monoterapia con carbamazepina y con valproato.

Estrategia de búsqueda

Nuestra búsqueda incluyó: (a) MEDLINE 1966-99, (b) La Biblioteca Cochrane (The Cochrane Library)1999 tomo 4, (c) El Registro de ensayos del Grupo Cochrane de Epilepsia (The Trial Register of the Cochrane Epilepsy Group) (d) la industria farmacéutica.

Criterio de selección

Ensayos controlados con asignación al azar que comparen la monoterapia con carbamazepina y con valproato para la epilepsia.

Recopilación y análisis de datos

Page 46: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

46

Esta fue una revisión de datos individuales de pacientes. Las medidas de resultado fueron tiempo transcurrido hasta la exclusión del tratamiento asignado, tiempo hasta la remisión a 12 meses, y tiempo hasta la primera crisis después de la aleatorización. Los datos fueron analizados utilizando la prueba del Logrank estratificada, y se expresaron los resultados como razón de riesgos (hazard ratios) (HR) (IC del 95%), en donde un HR >1 indica que es más probable que haya un evento con el uso del valproato. También se realizó una prueba para la interacción entre el tratamiento y el tipo de epilepsia (parcial versus generalizada).

Resultados principales

Hubo datos de resultado disponibles para 1265 pacientes pertenecientes a cinco ensayos, lo que representa el 85% de los pacientes reclutados dentro de los ocho ensayos que cumplieron con nuestros criterios de inclusión. Los resultados generales principales fueron (HR IC del 95%): Tiempo transcurrido hasta la exclusión del tratamiento 0.97 (0.79-1.18), remisión a los 12 meses 0.87 (0.74-1.02), primera crisis 1.09 (0.96-1.25) Estos datos sugieren que no hay una diferencia global en los resultados. La prueba para la interacción entre el tratamiento y el tipo de epilepsia no fue significativa para el tiempo transcurrido hasta la exclusión del tratamiento ni para la remisión a los 12 meses, pero fue significativa para el tiempo transcurrido hasta la primera crisis. La distribución de edad de los adultos clasificados con epilepsia generalizada indica que un número significativo de pacientes pueden tener una epilepsia mal clasificada.

Conclusiones de los autores

Encontramos alguna evidencia que apoya la política del uso de la carbamazepina como tratamiento de primera elección en las epilepsias parciales, pero no encontramos evidencia que apoye la elección del valproato para las epilepsias generalizadas. Los intervalos de confianza son demasiado amplios para confirmar una equivalencia entre los dos. Un problema de mala clasificación de los pacientes puede haber actuado como un factor de confusión que afectó nuestros resultados, lo cual tiene importantes implicaciones para el diseño y realización de futuros ensayos.

Menor Efecto Igual Efecto Mayor efecto

Resuma su análisis en la siguiente tabla:

Estudio Medida estadística

IC95% Dirección Fuerza y Poder Confiabilidad

Page 47: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

47

Ejercicio 5. Utilizando un gráfico evalúe la dirección y el nivel de confiabilidad de los intervalos de confianza (IC95%) que se presentan a continuación.

TITULO : "Eficacia Comparativa de la Amoxicilina, los Inhibidores del Folato y Otros Antibióticos en el Tratamiento de la Sinusitis Aguda. Un Metaanálisis." AUTOR : de Ferranti SD, Ioannidis JP, Lan J y colaboradores

CITA : British Medical Journal 317: 632-637, Sep 1998

REVISTA : [Are Amoxycillin and Folate Inhibitors as Effective as Other Antibiotics for Acute Sinusitis? A Meta-analysis]

MICRO : La eficacia de la amoxicilina y los inhibidores del folato es equivalente a la de otros antibióticos de mayor costo en el tratamiento inicial de la sinusitis aguda no complicada.

RESUMEN

Introducción

La sinusitis aguda (SA), recuerdan los autores, es una infección frecuente que suele tratarse con

antibióticos (ATB) generalmente combinados con descongestivos. No existe suficiente información acerca de la eficacia comparativa de las nuevas drogas de amplio espectro y los ATB más antiguos y menos onerosos (ej. amoxicilina, cotrimoxazol). Los patógenos habituales de esta infección son Streptococcus pneumoniae y Haemophylus influenzae, que suelen ser susceptibles, si bien no en modo uniforme, a la amoxicilina y al cotrimoxazol. Debería evitarse, sostienen, la utilización innecesaria de nuevos ATB de amplio espectro, debido a su elevado costo y al desarrollo potencial de resistencia bacteriana.

Un reciente metaanálisis incluyó 12 ensayos comparativos de ATB de distintas clases, y 4 estudios que comparaban drogas de la misma familia, sin detectar diferencias sustanciales entre estos compuestos, en el tratamiento de la SA. No obstante, aclaran, este análisis se limitó a los ensayos aleatorizados realizados con pacientes adultos, y publicados entre 1984 y 1995. El presente estudio realiza una comparación global entre los ATB más antiguos (amoxicilina y cotrimoxazol), y analiza la eficacia comparativa de los ATB y el placebo.

Métodos y Materiales

Se efectuó una búsqueda bibliográfica en la base de datos Medline sobre todos los ensayos aleatorizados acerca de SA, describen, hasta mayo de 1988, utilizando como descriptores al término"sinusitis" y los tipos específicos de ATB. También se realizó una revisión de Excerpta Medica y de resúmenes recientes de la conferencia interdisciplinaria sobre ATB y quimioterapia (1993-1997), y se examinaron las referencias a todos los ensayos clínicos, reseñas y estudios adicionales; no se aplicaron restricciones idiomáticas. Los criterios de elección de los ensayos, enumeran, fueron: comparación de amoxicilina o inhibidores de folatos (IF) con otro ATB, generalmente de amplio espectro (ej. cefalosporinas, tetraciclinas, macrólidos, penicilinas con inhibidores de la ß-lactamasa y quinolonas); pacientes asignados en forma aleatoria a distintos tratamientos; evaluación del

tratamiento de la SA o de una exacerbación aguda de la sinusitis crónica; también se analizaron los estudios controlados con placebo, para evaluar los efectos de los antimicrobianos y la evolución natural de la SA.

Los datos fueron extraídos en forma independiente por 2 autores, y los resultados de interés fueron:

curación clínica (resolución de todos los signos y síntomas), mejoría, y fracaso terapéutico (ausencia de cambios o empeoramiento de la signosintomatología), evaluados dentro de las 48 horas posteriores a la finalización del tratamiento. También se recolectaron datos sobre los criterios radiográficos y bacteriológicos de curación, mejoría o empeoramiento, y se evaluaron los abandonos de tratamiento asociados a los efectos adversos de los fármacos. En total, resumen, se analizaron 27 ensayos que incluyeron a 2 717 pacientes con SA o exacerbación aguda de una sinusitis crónica.

Page 48: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

48

Resultados

De los 27 ensayos incluidos, refieren, 6 estaban controlados con placebo, 13 comparaban la eficacia de la amoxicilina con la de otros ATB, y 8 analizaban la eficacia comparativa de un IF (cotrimoxazol,

trimetoprima/sulafametoxazol o brodimoprima) y la de otros ATB. El tamaño de las muestras oscilaba entre 14 y 323 pacientes, de 25 a 44 años de edad (a excepción de 2 ensayos realizados exclusivamente con población pediátrica). Once de los 27 ensayos estaban controlados en doble ciego, y 6 en simple ciego; 12 utilizaban métodos "rigurosos" para el diagnóstico de SA, y los restantes se basaban en criterios clínicos. Ocho ensayos requirieron el uso de descongestivos, y 2 los autorizaron; 17 excluyeron estos agentes, por motivos de protocolo. Los criterios de definición de los resultados clínicos, señalan, estaban adecuadamente especificados en 8 ensayos, relativamente especificados en 12, y poco claros en 7 estudios. En 3 de ellos se efectuaron punciones antrales, y 2 incluyeron procedimientos de escobillado nasal o punción antral.

En 6 estudios comparativos de ATB Vs. placebo, los primeros resultaron significativamente más eficaces, reduciendo el índice de fracasos terapéuticos en un 50%. No obstante, los síntomas mejoraron o remitieron en un 69% de los pacientes que no recibieron ATB. Si bien la heterogeneidad entre los distintos ensayos evaluados no resultó significativa, se sugirió que uno de los ensayos que había incluido pacientes con sintomatología similar a la de la SA, sin confirmación diagnóstica, presentaba los mayores índices de curación o mejoría en el grupo placebo (85% al cabo de 10 días), sin evidencias de beneficios asociados al uso de ATB. Por otra parte, indican, los ensayos con

poblaciones definidas en forma más precisa y con menores índices de mejoría espontánea mostraron un evidente beneficio asociado a la antibioticoterapia.

No se observaron diferencias estadísticamente o clínicamente significativas, informan, en el índice de fracasos terapéuticos o curaciones obtenidas con amoxicilina y otros ATB. En comparación con otros

ATB, el tratamiento con amoxicilina sólo determinó un 0.85 más de fracasos; los resultados fueron similares para los IF. En comparación con otras drogas, las diferencias en la posibilidad de curación clínica con amoxicilina fueron del 3.2%, y con los IF del 1.2%. No hubo heterogeneidad entre los efectos terapéuticos comparativos de la amoxicilina. En contraste, se detectaron evidencias de este fenómeno en los estudios comparativos sobre los IF y otros ATB (P=0.09 para curación clínica, y P=0.18 para fracaso terapéutico).

En los análisis de sensibilidad, apuntan, se observó una tendencia hacia una reducción estimativa del 11-20% del riesgo de fracaso terapéutico con otros ATB, en comparación con la amoxicilina, que no alcanzó significación estadística.

Si bien no se obtuvo información radiográfica y bacteriológica para muchos de los ensayos, los índices de fracaso radiográfico evidenciados dentro de las 48 hs posteriores a la finalización del tratamiento no fueron significativamente diferentes entre los pacientes tratados con amoxicilina, penicilina, IF u otros ATB. Asimismo, tampoco hubo diferencias marcadas en los índices de fracaso bacteriológico, ni en el porcentaje de abandonos de tratamiento.

Discusión y Conclusiones

El presente metaanálisis, comentan, demuestra que 2 tercios de los casos de SA evolucionan hacia la mejoría o curación espontánea, sin antibioticoterapia. El tratamiento con cualquier ATB redujo el índice de fracasos terapéuticos en un 50%, y la terapia con drogas de última generación (de mayor costo) no disminuyó este parámetro más allá de los efectos de la amoxicilina o el cotrimoxazol.

Los métodos precisos, no invasivos y de bajo costo para el diagnóstico de la SA bacteriana, concluyen, reducirían el número de pacientes que requieren antibioticoterapia, dado que la mayoría evoluciona hacia la curación o la mejoría espontánea.

Resumen objetivo elaborado por el

Comité de Redacción Científica de SIIC en base al artículo original completo publicado por la fuente editorial.

Sociedad Iberoamericana de Información Científica (SIIC) 2002

Page 49: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

49

Resuma su análisis en la siguiente tabla y gráfico:

Estudio Medida estadística

IC95% Dirección Fuerza y Poder Confiabilidad

Menor Efecto Igual Efecto Mayor efecto

Ejercicio 6. Analice el resumen del siguiente meta-análisis y responda a las preguntas que se plantean a continuación del mismo.

Arteéter intramuscular para el tratamiento del paludismo grave Afolabi BB, Okoromah CN RESUMEN Antecedentes La quinina y los fármacos de artemisinina se usan en el paludismo grave, pero la resistencia a la quinina está en aumento. El arteéter es un derivado de la artemisinina recientemente desarrollado que es soluble en aceite, tiene una vida media de larga eliminación, y es más estable que otros derivados. Objetivos Comparar el arteéter intramuscular con otros fármacos antipalúdicos para tratar el paludismo grave. Estrategia de búsqueda Se buscó en el Registro Especializado del Grupo Cochrane de Enfermedades Infecciosas (Cochrane Infectious Diseases Group) (agosto de 2004), CENTRAL (The Cochrane Library Número 3, 2004), MEDLINE (desde 1966 hasta agosto de 2004), EMBASE (desde 1980 hasta agosto de 2004), en la US National Library of Medicine (NLM) Gateway (desde 1953 hasta 1965), Web Science Citation (desde 1981 hasta agosto de 2004), LILACS (agosto de 2004), el motor de búsqueda de Google (agosto de 2004), actas de congresos y en las listas de referencias. También se estableció contacto con los investigadores, las organizaciones y las compañías farmacéuticas para ayudar a identificar ensayos. Criterios de selección Ensayos controlados aleatorios y cuasialeatorios del arteéter intramuscular en adultos y niños con paludismo grave. Recopilación y análisis de datos Se evaluó, de forma independiente, la calidad metodológica de los ensayos y se obtuvieron los datos que se analizaron mediante Review Manager 4.2. Resultados principales Dos ensayos pequeños (n = 194) cumplieron los criterios de inclusión. Ambos ensayos compararon el arteéter con la quinina en niños con paludismo cerebral e informaron sobre resultados similares. No hubo diferencias estadísticamente significativas en el número de

Page 50: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

50

muertes (riesgo relativo 0,75; intervalo de confianza del 95%: 0,43 a 1,30; n = 194, dos ensayos), complicaciones neurológicas (riesgo relativo 1,18; intervalo de confianza del 95%: 0,31 a 4,46; n = 58, un ensayo), u otros resultados que incluyeron el tiempo para recobrar el conocimiento, el tiempo de eliminación del parásito y el tiempo de eliminación de la fiebre. Los metanálisis no tienen poder estadístico para detectar diferencias importantes. Conclusiones de los autores Se necesitan más ensayos con un mayor número de participantes antes de que se pueda llegar a conclusiones firmes acerca de la efectividad y la seguridad del arteéter.

Pregunta 6.1. Grafique los resultados para número de muertos

Pregunta 6.2. Identifique cual de los dos medicamentos es más eficaz para prevenir la muerte.

a. Arteér b. Quinina c. Los dos son iguales d. No hay evidencias suficientes para concluir cual es mejor

Pregunta 6.3. Utilizando un gráfico evalúe la dirección, el poder y el nivel de confiabilidad de los siguientes intervalos de confianza (IC95%) de estudios individuales sobre Eficacia de Corticosteroides inhalados en niños con asma. Se mide la reducción de los eventos recurrentes. Pregunta 6.4. Estudio 1: RR 0,70 IC95% 0,43 a 0,81

a. Mayor efecto débil no confiable b. Menor efecto débil confiable c. Mayor efecto moderado confiable d. Menor efecto moderado confiable

Pregunta 6.5. Estudio 2: RR 2,2 IC95% 0,01 a 3,96

a. Mayor efecto moderado no confiable b. Menor efecto moderado confiable c. Menor efecto moderado no confiable d. Mayor efecto moderado confiable

Page 51: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

51

Pregunta 6.6. Con los resultados anteriores prescribiría usted corticoesteriodes inhalados. Si: Porque la significación clínica es _______ y la significación estadística es _________ No: Porque la significación clínica es _______ y la significación estadística es _________

7.3. TAREA INDIVIDUAL 3: ANÁLISIS GRÁFICO Ejercicio 7. Analice el siguiente gráfico de estudio de meta-análisis y resuma en una tabla los resultados del análisis

Estudio Medida estadística

IC95% Dirección Fuerza y Poder Confiabilidad

1.

2.

3.

Metaanálisis

Page 52: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

52

Ejercicio 8. Analice el siguiente gráfico de estudio de meta-análisis y resuma en una tabla los resultados del análisis

7.4. TRABAJO EN GRUPO En su grupo de trabajo con el que seleccionó un caso clínico, analice los resultados de los artículos científicos seleccionados utilizando gráficos y tablas de resumen de análisis interprete los resultados de los artículos que seleccionó el grupo para resolver el caso seleccionado y concluya cual es la mejor intervención..

Estudio Medida estadística

IC95% Dirección Fuerza y Poder Confiabilidad

Page 53: Mbe Unidad 4. Lectura Comprensiva Estadistica Bivarial Junio 2014

53

8. BIBLIOGRAFÍA

1. Arnal J. y Omedes A. Fundamentos de Estadística Descriptiva. Barcelona: Ed. Daimon, 1981.

2. Bourke G. Interpretación y utilización de la Estadística Médica. Barcelona: Ed. Espaxs,1978.

3. Breilh J y Granda G. Investigación de la Salud en la Sociedad. La Paz. Ed. Salud y Sociedad, 1985.

4. Carballo M y Prado L. Bioestadística. La Habana. Ed. El Pueblo y Educación 1980. 5. CDC: Análisis de Estudios, Mimeo, Atlanta-USA, 1987. 6. Charlet J.P. Master Andino de Epidemiología: Manual de Estadística. Quito, MSP,

1999. 7. Chegg F. Estadística Fácil aplicada a las Ciencias Sociales. Barcelona: Ed.

grijalbo,1984. 8. Crowl T. Fundamentals of Educational Research. USA, Mc Graw Hill, 1990. 9. Cumsille F. Métodos Estadísticos. Módulo Métodos Estadísticos. México, 1990. 10. Laurent Vincent,: Curso de estadística Inferencial. Apuntes de clases magistrales

UNICEF 1992. 11. Levin J. Fundamentos de Estadística en la Investigación Social. 2da. Edición. Ed.

Harla, 1977. 12. Milton J.S. y Toscos J.O. Estadística para Biología y Ciencias de la Salud. 13. Morton F y Col. Bioestadística y Epidemiología. Ed. Interamericana, México D.F.

1986. 14. Peavy, V; Dyal, W; ; Analytical Statistics, Testing for Significance, Centers for

Desease Control, Atlanta, Georgia, 1987. 15. Pérez J.L., García P., Romero A., Ideas prácticas sobre el manejo estadístico de

datos en estudios observacionales y experimentales, Medicina Integral, Vol 16, Num. 8, España 1990.

16. Pineault R, Daveluy C. La planificación sanitaria. Conceptos, métodos, estrategias. Montreal, Masson S.A.1994.

17. Rojas Soriano, R. Función de las Hipótesis en la Teoría y en la Investigación Social. En: Metodología de la Investigación Científica. Santo Domingo. 1980.

18. SAS. StatView Reference. USA, SAS Institute Inc. 1999. 19. Sempértegui F. La Investigación en Medicina. Quito, Ed. Facultad de Ciencias

Médicas, 1983. 20. Snedecor , Cochran W. Métodos Estadísticos. México, Ed. CECSA 1971.