1
Tema 1 Metodología de la investigación: diseño de estudios sanitarios, estadística aplicada a las ciencias de la salud, evaluación de resultados
AUTORES:
Azucena Aldaz: Servicio de Farmacia de la Clínica Universitaria de Navarra
Ana Ortega: Servicio de Farmacia de la Clínica Universitaria de Navarra
Resumen
Resulta evidente, el peso creciente que la investigación científica tiene en la
práctica asistencial, ya que muchas actuaciones se basan en guías clínicas y
éstas lo hacen fundamentalmente en los resultados de ensayos clínicos y en
menor medida de otro tipo de estudios. La Farmacia hospitalaria no puede
quedar al margen de esta realidad por lo que se debe hacer un esfuerzo
importante en la formación adecuada, de manera que se disponga de
profesionales cualificados para investigar y por tanto avanzar en el
conocimiento de nuestra disciplina.
1. Introducción
La Farmacia Hospitalaria es una ciencia de la salud y como tal incrementa y
modifica su cuerpo de conocimiento a medida que incorpora los resultados
derivados de una investigación de calidad.
No cabe duda que el escenario sanitario se ha transformado en la última
década de forma importante, virando hacia la cronificación de algunas
patologías y a la atención de pacientes añosos. Éstos últimos, como es lógico,
presentan en general mayor morbilidad y número de patologías asociadas.
Todo ello ha llevado a una farmacoterapia más compleja, con mayor número de
fármacos por paciente, mayor posibilidad de producirse interacciones
farmacológicas, mayor necesidad de ajustes posológicos, etc.
Este nuevo escenario, requiere conocimientos y habilidades específicos que no
sólo deben incorporarse a la práctica profesional si no que además requieren
2
ser contrastados. La investigación resulta clave, una vez más, para dar
soluciones a las múltiples nuevas incógnitas generadas.
No es debatible ya si debemos incorporar a la rutina de trabajo la investigación,
si no que el debate debe centrarse en conocer como es la mejor manera de
hacerlo y formarnos adecuadamente para ello. La clave es trabajar en un
ambiente controlado, en el que se puedan manejar racionalmente los datos que
acumulamos continuamente y valorarlos con un objetivo concreto. Es decir,
trabajar con calidad generando datos “creíbles” y representativos y gestionar la
información con herramientas apropiadas y formulando previamente las
preguntas oportunas.
En este capítulo, pretendemos de una manera breve y sencilla describir el
proceso básico de investigación y comentar las herramientas mínimas
necesarias para realizarla.
2. Proceso de investigación científica
El proceso de investigación se inicia cuando se buscan explicaciones o
soluciones a sucesos de la práctica profesional, que requieren una reflexión,
que se viven como un problema o como una necesidad de mejora. En
ocasiones, el proceso también se inicia por la necesidad de contrastar una
información generada en otro ambiente y que se considera una opción a
incorporar en la rutina asistencial. Esto último es muy importante, ya que en
ocasiones se incorporan algoritmos de decisión, o sistemas de clasificación sin
conocer la desviación que pueden presentar en otro escenario, un ejemplo de
ello lo hemos vivido recientemente con la vancomicina. ¿Acaso nuestra
situación es como la de Estados Unidos?, ¿Con seguridad no se tiene éxito en
el tratamiento de una bacteriemia por un germen gram positivo que muestre
CMI (concentración mínima inhibitoria) igual a 2 mcg/mL?. Cada aspecto de
nuestra labor asistencial plantea numerosas cuestiones que deberían ser
aclaradas, con el objetivo de mejorar a través del incremento en un
conocimiento veraz.
Esto es especialmente importante de valorar. La investigación clínica aplicada
debe discurrir de forma paralela con la práctica asistencial, debe dar respuesta
3
a la problemática actual y permitir avanzar en tiempo razonable en el cuidado
de los pacientes. En eso reside una de las mayores diferencias con la
investigación básica.
Generalmente los grandes avances vienen determinados por los resultados de
los ensayos clínicos multicéntricos aleatorizados, que según se ha
consensuado, suponen la piedra angular de la evidencia científica. Sin
embargo, no se debe minimizar la importancia de la investigación
independiente, más modesta y con mucha mayor riesgo de sesgo por los
pequeños tamaños muestrales y la falta habitual de aleatorización de los
pacientes, ya que representa un escenario mucho más real de la atención
sanitaria.
No es inhabitual en los últimos años acudir a reuniones científicas en las que
ponentes de muchos años de ejercicio profesional únicamente hacen
referencia a ensayos clínicos promovidos por la industria farmacéutica sin dar
datos de su práctica clínica, de años y años, en la que los pacientes que
atienden habitualmente no han quedado recogidos en ninguno de los ensayos
clínicos mencionados. Así por ejemplo, tal y como se debate en una reciente
publicación de Pocock SJ., y col., en el ensayo SPRINT (ensayo aleatorizado
que compara el efecto del tratamiento intensivo versus el tratamiento estándar
en el control de la presión arterial) se excluyeron pacientes con edad inferior a
50 años y aquellos con historia de diabetes mellitus tipo II o con historia de
accidente cerebro vascular previo. Ello significa que los resultados de este
ensayo sólo se podrían aplicar sobre aproximadamente un 20% de los
pacientes que se atienden en la práctica.
Por eso, no hay que minimizar los resultados derivados de investigaciones
propias de la rutina asistencial, en su mayor parte correspondientes a estudios
observacionales retrospectivos. Lo que hay que exigir es que dichas
investigaciones se realicen con rigor científico, con honradez y sin omitir
resultados, aunque los mismos hayan sido negativos.
El punto de partida es la génesis de una hipótesis realista y plausible generada
tras una profunda revisión del tema a estudio.
2.1 Hipótesis
4
Las hipótesis que generamos pueden ser de dos tipos: cuantitativas o
deductivas y cualitativas o inductivas. En el primer caso se debe partir de una
teoría ya existente y mediante una muestra representativa de la población o del
fenómeno que se quiere analizar, contrastarla. Este método de investigación se
denomina deductivo. En el segundo caso, sin embargo, se parte de
observaciones recogidas y siguiendo una metodología cualitativa se plantean
unas series de proposiciones que pueden dar cuerpo a una nueva teoría.
En la metodología de investigación estamos acostumbrados a hablar de
hipótesis nula (Ho) que es la hipótesis que en principio se busca rechazar y de
hipótesis alternativa (H1) que es la propuesta por el investigador en contraste
con la nula.
El enunciado de la hipótesis, es decir el argumento básico de la investigación,
debe redactarse con un lenguaje claro, directo, sencillo y generalmente sigue el
modelo de “si/luego” es decir se enuncia una posibilidad (si….) y se adelanta
un resultado asociado a dicha posibilidad (luego…).
Se debe tener en cuenta que la hipótesis debe ser demostrada y que las
pruebas para demostrarla deben poder replicarse.
Por ello, una vez formulada la hipótesis, se deben recoger una serie de
variables que resultan críticas para llegar a conclusiones válidas. La variable
que queremos evaluar se denomina variable dependiente y las que nos van a
permitir evaluar nuestro objetivo se denominan variables independientes.
2.2 Variables de estudio
Resulta crítico diseñar la hoja de recogida de datos de forma adecuada,
explicitando en una hoja auxiliar lo que significa cada una de las variables,
prestando especial cuidado a las unidades de medida. En ocasiones una
variable se puede disociar en varias por modificación de las unidades de
medida o bien de la naturaleza de la medición. Así hay variables, muchas
veces de respuesta, que pueden expresarse en la misma base de datos como
5
variables nominales (SI/NO) o como variables ordinales
(nula/leve/moderada/grave), por citar un ejemplo.
Para la selección óptima de las variables independientes debe llevarse a cabo,
previamente, una revisión exhaustiva del tema de investigación incorporando
además aquellas que el investigador considere, de acuerdo a su hipótesis, que
pueden modificar o incrementar el cuerpo de conocimiento existente sobre el
tema.
Existen unas variables que se llaman variables de confusión, que afectan al
resultado de la variable dependiente confundiéndolo de forma significativa, de
ahí su nombre, y que resulta prioritario identificar y controlar. Para ello, se
aplican técnicas estadísticas específicas como el análisis estratificado o el
multivariante, que se describen más adelante. Estas técnicas estadísticas
también se emplean para analizar la existencia de interacciones. El análisis de
las interacciones es muy importante, ya que las variables de interacción
pueden cambiar el sentido o la intensidad de la relación. Es decir, en el caso de
las variables de confusión se puede observar una relación que realmente no
existe o incrementar notablemente la relación existente (confusión positiva) y
también, en sentido contrario, anular un efecto o minimizarlo (confusión
negativa). Sin embargo, en el caso de la interacción, la relación entre la
variable dependiente y la(s) independiente(s) se puede ver modificado en
función de los distintos valores que pueda tomar la variable de interacción.
Este tipo de análisis debe realizarse siempre a la luz del conocimiento pre-
existente y de razonamientos lógicos.
Dependiendo de la naturaleza de la investigación, se deben incluir variables
que permitan valorar la percepción del paciente sobre el resultado del
tratamiento que recibe o de la tecnología aplicada o de la atención recibida,
entre otros. Existen formularios disponibles que permiten este tipo de
valoraciones pero deberían validarse previamente en el entorno concreto de
aplicación, ya que dependiendo de las características de su diseño (etnia,
creencia, práctica clínica determinada, etc) podrían imposibilitar la extracción
de resultados fiables.
2.3 Tamaño muestral
6
Un aspecto que reviste gran importancia en la investigación es determinar el
tamaño muestral necesario para la valoración adecuada de la hipótesis
planteada. Así, el tamaño muestral hace referencia al número mínimo de
participantes que son necesarios para demostrar o refutar el objetivo primario
del estudio (considerando también los objetivos secundarios) con un nivel de
confianza previamente especificado que permita no adjudicar los resultados
observados al azar.
Pero no sólo hay que considerar el nivel de confianza que se desea alcanzar
sino también el margen de error que aceptamos en la investigación. Así,
cuando menor sea el margen de error que aceptemos mayor será el tamaño
muestral requerido.
Hay que considerar que los resultados obtenidos en la muestra seleccionada
se deben generalizar posteriormente al total de la población representada por
la muestra, con un margen de error mínimo. El error de tipo I, denominado α
es la probabilidad de rechazar la hipótesis nula aunque sea verdadera en la
población. Habitualmente se acepta un error alfa≤ 0,05. El valor 1-α representa
el grado de confianza.
Además hay que considerar el error de tipo beta, es decir la probabilidad de no
rechazar una hipótesis nula que es falsa, es decir de no aceptar la hipótesis
alternativa cuando en realidad es cierta. Generalmente el criterio que se
emplea es aceptar un riesgo beta entre 0,10 y 0,20.El valor 1-β es la potencia
estadística, es decir la probabilidad de rechazar la hipótesis nula cuando la
alternativa es cierta.
El tamaño de la muestra viene determinado por la dispersión que puede
presentar los valores de la variable dependiente y por la magnitud de la
diferencia que se pretende observar. Cuanto mayor sea el coeficiente de
variación de la variable a estudiar mayor será el número de individuos
necesarios en la muestra poblacional.
En ocasiones valorar a priori la magnitud de la diferencia del efecto que se
desea medir es complejo por falta de información previa suficiente y en esos
casos se recomienda realizar un pequeño estudio piloto que permita una
valoración inicial aproximada. Pero esto no siempre es posible por lo que el
7
investigador debe razonar la decisión arbitraria que toma argumentando
suficientemente el hecho.
Habitualmente en la estimación del tamaño muestral, se considera el contraste
de hipótesis bilateral o de dos colas, porque es el más conservador.
Se dispone de distintos programas informáticos específicos para la estimación
del tamaño muestral que ofertan distintas opciones según se quiera estimar
una muestra de tamaño fijo o de tamaño variable, o bien se quiera comparar
medias o proporciones. Así mismo, también la mayor parte de los programas
generales de estadística, como Stata®, disponen de un módulo propio de la
estimación del tamaño muestral.
Existen algunos trabajos en castellano, muy completos, como el de Marrugat J
y col, o el de Araya y col. que explican extensamente los conceptos básicos y
las distintas opciones en el cálculo muestral.
Una vez que se completa la base de datos, se debe revisar ésta
cuidadosamente estudiando las distintas variables para comprobar que no se
hayan introducido errores groseros, y la codificación de las variables sea
correcta. A lo largo del tiempo de recogida de la información se puede
adicionar una nueva variable a la luz de nueva evidencia científica, si se
considera relevante para la investigación en curso.
En este punto, no está de más revisar nuevamente tanto el objetivo principal
como los secundarios para tener claro lo que se desea buscar y poder
seleccionar las pruebas estadísticas que permitan la obtención correcta de los
resultados.
2.4 Tipos de estudios
Los estudios se pueden clasificar según diferentes criterios. Una forma de
clasificarlos hace referencia a si los estudios son experimentales o con
intervención o si son observacionales.
Los estudios experimentales o con intervención son aquellos en los que
los pacientes o individuos incluidos son sometidos a un factor, por
ejemplo la toma de un medicamento, una intervención, etc, por participar
8
en el estudio, que no hubieran recibido si no hubieran participado en el
mismo. En este grupo se encuentran los ensayos clínicos. A estos no
vamos a hacer referencia en este capítulo, ya que son los que más se
conocen y no son los que se van a realizar con más frecuencia en la
práctica asistencial. Los ensayos clínicos se consideran uno de los
pilares de la evidencia científica, pero también tienen ciertas limitaciones,
algunas de las cuales se muestran en la tabla 1.
Los estudios observacionales son aquellos que se basan en la
observación. No se somete a ningún individuo a ningún tratamiento o
intervención por el hecho de participar en el estudio. Los pacientes o
individuos son tratados como iban a ser tratados independientemente de
la participación en el estudio. El investigador se limita a observar lo que
ocurre a estos individuos. Estos estudios, cuando analizan los efectos de
fármacos constituyen lo que se denomina farmacoepidemiología. Ésta,
por tanto, no es más que la aplicación del método epidemiológico al
efecto y uso de los medicamentos en grupos de población. En este
capítulo haremos referencia especialmente a este tipo de estudios, ya
que son los que se realizan para obtener información de resultados en la
práctica real. Esta información es importante en los pacientes crónicos,
ya que en los ensayos clínicos, en muchas ocasiones, se excluyen
pacientes con comorbilidades, los estudios tienen duración limitada y no
se observan efectos a largo plazo, etc. En la tabla 1 se muestra parte de
la información que podemos obtener de los estudios observacionales.
9
Tabla 1. Algunas limitaciones de los ensayos clínicos y ejemplos de
información que se puede obtener de los estudios observacionales
Algunas limitaciones de los ensayos clínicos
Número de individuos limitado
Condiciones diferentes a la realidad
Algunos grupos de individuos son excluidos con frecuencia
Participantes más homogéneos que la población real
Limitados en el tiempo
Caros
Información que se puede obtener de los estudios observacionales
Efectos adversos poco frecuentes
Efectos que aparecen tras un periodo largo de tiempo
Realidad sobre el uso del fármaco en la práctica clínica
Resultados en los pacientes en el contexto real
Factores que determinan cambios en el uso de fármacos
Factores que determinan cambios en los resultados en los pacientes
Análisis de costes reales asociados a los tratamientos
Factores que afectan al efecto del tratamiento
Información sobre una población mayor que la incluida en los
ensayos
Efectividad o efecto de los tratamientos en condiciones reales de uso
Eficiencia, relación entre los efectos y los recursos consumidos
La realización de estudios observacionales es una labor que deberíamos
realizar de forma paralela a la práctica asistencial para así contribuir a un mejor
conocimiento de los efectos de los tratamientos, efectos de la actividad de los
profesionales, etc, que aportan una información diferente y complementaria a la
evidencia científica generada en los ensayos. Somos los profesionales
sanitarios los que podemos contribuir en gran medida a ampliar y aplicar este
conocimiento con orientación a la mejora de la práctica asistencial y de los
resultados en los pacientes.
Dentro de los estudios observacionales se encuentran:
10
Los casos y las series de casos. Muchos autores no identifican a éstos
como estudios en sí mismos, pero su valor es alto en cuanto a la
generación de hipótesis que posteriormente pueden ser contrastadas
mediante estudios con otros diseños.
Los estudios transversales. Son estudios que se realizan en un
momento en el tiempo y su finalidad es descriptiva. Muchos de ellos se
realizan de rutina, por ejemplo, el consumo de medicamentos, la
prevalencia de enfermedades, etc. Si se realizan varios estudios
transversales en diferentes momentos en el tiempo o en diferentes
lugares, se puede generar la idea de que algunas circunstancias o
factores pueden estar asociados con determinados efectos, pero no
sirven para comprobar hipótesis ya que no se estudia la secuencia
temporal, a estos estudios se les llama de tendencias o ecológicos.
Estudios longitudinales. Son aquellos en los que se considera la
secuencia temporal, es decir, en lenguaje coloquial diríamos que se
observa “qué ocurre antes que qué”. Es decir, por ejemplo, si ha sido
primero el consumo del medicamento y luego la aparición del efecto.
Dentro de estos estudios se encuentran los estudios de cohortes y los
de casos y controles. Ambos se diferencia en el punto de partida. En los
estudios de cohortes se parte de los individuos expuestos al factor
analizado o posible causa e individuos no expuestos y se observa si se
produce el efecto o no en ambos grupos. En cambio, en los estudios de
casos y controles se parte individuos que tienen el efecto e individuos
que no lo tienen y se observa cuántos de cada uno de los grupos
estuvieron expuestos al factor de riesgo. Estos estudios longitudinales
en general tienen una finalidad analítica, es decir estudiar la asociación
entre un factor y un efecto.
En la figura 1 se muestran los principales diseños de estudios. En la tabla 2 se
muestran su utilidad, las limitaciones y otros aspectos de los estudios de casos
y controles y los estudios de cohortes. Entre ellas destacamos que en los
estudios de cohortes podemos calcular incidencias, pero en los de casos y
controles no. Más adelante se explica las medidas de frecuencia y asociación
utilizadas en los estudios observacionales.
11
Figura 1. Tipos de diseño de estudios (E.)
Tabla 2. Algunos aspectos de los estudios de cohortes y de casos y controles.
Cohortes Casos y Controles
Útiles Para analizar múltiples
efectos de una
exposición
Cuando la exposición es
rara
Posibles efectos de
tratamientos nuevos
Para analizar posibles
causas de un efecto
Cuando el efecto muy raro
Cuando el efecto aparece
tras un periodo largo de
tiempo
Limitaciones Requieren gran tamaño
de muestra
Tienen larga duración
Son muy costosos
Dificultad de recogida de
datos retrospectivos
Dificultad en selección de
controles
Otros
aspectos
Importante asegurar la
comparabilidad de los
grupos
Se pueden calcular
incidencias
Importante asegurar la
comparabilidad de los
grupos
No se pueden calcular
incidencias
La elección del diseño del estudio observacional a realizar va a depender de
muchos factores. Como se muestra en la tabla 2 cuando se quiere estudiar
varios efectos de la exposición a un factor, por ejemplo un tratamiento, una
12
intervención de un profesional, una forma de tratar, etc, es más adecuado el
estudio de cohortes porque identificamos a los individuos expuestos, se escoge
un grupo control de individuos no expuestos y se observa los efectos en ambos
grupos. Hay otras circunstancias, como las indicadas en la tabla, en las que es
mejor el diseño de casos y controles. En otras ocasiones ambos diseños son
posibles, y se suele preferir el de cohortes que se asemeja más al ensayo
clínico, puede ser prospectivo y se pueden calcular incidencias y riesgos
relativos.
Otra forma de clasificar los estudios hace referencia a la finalidad de los
mismos. Así los clasificaríamos en estudios descriptivos y analíticos. Los
primeros son aquellos que tratan de describir una situación y analíticos los que
tratan de estudiar la asociación entre factores y efectos. En la tabla 3 se
muestran los diseños de estudios incluidos en cada uno de estos dos tipos.
Tabla 3. Estudios descriptivos y analíticos
Descriptivos Analíticos
Casos y serios de casos
Estudios transversales
Estudios de tendencias o
ecológicos
Observacionales
Casos y controles
Cohortes
Con intervención o experimentales
Ensayos Clínicos
Atendiendo a la relación temporal entre el estudio y la generación de los datos
los estudios se pueden clasificar en:
Retrospectivos: estudios en los que se recogen datos que se han
generado en el pasado. Tienen la importante limitación de que sólo se
pueden recoger los datos que estén registrados o recuerden los
participantes en el estudio.
Prospectivos: son estudios en los que los datos se generan una vez
iniciado el estudio. Son preferibles a los retrospectivos ya que permiten
recoger más información.
Los estudios de casos y controles tienen siempre un diseño retrospectivo y los
de cohortes pueden ser prospectivos o retrospectivos.
13
Existen también otras muchas formas de clasificar a los estudios, por ejemplo,
unicéntricos o multicéntricos, etc. Siempre que sea posible, sería deseable
realizar estudios multicéntricos para aumentar la posibilidad de generalizar los
resultados a otros entornos, aumentar el tamaño de muestra, analizar la
influencia del centro en los resultados, favorecer la colaboración entre
profesionales de diferentes centros, etc.
2.5. Variables de medida utilizadas en los estudios observacionales
Medidas de frecuencia
Prevalencia: es el número de casos presentes dividido por la población
total. Es la medida utilizada en los estudios transversales.
Incidencia: es el número de casos nuevos dividido por el número de
individuos a riesgo al inicio del estudio.
Medidas de asociación
Riesgo relativo (RR): es el cociente entre la incidencia del efecto en los
expuestos al factor o posible causa dividido por la incidencia en los no
expuestos al factor. Para calcularlo es necesario poder calcular
incidencias, por lo que solo se puede calcular en los estudios de
cohortes. Un RR de 1 indicaría no asociación entre el factor y el efecto,
un valor >1 que el factor aumenta el riesgo del efecto (un valor de, por
ejemplo, 1,36 indicaría un aumento del riesgo del 36%) y <1 que protege
frente al efecto (un valor de, por ejemplo, 0,8 indicaría que disminuye el
riesgo un 20%).
Razón de odds (RO): es el cociente entre la relación expuestos al
factor/no expuestos al factor en los casos entre los controles. O lo que
es lo mismo el cociente entre la relación casos/no casos en los
expuestos frente a los no expuestos. Es decir en ambos casos es un
cociente de odds (que es el cociente entre el número de sujetos con una
característica entre el número de sujetos que no la presentan). La
interpretación se realiza de forma semejante al RR, y se suele utilizar
como una aproximación de éste, aunque los valores no son los mismos,
14
serán tanto más parecidos cuanto más raro sea el efecto. La RO da una
idea de cuántas veces es más frecuente el efecto en los expuestos que
en los no expuestos. Si tiene un valor >1 habrá una asociación positiva
entre el factor y el efecto y si es <1 protegerá. La RO es la unidad de
medida de asociación que se utiliza en los estudios de casos y controles
y cuando se realiza análisis por regresión logística, como se explicará
más adelante.
Tanto en el cálculo del RR como en el de la RO es importante calcular el
intervalo de confianza del 95% y observar si éste incluye o no el 1. Si incluyera
el 1 indicaría que no se ha podido demostrar que exista asociación entre el
factor y el efecto. Una vez encontrada la asociación, como ésta puede ser
debida a factores de confusión o sesgos (se comentan más adelante), es
importante valorar que se cumplen además algunos de los criterios para poder
establecer la relación causal.
Estos criterios de causalidad incluyen:
- que estudios similares o relacionados den resultados similares,
- que podamos pensar en algún mecanismo por el que se produce esta
asociación,
- que exista fuerza en la asociación (mejor cuanto más alejado de 1 esté
el RR o RO)
- que exista una secuencia temporal compatible con causalidad
- que exista relación entre la dosis y la respuesta
2.6. Validez de los estudios
Existen dos tipos de validez:
Validez interna: hace referencia a que los resultados encontrados se
correspondan con la realidad. Para ello el estudio tiene que estar bien
realizado, no tiene que haber sesgos y se han debido analizar y corregir
los resultados por los factores de confusión.
Validez externa: hace referencia a la posibilidad de generalizar los
resultados del estudio a la población global. Para ello tiene que existir
15
validez interna y hay que valorar las características de los pacientes y el
método de trabajo incluido en el estudio y compararla con la del ámbito
en el cual se quieren aplicar los resultados del estudio.
En los estudios es importante tratar de evitar los sesgos. Sesgo es cualquier
factor que pueda llevar a que los resultados se desvíen sistemáticamente de la
realidad. Entre los sesgos podemos destacar los siguientes:
Sesgo de selección: se produce cuando los grupos a comparar no han
sido seleccionados de forma adecuada, para evitarlo hay que tratar de
evitar que se seleccionen individuos con una relación entre el factor y el
efecto especial. Para evitar este sesgo lo mejor es aleatorizar lo máximo
posible. Ya que en estudios observacionales no se puede aleatorizar los
individuos expuestos y no expuestos al factor al menos se puede hacer
una selección aleatoria de la muestra, o recoger pacientes consecutivos,
minimizar el abandono (ya que los pacientes que abandonan suelen
tener características diferentes), etc.
Sesgo de información: se produce cuando no se recoge la información
de todos los pacientes por igual o no se recoge la información de forma
adecuada. Para evitarlo una buena estrategia es hacer que la persona
que genera la información o la recoge no pueda manipularla, lo que se
conoce como cegamiento. También es importante estandarizar la forma
de recogida de los datos y las definiciones de los mismos, antes de
recogerlos, para evitar manipulaciones o sesgos.
Sesgo de indicación: se produce cuando existe una tendencia a que los
individuos expuestos al factor, por ejemplo que toman el medicamento
evaluado, tengan unas características particulares, por las que se les ha
dado el tratamiento. Este sesgo se evita con la aleatorización, pero,
como hemos comentado, no es posible en los estudios observacionales.
Es difícil de solucionar si claramente los expuestos al factor son
diferentes a los no expuestos porque nunca se conseguirá saber si, por
ejemplo, se encuentra una asociación ésta se debe al factor analizado o
a otro. Sin embargo, si hay más individuos con unas características en
un grupo que en otro pero existen individuos similares en ambos grupos
se puede corregir por lo que se llama el índice de propensión o
16
“propensity score” en inglés. Es un índice que nos indica la propensión a
estar expuesto al factor analizado en base a unas características de los
individuos. Se calcula mediante regresión siendo la variable dependiente
o a predecir el estar expuesto al factor o no, y después se puede corregir
por este índice mediante emparejamiento o regresión, consiguiendo así
grupos más comparables entre sí. El índice de propensión sirve también
para corregir por factores de confusión.
Los factores de confusión son factores relacionados con el factor de exposición
analizado, relacionados con el efecto estudiado pero no son la vía por la cual el
factor produce el efecto. Por ejemplo, si estamos estudiando la relación entre el
ejercicio y el fallo cardíaco, fumar podría ser un factor de confusión las
personas que hacen ejercicio en general fuman menos y fumar aumenta el
riesgo de fallo cardíaco y podríamos concluir que los que no hacen ejercicio
tienen más riesgo de fallo cardíaco, pero podría ser porque fuman más, por lo
que tendríamos que corregir por este factor, fumar o no. La mejor forma de
corregir por ellos es la aleatorización de los individuos en los grupos, porque
así los factores de confusión, se conozcan o no, estarán igualmente
distribuidos en los grupos, si el tamaño de muestra es suficientemente grande,
y si se encuentran diferencias entre los grupos se deberán al factor analizado.
No obstante en los ensayos aleatorizados siempre es necesario comprobar
esta distribución equitativa de los factores de confusión, generalmente en la
primera tabla de todos los trabajos. Sin embargo, en los estudios
observacionales que no se puede aleatorizar hay que corregir por los factores
de confusión, aunque nunca se podrá corregir por los que no se conozcan.
Existen diferentes estrategias para corregir por los factores de confusión, tanto
en el diseño de los estudios como en el análisis de los resultados, que se
muestran en la tabla 4.
Tabla 4. Estrategias de control de los factores de confusión
Estrategia Ventajas Inconvenientes
En el diseño del estudio
Randomización Garantiza la No es posible en estudios
17
comparabilidad
Aumenta eficacia del
estudio. No necesario
control en análisis
observacionales
Aparejamiento Aumenta eficiencia,
precisión
Alarga el tiempo
Problemas factibilidad
Restricción o
exclusión
Simple
Aumenta homogeneidad
Alarga tiempo
Reduce validez externa
En el análisis de los resultados
Estratificación Simple
Se puede perder
información
Número limitado de
categorías
Interpretación compleja
Modelos No se pierde información
No se categoriza
Puede dar estimaciones
individuales de riesgo
Se asumen condiciones
no siempre válidas
Resultados difíciles de
interpretar
2.7. Análisis estadísticos
En este capítulo se presentan algunos de los análisis estadísticos más
utilizados y se dan ciertas ideas respecto a cada uno de ellos, pero para un
mejor conocimiento se recomienda acudir a libros de bioestadística como el de
Martínez González MA y col. y a las instrucciones de los paquetes estadísticos
como STATA®.
Existen varios factores que van a determinar si utilizar un test estadístico u otro,
entre ellos están el objetivo o la hipótesis que queramos analizar, el tipo de
variables que disponemos (cuantitativas o cualitativas) y la distribución normal
o no de las variables.
Los test estadísticos se aplican, en muchas ocasiones, para analizar si hay
diferencias en una variable entre dos o más grupos de individuos clasificados
según otra variable o para estudiar si existe asociación entre dos o varias
18
variables. Los test estadísticos van a indicar si estas diferencias o esta
asociación son significativas o no, es decir si se ha podido demostrar que
existen diferencias o que dos variables están asociadas y es poco probable
que se deba al azar. Pero también es muy importante la magnitud de esa
diferencia o esta asociación, la incertidumbre en esa estimación (que muchas
veces viene dado por el inérvalo de confianza) y si esa magnitud es, o puede
ser, clínicamente significativa. Esto es importante porque en la práctica clínica
nos interesa introducir estrategias que tengan impacto o significación clínica
para los pacientes. Además, diferencias insignificantes pueden ser
estadísticamente significativas si el tamaño de muestra es muy grande, o
diferencias importantes pueden no ser significativas si el tamaño de muestra es
insuficiente. Y, como se ha comentado antes, el tamaño de muestra se
determina generalmente en base a la variable principal del estudio por lo que la
potencia puede no ser suficiente para detectar diferencias relevantes
clínicamente en otras variables.
Por otro lado, es importante recordar que solo es lógico analizar mediante
pruebas estadísticas, aquellos aspectos que tengan sentido clínico.
La realización de análisis estadísticos puede ser compleja y por ello, en
ocasiones se puede recurrir a asesoramiento o ayuda estadística, pero es
necesario trabajar de forma conjunta con los profesionales estadísticos.
Simplemente por azar se pueden encontrar diferencias o asociaciones que no
son lógicas, por lo que los análisis estadísticos se deben planificar, realziar e
interpretar con sentido clínico.
Existen dos tipos de estadística:
Estadística descriptiva. Trata de sintetizar o resumir la información
contenida en unos datos. Aquí será importante dar los parámetros o
índices que mejor representen a los datos y realizar representaciones
gráficas de la distribución de los datos.
Estadística analítica. Trata de estudiar la asociación entre diferentes
variables, generalmente se trata de comprobar una hipótesis y la
estimación de intervalos de confianza (dar un rango de valores creíbles
para un determinado parámetro).
19
A continuación daremos pinceladas respecto a los índices o parámetros y los
principales test a utilizar, que se muestran en la tabla 5.
Tabla 5. Principales test estadísticos
Estadística descriptiva
Tipo de variable D.N. Parámetro o índice
Cualitativa Frecuencias, porcentajes
Cuantitativa Si Media, D.E., IC95%
No Mediana; P2,5-P97,5; P25-P50
Tiempo hasta el evento Análisis de supervivencia, Curva de Kaplan
Meier; mediana de supervivencia y su
IC95%
Estadística analítica
Objetivo Tipo de
variable
D.N. Test estadístico
Comparar 2
muestras
Cualitativa Chi-cuadrado, Test exacto de Fisher,
Regresión logística, RO
Cuantitativa Si T-student para muestras independientes
Test de Welch si varianzas no homogéneas
T-student para muestras dependientes
No U Mann-Whitney o Wilcoxon para muestras
independientes.
Test de Wilcoxon para muestras
dependientes
Bootstrap
TE Log-rank
Comparar >2
muestras
Cualitativa Regresión logística, RO.
Cuantitativa Si ANOVA; test a posteriori; corrección de
Bonferroni
No Kruskal-Wallis (muestras independientes)
Friedman (muestras dependientes)
Bootstrap
Asociación
entre 2
variables
Cuantitativas Si Coeficiente de correlación de Pearson (r)
No Coeficiente de correlación de Spearman
Regresión lineal simple
Asociación
con 2 o más
variables
V.D.
dicotómica
Regresión logística
V.D.
cuantitativa
Regresión lineal (RO)
V.D. TE Regresión de Cox (HR)
20
D.E. = desviación estándar; D.N. = siguen una distribución normal; HR= Hazard ratio; IC95%=
intervalo de confianza del 95%; P= percentil; r= coeficiente de correlación; RO = razón de odds;
TE= tiempo hasta el evento; V.D. = variable dependiente.
Un aspecto importante a la hora de elegir los índices y test estadísticos es el
tipo de variable, si se trata de variables cualitativas (nominales u ordinales,
dicotómicas o policotómicas) o variables cuantitativas (discretas o continuas).
Para realizar los análisis estadísticos es importante tener la base de datos con
las variables recogidas. La mayoría de los paquetes estadísticos permiten
importar bases de datos de Excel. Es importante que las variables estén bien
codificadas y en ocasiones ello exige transformar ciertas variables. Por ejemplo,
las variables dicotómicas se suelen transformar en 0 y 1, siendo 1 la presencia
de un determinado factor o característica y 0 la ausencia de la misma.
En estadística descriptiva los índices a utilizar van a depender del tipo de
variable. Las variables cualitativas generalmente se van a describir mediante
frecuencias o porcentajes. Las variables cuantitativas que siguen una
distribución normal se describen mediante la media y la desviación estándar o
la media y el intervalo de confianza del 95%. Las variables cuantitativas que no
siguen una distribución normal mediante la mediana y los percentiles. Los
percentiles más utilizados son el percentil 2,5 y el 97,5, entre cuyos valores
estarían el 95% de los valores, y por tanto se asemejaría al intervalo de
confianza del 95% utilizado en las variables normales. Con frecuencia se
utilizan también el percentil 25 y 75.
En ocasiones el dato de interés no es sólo si ocurre un evento o no sino
cuándo ocurre este evento, por ejemplo fallecer, progresar, etc. El análisis de
estas variables de hace mediante el análisis de supervivencia. En este caso,
las variables que se requieren en la base de datos son dos, una variable que
recoge si ha ocurrido el evento o no y otra que recoge el tiempo transcurrido
desde que ha entrado en el estudio hasta que ha ocurrido el evento o hasta
que se ha seguido al paciente o individuo. Con estos datos se puede construir
una curva de supervivencia mediante el método de Kaplan-Meier que nos dará
la probabilidad de supervivencia en cada momento. También se puede
calcular la mediana de supervivencia, que será el tiempo en que ha ocurrido el
21
evento a la mitad de los individuos, y su intervalo de confianza. Es importante
representar la curva de supervivencia gráficamente.
Como los test estadísticos a utilizar dependen en cierta medida de la
distribución normal o no de las variables, uno de los primeros análisis que se
suele realizar, en especial cuando el tamaño de muestra es pequeño, es un
test de normalidad para las variables cuantitativas. Los más utilizados son el
test de Kolgomorov-Smirnov, y el de Shapiro Wilk, quizá este segundo se
emplee más frecuentemente, sobre todo con muestras pequeñas. O también
se puede estudiar la asimetría (skweness) y la kurtosis. Como parte del análisis
es importante realizar una representación gráfica, por ejemplo histogramas, y
observar la distribución de los datos.
En estadística analítica vamos a identificar 4 situaciones diferentes, que,
aunque no son las únicas, son situaciones que se dan con mucha frecuencia:
Comparación de una variable entre dos muestras. En muchas ocasiones
es de interés comparar una variable entre dos grupos creados en base a
una variable cualitativa, por ejemplo, el recibir un tratamiento o no
recibirlo, haber recibido la intervención de un profesional o no, o tener
una característica o no. El análisis de interés del estudio puede ser
comparar una variable de resultado entre dos grupos, pero también hay
que comparar una variable entre dos grupos cuando se quiere analizar
si los grupos son comparables entre sí en características basales, en
factores de confusión, etc, lo que suele corresponder a la primera tabla
que informa de la población en muchos ensayos clínicos y estudios
observacionales. Como se ha comentado, no solo es importante la
significación de la diferencia sino también la magnitud de esta diferencia
y la incertidumbre o intervalo de confianza de esta diferencia.
Dependiendo del tipo de variable realizaremos un test u otro.
o Para las variables cualitativas se utiliza el test de chi-cuadrado de
Pearson, o el test exacto de Fisher (en especial cuando alguno de
los valores en la tabla de 2x2 es menor de 5). También se puede
aplicar la regresión logística, que se explica más adelante. Se
pueden calcular RO a partir de la tabla 2x2 o a partir de la
regresión logística.
22
o Para Las variables cuantitativas normales se utiliza generalmente
el test de t-student para muestras independientes o para
muestras dependientes o pareadas en función de si los individuos
de los dos grupos son diferentes en el primer caso o, en el
segundo caso, si al mismo individuo se le ha sometido primero al
factor clasificador de los grupos, ej un tratamiento, y luego no, o al
revés, primero no y luego sí. En ocasiones también se aplican test
de muestras dependientes cuando, sin ser los mismos individuos
en los dos grupos, se han emparejado por diferentes
características. El test de t-student para muestras independientes
requiere que las varianzas de ambos grupos sean homogéneas,
si este requisito no se cumple se utilizará el test de Welch.
o Para las variables cuantitativas no normales se utiliza el test de U
de Mann-Whitney o el test de Wilcoxon para muestras
independientes. Hay que diferenciar este test del Test de
Wilcoxon para muestras dependientes. Una alternativa es el uso
de técnicas de bootstrap. Bootstrap es una técnica de remuestreo
que crea un número grande de muestras a partir de la muestra
original, con el mismo tamaño muestral que la de partida, pero en
las que se permite repetición de algunos valores, y por tanto
exclusión de otros. La media de todas estas muestras seguirá una
distribución normal y por tanto permitirá aplicación de análisis y
cálculo de índices de distribuciones normales.
o Para comparar dos curvas de supervivencia se utiliza el test de
Log-rank.
Comparación de variables entre más de dos muestras.
o Para variables cualitativas, cuando existen más de dos grupos y
estos grupos son ordinales, por ejemplo comparar el % de
pacientes con un determinado evento entre pacientes que han
revivido dosis diferentes de un mismo medicamento, se puede
utilizar el test de tendencia lineal. Otra opción para comparar
variables cualitativas dicotómicas entre más de 2 grupos es la
regresión logística.
23
o Para las variables cuantitativas normales se utiliza el test de
ANOVA. Un resultado significativo en este test indicará que
existen diferencias entre algunos de los grupos pero será
necesario realizar test a posteriori para identificar entre qué
grupos existen diferencias significativas. Entre estos hay que
distinguir los más conservadores del resto. Se pueden comparar
todos los grupos entre sí o fijarse solamente en un número
determinado de comparaciones de interés. Si se admite un alfa de
0,05, en las comparaciones a posteriori tendremos que dividir
0,05 por el número de comparaciones a realizar, se denomina
corrección de Bonferroni, y trata de disminuir la probabilidad de
encontrar diferencias significativas solo por azar cuando
realizamos muchas comparaciones.
o Para variables cuantitativas no normales se utiliza el test de
Kruskal-Wallis si las muestras son independientes y el de
Friedman si las muestras son dependientes o emparejadas.
También se pueden utilizar técnicas de Bootstrap.
Analizar la asociación entre dos variables cuantitativas.
o Si las dos variables siguen una distribución normal se calcula el
coeficiente de correlación de Pearson (r). Al representar una
variable en el eje de abscisas y la otra en el eje de ordenadas,
este coeficiente indica el grado en que se ajustan los puntos a
una recta. Por ello, es bueno representar los puntos gráficamente
y observar este ajuste, además de hacer el análisis estadístico.
Ya que la relación entre las variables puede no ser lineal y esto se
observa más fácil mediante el gráfico. No existe una norma clara,
pero un valor de r<0,30 indicaría una asociación pobre y r>0,7
asociación fuerte.
o Si una de las variables no sigue una distribución normal se
calcula el coeficiente de correlación de Spearman.
o Otra estrategia para analizar la asociación entre dos variables
cuantitativas es la regresión lineal simple. Mediante la regresión
se analiza si esta relación es lineal y también la ecuación que las
relaciona, que será Y=a +b X, siendo Y la variable dependiente y
24
X la variable independiente. X podría ser una variable cuantitativa
o cualitativa ordinal. De modo que se podría predecir Y en función
de X. Si representáramos Y en las ordenadas y X en as abscisas,
“b” sería la pendiente de la recta y “a” la ordenada en el origen.
En una regresión lineal se calcula el coeficiente de determinación
(R2) que indica el porcentaje de la variabilidad de Y que es
explicada por la variable X. Cuanto mayor sea R2 mayor será el
ajuste a la línea recta. La regresión requiere la independencia de
las observaciones (por ejemplo, que no haya varias
observaciones de un mismo individuo) y la normalidad de los
residuales. Los residuales son la diferencia entre el valor predicho
de Y para cada valor de X con el modelo y el valor real de Y.
Analizar la asociación entre múltiples variables. Se realiza
generalmente mediante análisis de regresión. Estos análisis de
regresión se utilizan generalmente para determinar predictores
(variables independientes, X) de una variable dependiente (Y),
construir una ecuación para predecir una variable Y a partir de los
valores de unas variables Xs, determinar el efecto de una variable X1
sobre una variable Y corrigiendo por factores de confusión (X2,
X3…Xn), identificar interacciones entre variables. Por ello, es uno de
los tipos de análisis estadísticos que se van a realizar con mayor
frecuencia. El tipo de análisis de regresión a realizar viene
determinado por el tipo de variable dependiente. Las variables
independientes en todos los tipos de regresión pueden ser
cuantitativas o cualitativas. En el caso de variables independientes
cualitativas que tengan más de 2 categorías se tienen que crear las
variables dummy o ficticias. Si hay n categorías, se crearán n-1
variables dummy. Por ejemplo, la variable raza puede tener 3
categorías caucásico, negro y asiático. Supongamos que caucásico
es la categoría de referencia y crearemos 2 variables dummy, negro
si/no (dando valores 1/0) y asiático si/no (1/0), los caucásicos serán
los que tengan no en ambas variables.
o Si la variable dependiente es cuantitativa se realiza regresión
lineal múltiple. Estimando la ecuación Y = a + b1X1
25
+b2X2+..+bnXn. b1 indicará cuánto aumenta Y al aumentar X1 en
una unidad corregido por las otras variables X, si estas son
factores de confusión. El modelo dará también la significación
estadística de los coeficientes b y sus intervalos de confianza. Al
igual que la regresión simple se puede calcular R2, pero en este
caso se penaliza por el número de variables en el modelo
calculando la R2 ajustada. En esta regresión también se debe
cumplir la normalidad de los residuales, la independencia de las
observaciones y la tolerancia (no colinealidad) entre las variables
X. Por ello, no se debe introducir dos variables X que estén muy
correlacionadas como el IMC y el grado de obesidad, por ejemplo.
Respecto a cuántas variables introducir en el modelo, esto va a
depender en gran medida del objetivo del modelo. Cuando se
quiere construir una ecuación para estimar Y en función de
diferentes variables X, y se quiere que la ecuación sea práctica,
no conviene tener muchas variables en el modelo, sólo aquellas
con coeficientes estadísticamente significativos y con sentido
clínico. Sin embargo, si se quiere corregir por factores de
confusión interesa corregir por el mayor número de factores y no
se dejan en el modelo solo los estadísticamente significativas sino
las que su eliminación modifica el valor de b1 (el coeficiente de la
variable de interés) de forma importante, por ejemplo más de un
10-20%. En los modelos de regresión es importante estudiar si
existe interacción ente diferentes variables X, y si es así introducir
el término de interacción en el modelo, esto también se aplica en
los siguientes modelos de regresión.
o Si la variable dependiente es una variable dicotómica (evento
si/no, que se le dan, en general, los valores 1 al sí y 0 al no) se
utiliza la regresión logística. En este caso la ecuación será ln(p/1-
p)= a + b1X1 +b2X2+..+bnXn, siendo p la probabilidad de que
ocurra el evento y 1-p la probabilidad de que no ocurra. eb1 será
la RO. Esta RO indicará cuanto aumenta el riesgo de presentar el
evento al aumentar una unidad el valor de X1, corregido por el
resto de variables X. Si la variable X1 es tener una característica
26
si (=1) o no (=0), la RO será cuanto aumenta el riesgo del evento
medido en la variable Y por presentar la característica de la
variable X1. También se estima el intervalo de confianza de la RO.
o Si la variable dependiente es el tiempo hasta el evento se realiza
la regresión de Cox. Este análisis permite calcular el Hazard Ratio
(HR). El HR es un cociente entre dos hazard (hazard es el riesgo
de experimentar el evento en un instante del estudio), el hazard
en el grupo con una característica y el hazard en el grupo sin esa
característica, si la variable independiente es dicotómica. Si la
variable independiente es continua, el HR indicará cuánto
aumenta el hazard al aumentar en una unidad la variable X. Si
hay más variables X o factores de confusión, el valor del HR será
corregido por el resto de variables. Este test asume ciertos
aspectos como la proporcionalidad entre los hazards en los dos
grupos comparados.
o Existen otros modelos de regresión más complejos que no vamos
a analizar en este capítulo.
Otros análisis estadísticos incluyen: el cálculo del poder predictivo de un
modelo, el cálculo de sensibilidad, especificidad y curvas ROC; el análisis de la
concordancia entre varias mediciones o estimaciones de una misma variable
por diferentes técnicas, diferentes personas, etc, mediante el cálculo de kappa;
u otros análisis estadísticos que no abordaremos en este capítulo.
2.8. Resultados
Los resultados de la investigación proporcionan la evidencia científica que
apoya la toma de decisiones clínicas y la mejora en el cuidado de la salud. Por
ello, se debe prestar un cuidado especial en su exposición e interpretación.
Conviene iniciar la exposición de los resultados mediante una descripción
general de la muestra. Deben enfatizarse los datos relevantes para el objetivo
del trabajo.
27
La forma de mostrar los resultados, en forma de tablas, gráficos o texto
depende del tipo de análisis estadístico requerido y de la naturaleza de la
investigación.
Algunos mensajes se expresan mejor con gráficos en los que los tamaños
relativos que comparan las distintas opciones valoradas (en el caso de
histogramas, por ejemplo) impactan y transmiten claramente la medida de los
resultados.
A veces, el gráfico sirve para enfatizar una relación inusual entre variables,
como por ejemplo la relación curvilínea entre la respuesta al tratamiento con
sertralina y la concentración basal en suero, de este fármaco.
En cualquier caso el método de exposición seleccionado no debe transmitir una
realidad confusa o modificar la realidad de los resultados obtenidos.
Un aspecto claro, es que no se debe omitir ningún tipo de resultado. En este
sentido, a penas hace un año, se ha llevado a cabo en EEUU el denominado
análisis STAT que ha mostrado que centros prestigiosos de investigación de
dicho país como el Memorial Sloan Kettering Cancer Center o la Universidad
de Stanford entre otros incumplen sistemáticamente las leyes federales en
materia de publicación de los resultados de investigación, omitiendo datos
importantes sobre seguridad y beneficio de los tratamientos estudiados con lo
que producen un daño importante a los pacientes y a los médicos que los
atienden.
Esta investigación encontró que aunque la industria farmacéutica en ocasiones,
no cumple adecuadamente en la transmisión de los resultados, algunas
facultades de medicina, hospitales docentes y ciertos grupos sin ánimo de lucro
lo hacen aún mucho peor.
No informar los resultados de la investigación, de forma completa, es una mala
práctica ya que retrasa el conocimiento y el aprendizaje.De hecho, transmitir
con calidad los resultados completos de una investigación es la mejor manera
de proporcionar el máximo retorno de la inversión realizada en la investigación.
El sesgo en los resultados se produce cuando la naturaleza y sentido de los
mismos influye en su diseminación. Así, los resultados que no son
estadísticamente significativos (“negativos”) tienden a omitirse o a reducir su
comunicación, como indican Hopewell S. y col., y por el contrario aquellos que
28
son estadísticamente significativos tienden a sobre-expresarse como señalan
Von Elm E y col.
Además el tipo de resultados obtenidos también influye en la velocidad en la
que son publicados y en la probabilidad en la que son citados.
Un análisis del seguimiento de 29.779 resúmenes comunicados realizado por
Scherer RW. Y col., mostró que algo menos de la mitad de los mismos
condujeron a una publicación completa y que la mayor parte de éstos, hacían
referencia a resultados “positivos” tanto si eran estadísticamente significativos
como si el resultado era favorable al tratamiento experimental.
Hay que tener en cuenta que los resultados que no alcanzan significación
estadística no sólo tienden a ser omitidos por sus autores sino que es menos
probable que sean aceptados para su publicación.
Otro aspecto a considerar en el sesgo de resultados es la desviación entre lo
que se publica como resultado de un estudio y los objetivos del mismo. En el
año 2004 Chan AW. Y col. llevaron a cabo una revisión de trabajos publicados
en Dinamarca comparando los resultados expuestos con los protocolos
originales aprobados por los comités de ética, encontrando que dos tercios de
las publicaciones habían modificado uno de los objetivos planificados.
Por tanto, los investigadores deben comprometerse a seguir sin desviaciones el
protocolo diseñado y aprobado por el comité de ética y a comunicar los
resultados completos de la investigación, tanto positivos como negativos así
como las dificultades o limitaciones del estudio. Es la manera en la que
realmente la ciencia progresa y permite acortar caminos en el avance del
conocimiento.
En los últimos años, se ha producido un nuevo enfoque en la investigación al
introducir medidas de beneficio social, considerando no sólo resultados
económicos, si no también de calidad de vida. Para ello, los protocolos se han
modificado con la intención de obtener no sólo resultados clínicamente
relevantes sino algo más importante y es que sean relevantes para los
pacientes y para la sociedad. Generalmente las nuevas medidas incluyen
cuestionarios de calidad de vida, mediciones del estado de salud, valoraciones
de la satisfacción de los pacientes, de distress psicológico, costes directos e
indirectos, escalas de dolor, etc.
29
Y así, en la actualidad, se habla cada vez más de “resultados en salud” que
hace referencia al impacto que las actividades sanitarias tienen en la población,
en sus síntomas, en su capacidad para hacer lo que desean y en definitiva en
si viven o mueren. Los resultados en salud incluyen si el proceso de una
determinada enfermedad mejora o empeora, cuáles son los costes de su
cuidado y cuál es la satisfacción de los pacientes con los cuidados recibidos.
Por tanto, se ha modificado el enfoque desde “qué es lo que se hace” a los
pacientes con “que resultados se obtienen” con lo que se hace.
Desde hace unos años, se vienen desarrollando distintas aplicaciones
informáticas destinadas a la introducción por parte de los pacientes, de algunas
medidas de resultado, especialmente síntomas tales como por ejemplo dolor o
vómitos. Para su empleo resulta crítico un manejo informático básico por parte
de los pacientes, así como técnicas formativas adecuadas y validadas.
30
3. Bibliografía
1. Araya Alpízar C., Galindo Vilardon MP. Tamaño de la muestra en
investigación clínica. MedClin (Barc) 2009; 133 (1): 26-30.
2. Chan AW., Hróbjartsson A., Haahr MT., Gotzsche PC., Altman DG.
Empirical evidence for selective reporting of outcomes in randomized trials.
Comparison of protocols to published articles. JAMA 2004; 291: 2457-2465.
3. Hopewell S., Loudon K., Clarke MJ., Oxman AD., Dickersin K. Publication
bias in clinical trials due to statistical significance or direction of trial results.
2009; Cochrane Database of Systematic reviews, Issue 1. Art. Nº
MR000006. DOI: 10.1002/14651858.MR000006.pub3.
4. Marrugat J., Vila J., Pavesi J, Sanz F. Estimación del tamaño de muestra
en la investigación clínica y epidemiológica. MedClin (Barc) 1998; 111: 267-
276.
5. Martínez Gonzalez M.A., Sánchez-Villegas A., Toledo Atucha E.A., Faulin
Fajardo J. Bioestadística amigable. 3ª Ed. Elsevier España S.L. Barcelona,
2014.
6. Pocock SJ., Stone GW. Theprimaryoutcomeis positive- Isthatgoodenough?.
N Engl J Med 2016; 375: 971-979.
7. Scherer RW., Langenberg P., Von Elm E. Full publication of results initially
presented in abstracts. 2007; In: The Cochrane library. Issue 2. Art Nº
MR000005. DOI: 10.1002/14651858.MR000005.pub3.
8. Von Elm E., Poglia G., Walder B., Tramer MR. Different patterns of
duplicate publication. Analysis of articles used in systematic reviews. JAMA
2004; 291: 974-980.