recomendaciones armonizadas para la validaciÓn …

32
RESOLUCIÓN OENO 8/2005 Certificado conforme Paris, 20 de julio de 2005 El Director General de la OIV Secretario de la Asamblea general Federico CASTELLUCCI 1 RECOMENDACIONES ARMONIZADAS PARA LA VALIDACIÓN DE MÉTODOS DE ANÁLISIS EN UN SOLO LABORATORIO (informe técnico) LA ASAMBLEA GENERAL En virtud del artículo 2 párrafo 2 iv del acuerdo sobre la creación de la Organización Internacional de la Viña y el Vino A propuesta de la Subcomisión de métodos de análisis y de valoración de los vinos, DECIDE crear un Anexo E en el Compendio Internacional de los Métodos de Análisis con el título “Aseguramiento de la calidad en los laboratorios” “ DECIDE: agrupar en este anexo E todas las resoluciones ya adoptadas relativas al aseguramiento de calidad en los laboratorios DECIDE introducir en el Anexo E de dicho Compendio las siguientes directivas: RECOMENDACIONES ARMONIZADAS PARA LA VALIDACIÓN DE MÉTODOS DE ANÁLISIS EN UN SOLO LABORATORIO (informe técnico) Síntesis La validación de métodos es una de las medidas universalmente reconocidas como parte necesaria de todo sistema completo de garantía de calidad en la química analítica. En el pasado ISO, IUPAC (Unión internacional de química pura y aplicada) y AOAC INTERNATIONAL han cooperado para elaborar protocolos o directivas comunes sobre Realización e Interpretación de Estudios de la eficiencia de los Métodos 1 , sobre Ensayos de Aptitud de Laboratorios de Química Analítica) 2 , sobre Control Interno de Calidad en Laboratorios de Química Analítica 3 y sobre Uso de Datos de Recuperación en las Mediciones Analíticas 4 . La IUPAC ha encargado ahora al grupo de trabajo que elabore estos protocolos/directrices para establecer directrices de validación de métodos de análisis en un solo laboratorio. Dichas directrices ofrecen unas recomendaciones mínimas sobre los procedimientos que deben seguirse para garantizar una validación adecuada de los métodos analíticos. Se discutió un borrador de las directrices durante el Simposio Internacional sobre Armonización de Sistemas de Garantía de Calidad en Laboratorios Químicos, cuyas actas han sido publicadas por la Royal Society of Chemistry del Reino Unido. Resultados del Simposio sobre Armonización de Sistemas de Garantía de Calidad para Laboratorios Analíticos, Budapest, Hungría, 4-5 de noviembre de 1999 patrocinado por IUPAC, ISO y AOAC INTERNATIONAL

Upload: others

Post on 08-Nov-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

1

RECOMENDACIONES ARMONIZADAS PARA LA VALIDACIÓN DE MÉTODOS DE ANÁLISIS EN UN SOLO LABORATORIO (informe técnico) LA ASAMBLEA GENERAL En virtud del artículo 2 párrafo 2 iv del acuerdo sobre la creación de la Organización Internacional de la Viña y el Vino A propuesta de la Subcomisión de métodos de análisis y de valoración de los vinos, DECIDE crear un Anexo E en el Compendio Internacional de los Métodos de Análisis con el título “Aseguramiento de la calidad en los laboratorios” “ DECIDE: agrupar en este anexo E todas las resoluciones ya adoptadas relativas al aseguramiento de calidad en los laboratorios DECIDE introducir en el Anexo E de dicho Compendio las siguientes directivas:

RECOMENDACIONES ARMONIZADAS PARA LA VALIDACIÓN DE MÉTODOS DE ANÁLISIS EN UN SOLO LABORATORIO (informe técnico)

Síntesis La validación de métodos es una de las medidas universalmente reconocidas como parte necesaria de todo sistema completo de garantía de calidad en la química analítica. En el pasado ISO, IUPAC (Unión internacional de química pura y aplicada) y AOAC INTERNATIONAL han cooperado para elaborar protocolos o directivas comunes sobre Realización e Interpretación de Estudios de la eficiencia de los Métodos1, sobre Ensayos de Aptitud de Laboratorios de Química Analítica)2, sobre Control Interno de Calidad en Laboratorios de Química Analítica3 y sobre Uso de Datos de Recuperación en las Mediciones Analíticas4. La IUPAC ha encargado ahora al grupo de trabajo que elabore estos protocolos/directrices para establecer directrices de validación de métodos de análisis en un solo laboratorio. Dichas directrices ofrecen unas recomendaciones mínimas sobre los procedimientos que deben seguirse para garantizar una validación adecuada de los métodos analíticos. Se discutió un borrador de las directrices durante el Simposio Internacional sobre Armonización de Sistemas de Garantía de Calidad en Laboratorios Químicos, cuyas actas han sido publicadas por la Royal Society of Chemistry del Reino Unido.

Resultados del Simposio sobre Armonización de Sistemas de Garantía de Calidad para Laboratorios Analíticos, Budapest, Hungría, 4-5 de noviembre de 1999

patrocinado por IUPAC, ISO y AOAC INTERNATIONAL

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

2

CONTENIDO 1 INTRODUCCIÓN 1.1 Antecedentes 1.2 Protocolos, normas y directrices existentes 2 DEFINICIONES Y TERMINOLOGÍA 2.1 Generales 2.2 Definiciones utilizadas en esta guía 3 Validación de métodos, incertidumbre y garantía de calidad 4 PRINCIPIOS BÁSICOS DE LA VALIDACIÓN DE MÉTODOS 4.1 Especificación y ámbito de validación 4.2 Hipótesis de ensayo 4.3 Fuentes de error en el análisis 4.4 Efectos del método y del laboratorio 5 Realización de estudios de validación 6 Alcance de los estudios de validación 6.1 El laboratorio debe utilizar un método “completamente” validado 6.2 El laboratorio debe utilizar un método completamente validado, pero con una nueva matriz 6.3 El laboratorio debe utilizar un método establecido, pero no estudiado de forma colectiva 6.4 El método ha sido publicado en la literatura científica especificando algunas características

analíticas 6.5 El método ha sido publicado en la literatura científica sin especificación de sus

características o ha sido desarrollado internamente 6.6 El método es empírico 6.7 El análisis es “ad hoc” 6.8 Cambios en el personal y el equipo 7 RECOMENDACIONES 8 REFERENCIAS

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

3

ANEXO A: NOTAS SOBRE LOS REQUISITOS DEL ESTUDIO DE LAS CARACTERÍSTICAS DEL RENDIMIENTO DEL MÉTODO. A1 Aplicabilidad A2 Selectividad A3 Calibrado y linealidad A3.1 Linealidad e intercepto A3.2 Ensayo del efecto de matriz general A3.3 Procedimiento final de calibrado A4 Veracidad A4.1 Estimación de la veracidad A4.2 Condiciones para las pruebas de veracidad A4.3 Valores de referencia para pruebas de veracidad A4.3.1 Materiales de referencia certificados (MRC) A4.3.2 Materiales de referencia A4.3.3 Uso de un método de referencia A4.3.4 Uso de adición/recuperación A5 Fidelidad A6 Recuperación A7 Rango A8 Límite de detección A9 Límite de determinación o límite de cuantificación A10 Sensibilidad A11 Robustez A12 Adecuación al ensayo A13 Variación de la matriz A14. Incertidumbre de la medición

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

4

ANEXO B. CONSIDERACIONES ADICIONALES PARA LA ESTIMACIÓN DE LA INCERTIDUMBRE EN ESTUDIOS DE VALIDACIÓN B1 Análisis de sensibilidad B2 Criterio profesional

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

5

1. INTRODUCCIÓN

1.1 ANTECEDENTES Se requieren métodos analíticos fiables para cumplir con las normativas nacionales e internacionales en todas las áreas de análisis. Por lo tanto, está admitido internacionalmente que un laboratorio deba tomar las medidas pertinentes para asegurarse de que es capaz de producir, y de que produce efectivamente, datos con el nivel necesario de calidad. Dichas medidas comprenden: • utilización de métodos de análisis validados • utilización de procedimientos internos de control de calidad • participación en ensayos de aptitud; y • obtención de la certificación según una norma internacional, habitualmente ISO/IEC 17025. Cabe resaltar que la certificación ISO/IEC 17025 concierne específicamente el establecimiento de la trazabilidad de las mediciones, al tiempo que fija un conjunto de otros requisitos técnicos y de gestión que incluyen todos los indicados anteriormente. Así, la validación de métodos es un componente esencial de las medidas que un laboratorio debe implementar para producir datos analíticos fiables. Otros aspectos de lo anteriormente dicho han sido tratados por el Grupo de Trabajo Interdivisional de la IUPAC sobre Armonización de Métodos de Garantía de Calidad para Laboratorios Analíticos, en particular mediante la elaboración de protocolos/directrices sobre los estudios (colectivos) de rendimiento de los métodos,1 ensayos de aptitud,2 y control interno de calidad.3 En algunos sectores, y en particular en el análisis de los alimentos, la necesidad de utilizar métodos “totalmente validados” está estipulada por la legislación.5,6 La validación “total” de un método analítico suele incluir un examen de las características del método mediante un estudio inter-laboratorio del rendimiento del método (también conocido como estudio o ensayo colectivo). Se han elaborado protocolos internacionalmente aceptados para la validación “completa” de los métodos de análisis mediante ensayos colectivos, en especial el Protocolo Internacional Armonizado1 y el procedimiento ISO.7 Estos protocolos/estándares precisan que se incluyan en el ensayo colectivo un número mínimo de laboratorios y de materiales de ensayo sometidos al estudio inter-laboratorios para validar completamente el método analítico. Sin embargo, no siempre es práctico o necesario realizar una validación total de un método de análisis. En tales casos, puede resultar adecuado llevar a cabo una “validación interna del método” efectuada en un solo laboratorio. La validación del método en un solo laboratorio es pertinente en diferentes circunstancias, como por ejemplo:

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

6

• para garantizar la viabilidad del método antes de realizar un costoso ensayo colectivo formal; • para obtener pruebas de la fiabilidad de los métodos analíticos si no se dispone de datos de un

ensayo colectivo o si no es posible realizar un ensayo colectivo formal; • para garantizar que se utilizan correctamente los métodos validados estándares. Si se debe caracterizar un método internamente, es importante que el laboratorio determine y acuerde con el cliente qué características deben evaluarse exactamente. No obstante, en muchas situaciones estas características pueden afirmarse por ley (p.ej.: residuos de medicamentos veterinarios y pesticidas en los alimentos, en el sector de la alimentación). El contenido de la evaluación que llevan a cabo los laboratorios debe ajustarse a los requisitos de la legislación. No obstante, en algunas áreas analíticas un gran número de laboratorios utilizan el mismo método analítico para determinar componentes químicos estables en matrices definidas. Cabe observar que si es posible ofrecer a estos laboratorios un método estudiado de forma colectiva adecuado, el coste del ensayo colectivo para validar dicho método está plenamente justificado. El uso de un método estudiado de forma colectiva reduce considerablemente los esfuerzos que debe realizar un laboratorio, antes de utilizar el método de forma habitual, para llevar a cabo el conjunto de los trabajos de validación. Un laboratorio que emplee un método estudiado de forma colectiva que considere adecuado para sus propósitos sólo necesita demostrar que puede ofrecer las características de rendimiento estipuladas en el método. Dicha comprobación del uso correcto de un método es mucho menos costoso que una validación completa en un solo laboratorio. El coste total para la comunidad analítica de validar un método específico mediante un ensayo colectivo, validando posteriormente sus atributos de rendimiento en los laboratorios que deseen utilizarlo con frecuencia, suele ser inferior al coste que supone que muchos laboratorios realicen independientemente validaciones del mismo método en un solo laboratorio.

1.2 PROTOCOLOS, ESTÁNDARES Y GUÍAS EXISTENTES Se han elaborado varios protocolos y directrices8-19 de validación de métodos e incertidumbres, principalmente por parte de AOAC INTERNATIONAL, la Conferencia Internacional de Armonización (ICH) y en documentos del Eurachem: • El manual de estadística de la AOAC, que recomienda llevar a cabo estudios en un solo

laboratorio antes de realizar ensayos colectivos13 • El texto15 y la metodología16 de la ICH, que prescriben los requisitos mínimos del estudio de

validación para las pruebas utilizadas para presentación de medicamentos para su aprobación. • La adecuación al propósito de los métodos analíticos: guía de laboratorio para la validación de

métodos y temas relacionados (1998)12 • Cuantificación de la incertidumbre en las mediciones analíticas (2000)9

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

7

La validación de métodos también se discutió ampliamente en una consulta conjunta a expertos de la FAO/IAEA, celebrada en diciembre de 1997, sobre la validación de métodos analíticos para el control alimentario, cuyo informe está disponible19. Las presentes ‘directrices’ recogen los principios científicos básicos de los documentos antes citados para ofrecer una información internacionalmente aceptada y, lo que es más importante, para indicar el camino de las mejores prácticas en la validación de métodos en un solo laboratorio. 2 DEFINICIONES Y TERMINOLOGÍA

2.1 DEFINICIONES GENERALES Los términos utilizados en el presente documento respetan en la medida de lo posible las definiciones de ISO y IUPAC. Los siguientes documentos contienen definiciones relevantes: i) IUPAC: Compendio de terminología química, 1987 ii) Vocabulario internacional de términos básicos y generales de metrología. ISO 1993

2.2 DEFINICIONES UTILIZADAS ESPECÍFICAMENTE EN ESTA GUÍA: Incertidumbre relativa: incertidumbre expresada como una desviación estándar relativa. Rango validado: parte del rango de concentración de un método analítico que ha sido objeto de una validación.

3 VALIDACIÓN DE MÉTODOS, INCERTIDUMBRE Y GARANTÍA DE CALIDAD La validación de métodos emplea un conjunto de pruebas que comprueban todas las hipótesis en las que se basa el método analítico, y establecen y documentan las características de rendimiento de un método, demostrando así si dicho método es adecuado para un propósito analítico particular. Las características de rendimiento de los métodos analíticos son: la aplicabilidad, la selectividad, el calibrado, la veracidad, la fidelidad, la recuperación, el rango de funcionamiento, el límite de cuantificación, el límite de detección, la sensibilidad y la robustez. Pueden añadirse la incertidumbre de la medición y la adecuación al propósito.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

8

En términos estrictos, la validación debe hacer referencia a un ‘sistema analítico’, y no a un ‘método analítico’, ya que el sistema analítico incluye un protocolo de método definido, un rango de concentración definido para el analito y un tipo específico de material de prueba. Para los propósitos del presente documento, hablaremos de la ‘validación de métodos’ en referencia al conjunto de un sistema analítico. Cuando el procedimiento analítico en sí esté establecido, lo denominaremos ‘el protocolo’. En el presente documento, la validación de métodos se considera diferente de las actividades que se realizan repetidamente, como el control de calidad interno (CCI) o los ensayos de aptitud. La validación de métodos se lleva a cabo una vez, o a intervalos relativamente infrecuentes, durante la vida útil de un método; nos indica qué rendimiento podemos esperar del método en el futuro. El CCI nos muestra cuál ha sido el comportamiento del método en el pasado, por cuyo motivo se trata como una actividad independiente en el Programa de Armonización del IUPAC.3 En la validación de métodos, las características cuantitativas de interés tienen que ver con la fidelidad que probablemente ofrecerá el resultado. Por tanto, en general cabe afirmar que validar métodos equivale a estimar la incertidumbre de las mediciones. En la práctica de la validación, los diferentes aspectos del rendimiento del método se representan tradicionalmente mediante los elementos individuales antes indicados, modelo que en gran medida reproducen las presentes directrices. Sin embargo, debido al aumento de la confianza depositada en la incertidumbre de la medición como indicador clave de la adecuación al propósito y la fiabilidad de los resultados, los químicos analíticos cada vez realizan más validaciones de las mediciones para apoyar la estimación de la incertidumbre, y algunos profesionales desean que se haga inmediatamente. Así, la incertidumbre de la medición se trata brevemente en el Anexo A como una característica del rendimiento de un método analítico, mientras que el Anexo B ofrece información adicional sobre algunos procedimientos no tratados en otras partes del documento. 4 PRINCIPIOS BÁSICOS DE LA VALIDACIÓN DE MÉTODOS

4.1 ESPECIFICACIÓN Y ÁMBITO DE VALIDACIÓN La validación se aplica a un protocolo definido para determinar un analito específico y el rango de concentraciones en un tipo de material de prueba particular utilizado para un propósito específico. En general, la validación debe comprobar que el método se comporte de forma adecuada para la finalidad perseguida en todo el conjunto de concentraciones del analito y de materiales de ensayo a los que se aplica. Por consiguiente, estas características, junto con todos los criterios de adecuación al propósito, deben especificarse en su totalidad antes de realizar la validación.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

9

4.2 HIPÓTESIS DE ENSAYO Además de facilitar las cifras de rendimiento que indican la adecuación al propósito, y que imperan en el uso práctico de los datos de validación, los estudios de validación actúan como una demostración objetiva de todas las hipótesis en las que se basa un método analítico. Por ejemplo, si debe calcularse un resultado a partir de una simple recta de calibrado, se supone implícitamente que el análisis está exento de sesgos significativos, que la respuesta es proporcional a la concentración de analito y que la dispersión de errores aleatorios es constante en todo el rango de interés. En la mayoría de casos, dichas hipótesis se establecen a partir de la experiencia acumulada durante el desarrollo del método o durante un largo período de tiempo, de manera que son razonablemente fiables. No obstante, la buena ciencia de las mediciones confía en hipótesis probadas. Por este motivo muchos estudios de validación se basan en pruebas de hipótesis estadísticas, cuyo objetivo es ofrecer una comprobación básica de que las hipótesis sobre los principios del método no contienen defectos graves. Esta nota aparentemente abstrusa reviste una importante implicación práctica: es más fácil comprobar una hipótesis fiable al principio que ‘demostrar’ que una hipótesis particular es correcta. Así, cuando existe una largo historial de éxitos en el uso de una técnica analítica particular (como el análisis por cromatografía de gases o los métodos de digestión de ácidos) en un rango de analitos y matrices, las comprobaciones de validación se consideran justificadamente pequeñas pruebas preventivas. Al contrario, en ausencia de experiencia, el estudio de validación debe ofrecer pruebas claras de que las hipótesis tomadas son adecuadas para los casos particulares objeto del estudio, y, en general, es preciso estudiar todo el conjunto de circunstancias de manera detallada. Así pues, la extensión de los estudios de validación necesarios en un caso determinado dependerá, en parte, de la experiencia acumulada en la técnica analítica empleada. En los siguientes comentarios se dará por sentado que el laboratorio tiene una dilatada experiencia en la técnica en cuestión y que el propósito de cualquier prueba significativa es comprobar que no existen pruebas determinantes para descartar las hipótesis en las que se basa un protocolo particular. El lector deberá tener en cuenta que puede ser preciso realizar comprobaciones más exhaustivas si se emplean técnicas de medición menos conocidas o establecidas.

4.3 FUENTES DE ERROR EN EL ANÁLISIS Los errores en las mediciones analíticas surgen de diferentes fuentes* y a distintos niveles de organización. Una manera práctica de representar estas fuentes (para una concentración de analito específica) es la siguiente+24: * En este documento no se tiene en cuenta la incertidumbre de muestreo en el sentido estricto de incertidumbre debida a la preparación de la muestra de laboratorio a partir del material a analizar a granel. La incertidumbre asociada a la toma de una porción de prueba de la muestra de laboratorio forma parte indisociable de la incertidumbre de medición y se incluye automáticamente a diferentes niveles de los análisis siguientes. + Existen muchos grupos o ‘particiones de error’ posibles, y pueden ser útiles al estudiar fuentes de error particulares

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

10

• error aleatorio de medición (repetibilidad); • sesgo de ejecución; • sesgo del laboratorio; • sesgo del método; • efecto de variación de la matriz. Aunque estas diferente fuentes no son necesariamente independientes, esta lista sirve para comprobar hasta qué punto un estudio de validación determinado estudia las fuentes de error. El término "repetibilidad" (durante la ejecución) incluye las contribuciones de cualquier parte del procedimiento que varía durante una ejecución, incluidas las contribuciones procedentes de errores gravimétricos y volumétricos conocidos, de la heterogeneidad del material de prueba y de la variación en las etapas de tratamiento químico del análisis, y se observa fácilmente en la dispersión de los análisis replicados. El efecto de ejecución se explica por las variaciones cotidianas en el sistema analítico, como los cambios de analistas o de lotes de reactivos, el recalibrado de los instrumentos y el entorno del laboratorio (p.ej.: cambios en la temperatura). En la validación en un solo laboratorio, el efecto de ejecución suele estimarse realizando un experimento diseñado con análisis replicados de un material apropiado en varias ejecuciones independientes. La variación entre laboratorios se deriva de factores como las variaciones en los estándares de calibrado, las diferencias entre las interpretaciones locales de un protocolo, los cambios en el equipo o los reactivos, o de factores del entorno, como las diferencias en las condiciones climáticas medias. La variación entre laboratorios se considera como una realidad evidente en los resultados de ensayos colectivos (estudios de rendimiento del método) y en los ensayos de aptitud. Además, en ocasiones sus resultados permiten detectar variaciones entre métodos. Generalmente, la repetibilidad, el efecto de ejecución y el efecto de laboratorio son de magnitud comparable, de modo que ninguno de ellos puede obviarse si se desea realizar una validación segura. En el pasado se tendía a despreciar algunos aspectos, en particular al estimar y plasmar la información sobre la incertidumbre. Esto provocaba unos intervalos de incertidumbre demasiado elevados. Por ejemplo, tal como se realiza normalmente, el ensayo colectivo no ofrece una imagen completa debido a que los factores de incertidumbre procedentes del sesgo del método y de la variación de la matriz no se estiman en los ensayos colectivos y deben estudiarse de forma independiente (en general, a priori en un estudio en un solo laboratorio). En la validación en un solo laboratorio existe el riesgo específico de no tener en cuenta el sesgo del laboratorio, y este elemento suele ser el mayor factor individual de incertidumbre de entre los anteriormente señalados. Por tanto, debe prestarse una especial atención al sesgo del laboratorio en la validación en un solo laboratorio. con más detalle o en una gama diferente de situaciones. Por ejemplo, el modelo estadístico ISO 5725 suele combinar los efectos de laboratorio y de ejecución, mientras que el procedimiento de valoración de la incertidumbre de la guía ISO GUM es idóneo para estudiar los efectos de cada influencia independiente y medible en el resultado.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

11

Además de los problemas antes citados, la validación de un método se limita al ámbito de su aplicación, esto es, al método aplicado a una clase particular de material de prueba. Si existe una variación sustancial en los tipos de matriz dentro de la clase definida, puede existir una fuente adicional de variación debido al efecto de matriz dentro de la clase. Es evidente que si el método se utiliza posteriormente con materiales no pertenecientes a la clase definida (esto es, fuera del ámbito de la validación), el sistema analítico no puede considerarse validado, ya que se introduce un error adicional de magnitud desconocida en el proceso de medición. También es importante para los analistas tener en cuenta el modo en que varía el rendimiento de un método en función de la concentración del analito. En la mayoría de casos, la dispersión de los resultados aumenta claramente con la concentración y la recuperación puede diferir sustancialmente a altas y bajas concentraciones. Por tanto, la incertidumbre de la medición asociada a los resultados a menudo depende de estos dos factores y de otros factores dependientes de la concentración. Afortunadamente, suele ser razonable suponer una simple relación entre el rendimiento y la concentración del analito, ya que a menudo estos errores son proporcionales a la concentración del analito.* No obstante, cuando el rendimiento del método es de interés a concentraciones sustancialmente diferentes, es importante comprobar la supuesta relación entre rendimiento y concentración del analito. Esto suele hacerse comprobando el rendimiento en los extremos del rango probable, o a unos pocos niveles seleccionados. Las comprobaciones de linealidad también ofrecen información de este tipo. 4.4 EFECTOS DEL MÉTODO Y DEL LABORATORIO En la validación del método en un solo laboratorio es de suma importancia tener en cuenta el sesgo del método y el sesgo del laboratorio. Existen unos pocos laboratorios cuyas instalaciones permiten despreciar estos sesgos, pero se trata de casos excepcionales (sin embargo, si un solo laboratorio realiza un análisis particular, el sesgo del método y el sesgo del laboratorio adquieren una perspectiva distinta). Normalmente, los efectos del método y del laboratorio deben considerarse factores de incertidumbre, pero a menudo son más difíciles de estudiar que el error de repetibilidad y el efecto de ejecución. En general, para valorar las incertidumbres que producen es necesario utilizar información recabada independientemente del laboratorio. Las fuentes generalmente más útiles de dicha información son: (i) estadísticas derivadas de ensayos colectivos (no disponibles en muchas situaciones de validación de un método en un solo laboratorio), (ii) estadísticas derivadas de ensayos de aptitud y (iii) resultados de análisis de materiales de referencia certificados. Los ensayos colectivos estiman directamente la varianza de los sesgos entre laboratorios. Aunque teóricamente el diseño de estos ensayos puede presentar carencias, estas estimaciones de la varianza resultan útiles para muchos propósitos prácticos. En consecuencia, siempre es instructivo realizar una prueba de la validación en un solo laboratorio comparando las estimaciones de la incertidumbre * Puede no ser aplicable a concentraciones inferiores a 10 veces el límite de detección.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

12

con las de la reproducibilidad a partir de ensayos colectivos. Si el resultado en un solo laboratorio es claramente menor, es probable que se hayan dejado de lado importantes fuentes de incertidumbre (también puede ser que un laboratorio particular trabaje con una incertidumbre menor que la hallada en ensayos colectivos: estos laboratorios deben tomar medidas especiales para justificar dicha postura). Si no se ha llevado a cabo ningún ensayo colectivo sobre la combinación método/material de prueba en cuestión, normalmente puede obtenerse una estimación de la desviación estándar de la reproducibilidad σ H a una concentración del analito c superior a unos 120 ppb mediante la función de Horwitz, σ H c= 0 02 0 8495. . , con ambas variables expresadas como fracciones de masa (la estimación de Horwitz suele situarse dentro de un factor de, aproximadamente, dos de los resultados observados en el estudio colectivo). Se ha observado que la función de Horwitz es incorrecta a concentraciones inferiores a unos 120 ppb y que resulta más apropiado emplear una función modificada.21, 25 Toda esta información puede aplicarse a un ensayo en un solo laboratorio produciendo unos cambios mínimos. Las estadísticas derivadas de ensayos de aptitud son particularmente interesantes porque ofrecen información general sobre la magnitud de los sesgos combinados de laboratorio y del método y, para el participante, información sobre el error total en ocasiones específicas. Las estadísticas, como la desviación estándar robusta de los resultados de los participantes para un analito en una serie de ensayos, puede utilizarse en principio de una forma similar a las desviaciones estándar de la reproducibilidad obtenidas de ensayos colectivos (p.ej.: para obtener un valor de referencia de la incertidumbre global y compararlo con estimaciones individuales obtenidas en una validación en un solo laboratorio). En la práctica, puede resultar más complicado explotar las estadísticas de los ensayos de aptitud, ya que no están sistemáticamente expresadas en tablas ni publicadas como los ensayos colectivos, sino que únicamente se comunican a los participantes. Obviamente, si deben utilizarse estas estadísticas, deben hacer referencia a la matriz y a la concentración del analito apropiadas. Los participantes individuales en programas de ensayos de aptitud también pueden valorar la validez de la incertidumbre estimada comparando sus resultados con los valores obtenidos en sucesivas ejecuciones26. No obstante, esto es una actividad que se realiza de forma repetida y, por tanto, no entra estrictamente en la esfera de la validación en un solo laboratorio (que se realiza una sola vez). Si se dispone de un material de referencia certificado adecuado, un ensayo en un solo laboratorio permite al laboratorio valorar el sesgo del laboratorio y el sesgo del método combinados analizando el MRC varias veces. La estimación del sesgo combinado es la diferencia entre el resultado medio y el valor certificado. Pero no siempre se dispone de un material de referencia certificado adecuado, en cuyo caso deben emplearse otros materiales. En ocasiones pueden servir para este propósito los materiales restantes tras los ensayos de aptitud y, aunque los valores señalados de los materiales pueden tener incertidumbres cuestionables, su uso sin duda permite comprobar el sesgo global. Específicamente, suelen elegirse los valores indicados en los ensayos de aptitud para obtener una estimación con un sesgo mínimo, de manera que es importante realizar una prueba del sesgo significativo con este tipo de material. Otra alternativa es utilizar información de adición y

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

13

recuperación4 para obtener estimaciones de estos sesgos, aunque puede haber fuentes de incertidumbre no medibles asociadas a estas técnicas. Actualmente, el efecto menos conocido en la validación es el debido a la variación de la matriz dentro de la clase de material de prueba definida. El requisito teórico para estimar este componente de incertidumbre es analizar en una única ejecución una gama representativa de materiales de prueba, estimar sus sesgos individuales y calcular la varianza de dichos sesgos. (El análisis en una sola ejecución implica que los sesgos elevados no tienen efectos sobre la varianza. Si se utiliza una amplia gama de concentraciones, debe tolerarse un cambio en el sesgo con la concentración). Si los materiales representativos son materiales de referencia certificados, los sesgos pueden estimarse directamente como diferencias entre los resultados y los valores de referencia, lo que redunda en beneficio de la claridad del procedimiento. En el caso más probable de que no existan suficientes materiales de referencia certificados, puede recurrirse a ensayos de recuperación con una gama habitual de materiales de prueba, con la debida precaución. Actualmente existe muy poca información cuantitativa sobre la magnitud de incertidumbres derivadas de esta fuente, aunque en algunos casos se sospecha que es grande. 5 REALIZACIÓN DE ESTUDIOS DE VALIDACIÓN En otros documentos se explica con detalle el diseño y la ejecución de estudios de validación de métodos, de manera que no lo repetiremos aquí. Sin embargo, cabe recordar los principios básicos: Es esencial que los estudios de validación sean representativos. Esto significa que, en la medida de lo posible, deberían realizarse los estudios necesarios para obtener una estimación realista del número y la gama de efectos que se producen durante el uso normal del método, al tiempo que deben analizar la gama de concentraciones y de tipos de muestra que abarca el método. Por ejemplo, si un factor (p.ej.: la temperatura ambiente) varía sustancialmente durante la realización de un experimento de fidelidad, los efectos de dicho factor aparecen directamente en la varianza observada y no precisan de un estudio adicional, a menos que se desee mejorar todavía más el método. En el contexto de la validación de métodos, una “variación representativa” significa que el factor debe tomar una distribución de valores adecuada para el rango previsto del parámetro en cuestión. Para los parámetros continuos medibles, puede ser un rango permitido, una incertidumbre determinada o un rango esperado; para los factores discontinuos, o factores con efectos impredecibles, como la matriz de la muestra, un rango representativo corresponde a los diferentes tipos o “niveles de factor” permitidos o hallados durante el uso normal del método. Idealmente, la representatividad abarca el rango de valores y también su distribución. Por desgracia, a menudo no es económicamente viable disponer de la variación completa de muchos factores a muchos niveles. No obstante, para propósitos prácticos los ensayos basados en extremos del rango esperado o en cambios mayores de lo previsto son un mínimo aceptable.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

14

Al seleccionar los factores de la variación, es importante asegurarse de "ejercer" al máximo los mayores efectos. Por ejemplo, si la variación diaria (quizás a causa de los efectos del recalibrado) es sustancial comparada con la repetibilidad, dos determinaciones de cada una durante cinco días ofrecerá una mejor estimación de la fidelidad intermedia que cinco determinaciones de cada una durante dos días. Diez determinaciones individuales en días separados sería todavía mejor, aunque no ofrecería información adicional sobre la repetibilidad día a día. Al planificar comprobaciones de significación, los estudios deben tener suficiente potencia para detectar estos efectos antes de que lleguen a revestir una fuerte importancia práctica (comparable al mayor componente de incertidumbre). Además, cabe tener en cuenta las siguientes consideraciones: • Si se sabe o se sospecha que los factores interactúan, es importante tener en cuenta el efecto de

interacción. Esto puede lograrse realizando una selección aleatoria desde diferentes niveles de interacción de los parámetros o mediante un meticuloso diseño sistemático para obtener información de los efectos de ‘interacción’ o de la covarianza.

• Al realizar estudios del sesgo global, es importante que los materiales y los valores de referencia sean relevantes para los materiales objeto de los ensayos rutinarios.

6 ALCANCE DE LOS ESTUDIOS DE VALIDACIÓN El alcance de la validación de un método nuevo, modificado o desconocido depende del estatus del método y de la competencia del laboratorio encargado de llevarla a cabo. A continuación se indican algunas sugerencias relativas a la validación y las mediciones de comprobación en diferentes circunstancias. Salvo indicación explícita, se supondrá que el método tendrá un uso periódico.

6.1 EL LABORATORIO DEBE UTILIZAR UN MÉTODO “TOTALMENTE” VALIDADO El método ha sido estudiado en un ensayo colectivo y el laboratorio debe comprobar si es capaz de alcanzar su rendimiento publicado (o si es capaz de cumplir los requisitos de las tareas analíticas). El laboratorio debe realizar estudios de la fidelidad, del sesgo (incluidos estudios de variación de la matriz) y posiblemente estudios de la linealidad, aunque puede omitir algunas pruebas, como por ejemplo la de robustez.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

15

6.2 EL LABORATORIO DEBE UTILIZAR UN MÉTODO TOTALMENTE VALIDADO, PERO CON UNA NUEVA MATRIZ El método ha sido estudiado en un ensayo colectivo y el laboratorio debe comprobar que la nueva matriz no introduce nuevas fuentes de error en el sistema. Se precisa el mismo rango de validación que anteriormente.

6.3 EL LABORATORIO DEBE UTILIZAR UN MÉTODO BIEN ESTABLECIDO, PERO NO ESTUDIADO DE FORMA COLECTIVA Se precisa el mismo rango de validación que anteriormente.

6.4 EL MÉTODO HA SIDO PUBLICADO EN LA LITERATURA CIENTÍFICA JUNTO CON ALGUNAS CARACTERÍSTICAS ANALÍTICAS El laboratorio debe realizar estudios de la fidelidad, del sesgo (incluidos estudios de la variación de la matriz), de la robustez y de la linealidad.

6.5 EL MÉTODO HA SIDO PUBLICADO EN LA LITERATURA CIENTÍFICA SIN ESPECIFICACIÓN DE SUS CARACTERÍSTICAS O HA SIDO DESARROLLADO INTERNAMENTE El laboratorio debe realizar estudios de fidelidad, del sesgo (incluidos estudios de la variación de la matriz), de la robustez y de la linealidad.

6.6 EL MÉTODO ES EMPÍRICO Un método empírico se caracteriza porque la cantidad estimada es simplemente el resultado hallado tras aplicar el procedimiento. Esto difiere de las mediciones que valoran cantidades independientes del método, como la concentración de un analito particular en una muestra, en las que el sesgo del método es convencionalmente cero y la variación de la matriz (dentro de la clase definida) es irrelevante. No puede olvidarse el sesgo del laboratorio, pero probablemente sea difícil estimarlo mediante un ensayo en un solo laboratorio. Además, es improbable que haya materiales de referencia disponibles. En ausencia de datos de un ensayo colectivo, pueden obtenerse algunas estimaciones de la fidelidad interlaboratorio a partir de estudios de robustez específicamente diseñados o calculadas utilizando la función de Horwitz.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

16

6.7 EL ANÁLISIS ES “AD HOC” En ocasiones es necesario utiliza análisis “ad hoc” para establecer el rango general de un valor sin que ello suponga un gasto importante y con baja criticidad. Por ello, el esfuerzo realizable de validación se ve estrictamente limitado. El sesgo debe estudiarse mediante métodos como la estimación de la recuperación o la adición de analito, y la fidelidad, por replicación.

6.8 CAMBIOS EN EL PERSONAL O EL EQUIPO Ejemplos más importantes: cambios en los principales instrumentos, nuevos lotes de reactivos muy variables (por ejemplo, anticuerpos policlonales), cambios realizados en el recinto del laboratorio, métodos utilizados por primera vez por nuevos empleados o un método validado utilizado tras un período de desuso. La acción esencial es demostrar que no se han producido cambios nocivos. La comprobación mínima es realizar una prueba de sesgo y un experimento a priori y a posteriori de los materiales de prueba o de control habituales. En general, las pruebas realizadas deben reflejar el posible impacto del cambio en el procedimiento analítico. 7 RECOMENDACIONES Recomendaciones relativas al uso de la validación de métodos en un solo laboratorio: • Siempre que sea posible y práctico, el laboratorio debe utilizar un método de análisis cuyas

características de rendimiento hayan sido evaluadas mediante un ensayo colectivo, de conformidad con un protocolo internacional.

• Si no se dispone de dicho método, el método debe validarse internamente antes de utilizarlo para generar datos analíticos para un cliente.

• La validación en un solo laboratorio precisa que el laboratorio seleccione las características a evaluar adecuadas, como por ejemplo: aplicabilidad, selectividad, calibrado, exactitud, fidelidad, rango, límite de cuantificación, límite de detección, sensibilidad, robustez y practicabilidad. El laboratorio debe tener en cuenta los requisitos del cliente al elegir las características a determinar.

• El laboratorio debe facilitar pruebas que demuestren que se han estudiado esas características, si así lo solicita el cliente.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

17

8 REFERENCIAS 1. "Protocol for the Design, Conduct and Interpretation of Method Performance Studies", W

Horwitz, Pure Appl. Chem., 1988, 60, 855 864, revisado W. Horwitz, Pure Appl. Chem., 1995, 67, 331-343.

2. “The International Harmonised Protocol for the Proficiency Testing of (Chemical) Analytical

Laboratories”, M Thompson y R Wood, Pure Appl. Chem., 1993, 65, 2123-2144. (También publicado en J. AOAC International, 1993, 76, 926-940.

3. “Harmonised Guidelines For Internal Quality Control in Analytical Chemistry Laboratories”,

Michael Thompson y Roger Wood, J. Pure & Applied Chemistry, 1995, 67(4), 49-56. 4. “Harmonised Guidelines for the Use of Recovery Information in Analytical Measurement”,

Michael Thompson, Stephen Ellison, Ales Fajgelj, Paul Willetts y Roger Wood, J. Pure & Applied Chemistry, 1999, 71(2), 337-348.

5. “Council Directive 93/99/EEC on the Subject of Additional Measures Concerning the Official

Control of Foodstuffs”, O. J., 1993, L290. 6. “Procedural Manual of the Codex Alimentarius Commission, 10th Edition”, FAO, Roma, 1997. 7. “Precision of Test Methods”, Ginebra, 1994, ISO 5725, se publicaron ediciones anteriores en

1981 y 1986. 8. “Guide to the Expression of Uncertainty in Measurement”, ISO, Ginebra, 1993. 9. “Quantifying Uncertainty in Analytical Measurement”, Secretaría de EURACHEM,

Laboratorio Químico Gubernamental, Teddington, Reino Unido, 1995, Guía de EURACHEM (en proceso de revisión).

10. “International vocabulary of basic and general terms in metrology” ISO, Ginebra 1993 11. “Validation of Chemical Analytical Methods”, Secretaría de NMKL, Finlandia, 1996,

Procedimiento NMKL nº. 4. 12. “EURACHEM Guide: The fitness for purpose of analytical methods. A Laboratory Guide to

method validation and related topics”, LGC, Teddington 1996. También disponible en la Secretaría de EURACHEM y en el sitio Web.

13. “Statistics manual of the AOAC”, AOAC INTERNATIONAL, Gaithersburg, Maryland,

EE.UU., 1975

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

18

14. “An Interlaboratory Analytical Method Validation Short Course developed by the AOAC

INTERNATIONAL”, AOAC INTERNATIONAL, Gaithersburg, Maryland, EE.UU., 1996. 15. “Text on validation of analytical procedures” Conferencia Internacional sobre Armonización.

Federal Register, Vol. 60, 1 de marzo de 1995, páginas 11260 16. “Validation of analytical procedures: Methodology” Conferencia Internacional sobre

Armonización. Federal Register, Vol. 62, No. 96, 19 de mayo de 1997, páginas 27.463-27.467. 17. “Validation of Methods”, Inspectorate for Health Protection, Rijswijk, Países Bajos, Informe

95-001. 18. “A Protocol for Analytical Quality Assurance in Public Analysts’ Laboratories”, Association of

Public Analysts, 342 Coleford Road, Sheffield S9 5PH, Reino Unido, 1986. 19. “Validation of Analytical Methods for Food Control”, Informe de Consulta Conjunta de

Expertos FAO/IAEA, diciembre de 1997, Documento de la FAO sobre Alimentos y Nutrición nº. 68, FAO, Roma, 1998

20. “Estimation and Expression of Measurement Uncertainty in Chemical Analysis”, Secretaría de

NMKL, Finlandia, 1997, Procedimiento NMKL nº. 5. 21. M Thompson, PJ Lowthian, J AOAC Int, 1997, 80, 676-679 22. Recomendación de IUPAC: “Nomenclature in evaluation of analytical methods, including

quantification and detection capabilities” Pure and Applied Chem.” 1995, 67 1699-1723 23. ISO 11843. “Capability of detection.” (Several parts). International Standards Organisation,

Ginebra. 24. M. Thompson, Analyst, 2000, 125, 2020-2025 25. “Recent trends in inter-laboratory precision at ppb and sub-ppb concentrations in relation to

fitness for purpose criteria in proficiency testing” M Thompson, Analyst, 2000, 125, 385-386. 26. “How to combine proficiency test results with your own uncertainty estimate - the zeta score”,

Comité de Métodos Analíticos de la Royal Society of Chemistry, documentos técnicos de AMC, publicado por M. Thompson, AMC Technical Brief No. 2, www.rsc.org/lap/rsccom/amc

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

19

ANEXO A: NOTAS SOBRE LOS REQUISITOS DEL ESTUDIO DE LAS CARACTERÍSTICAS DEL RENDIMIENTO DEL MÉTODO Los requisitos generales de las características de rendimiento de un método son los siguientes.

A1 APLICABILIDAD Tras la validación, la documentación debe reflejar, además de las especificaciones de rendimiento, los siguientes datos:

• La identidad del analito, incluida una especificación si es preciso (ejemplo: ‘arsénico total’); • el rango de concentración cubierto por la validación (ejemplo: ‘0-50 ppm’); • una especificación del rango de matrices del material de prueba cubierto por la validación

(ejemplo: ‘marsico’); • un protocolo que describa el equipo, los reactivos, el procedimiento (incluida la variación

permitida en las instrucciones especificadas; p.ej.:, ‘caliente a 100 ± 5° durante 30 ± 5 minutos’), los procedimientos de calibrado y calidad, y cualquier precaución de seguridad necesaria;

• la aplicación prevista y los umbrales de incertidumbre críticos (p.ej.: ‘Análisis de alimentos para detección de enfermedades. La incertidumbre estándar u(c) del resultado c debe ser inferior a 0,1×c.’).

A2 SELECTIVIDAD La selectividad es el grado en que un método puede cuantificar el analito con precisión en presencia de interferentes. Idealmente, la selectividad debería evaluarse para todos los interferentes importantes susceptibles de estar presentes. Es de especial importancia comprobar los interferentes susceptibles de responder a la prueba de acuerdo con los principios químicos. Por ejemplo, es previsible que las pruebas colorimétricas del amoniaco respondan a los aminos alifáticos primarios. Puede no ser viable considerar o probar cada uno de los interferentes potenciales; en tal caso, se recomienda comprobar los casos probablemente peores. Como principio general, la selectividad debe ser suficientemente buena para poder descartar cualquier interferencia. En muchos tipos de análisis, la selectividad es esencialmente un estudio cualitativo basado en la significación, o bien un conjunto de pruebas pertinentes de interferencia. Sin embargo, existen mediciones cuantitativas que pueden resultar útiles, como por ejemplo el índice de selectividad ban/bint, donde ban es la sensibilidad del método (función de la curva de calibrado) y bint la pendiente de la respuesta independientemente producida por un interferente potencial, que ofrece una medición cuantitativa de la interferencia. bint puede determinarse aproximadamente realizando el

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

20

procedimiento con una matriz blanca y añadiendo a la misma el interferente potencial a una concentración adecuada. Si no se dispone de una matriz blanca y en su lugar se emplea un material habitual, bint puede estimarse mediante un simple experimento con la única hipótesis de que no existen efectos de matriz mutuos. Cabe recordar que bint es más fácil de determinar en ausencia del analito porque el efecto puede confundirse con otro tipo de interferencias si la sensibilidad del analito se ve afectada por el interferente (efecto de matriz).

A3 CALIBRADO Y LINEALIDAD Con la excepción de crasos errores en la preparación de los materiales de calibrado, los errores de calibrado suelen ser (aunque no siempre) un componente menor del total de la incertidumbre, y normalmente pueden incluirse con seguridad en otras categorías de errores establecidas por métodos “top-down”. Por ejemplo, los errores aleatorios resultantes del calibrado forman parte del sesgo de ejecución, que se valora en su conjunto, mientras que los errores sistemáticos procedentes de esta fuente se consideran parte del sesgo del laboratorio, que también se valora en su conjunto. No obstante, existen algunas características de calibrado que resulta útil conocer al principio de la validación de métodos dado que afectan a la estrategia de desarrollo óptimo del procedimiento. En esta clase se incluyen cuestiones como si la función de calibrado (a) es lineal, (b) si cruza el origen o (c) si no se ve afectada por la matriz del material de prueba. Los procedimientos aquí descritos hacen referencia a estudios de calibrado en validaciones, que deben ser más precisos que el calibrado realizado en análisis rutinarios. Por ejemplo, una vez establecido en la validación que una función de calibrado es lineal y que cruza el origen, puede emplearse una estrategia de calibrado mucho más simple para el uso normal (por ejemplo, un diseño repetido de dos puntos). En la validación, normalmente los errores procedentes de esta simple estrategia de calibrado se incluyen en un nivel superior de errores. A3.1 Linealidad e intercepto La linealidad puede probarse informalmente examinando un gráfico de los residuos producidos por regresión lineal de las respuestas a las concentraciones en un equipo de calibrado adecuado. Los modelos curvados sugieren una falta de adecuación al no ser lineal la función de calibrado. Puede realizarse una prueba de significación comparando la varianza de la inadecuación con la del error puro. No obstante, existen otras causas de inadecuación a parte de la no linealidad que pueden aparecer en algunos tipos de calibrado analítico, de manera que la prueba de significación debe utilizarse junto con un grafico residual. Pese a su uso actualmente extendido como indicador de la calidad de la adecuación, el coeficiente de correlación es engañoso e inapropiado para demostrar la linealidad y no debe utilizarse. El diseño es un elemento esencial en las pruebas de falta de adecuación, dado que es fácil confundir la no linealidad con desviaciones. Las mediciones replicadas son necesarias para ofrecer una estimación del error puro si no existen estimaciones independientes. En ausencia de directrices

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

21

específicas, debe aplicarse lo siguiente:

• debe haber seis o más calibradores; • los calibradores deben espaciarse de forma uniforme a lo largo del rango de concentración

de interés; • el rango debe abarcar del 0 al 150% o del 50 al 150% de la concentración susceptible de ser

hallada, según cuál sea más adecuado; • los calibradores deben ejecutarse al menos por duplicado y, preferiblemente, por triplicado o

más, en orden aleatorio. Después de extrapolar la adecuación mediante la regresión lineal simple, deben examinarse los residuos para hallar modelos obvios. La heteroscedasticidad es bastante común en el calibrado analítico y un modelo que la sugiera significa que la mejor manera de tratar los datos calibrados es por regresión ponderada. La imposibilidad de utilizar una regresión ponderada en estas circunstancias podría dar origen a errores exagerados en la parte baja de la función de calibrado. La prueba de falta de adecuación puede llevarse a cabo con una regresión simple o ponderada. También puede realizarse una prueba de intercepto significativamente diferente de cero con estos datos si no hay una falta de adecuación significativa. A3.2 Ensayo del efecto de matriz general Simplifica enormemente el calibrado si los calibradores pueden prepararse como una simple solución del analito. Si debe adoptarse esta estrategia, deben estudiarse los efectos de un posible desemparejamiento general de la matriz en la validación. La prueba del efecto de matriz general puede efectuarse aplicando el método de adiciones de analito (también denominado de “adiciones estándares”) a una solución de prueba derivada de un material de prueba habitual. La prueba debe realizarse de manera que ofrezca la misma dilución final que la que produce el procedimiento normal, y el rango de adiciones debe abarcar el mismo rango que la validación del calibrado definido por el procedimiento. Si el calibrado es lineal, las pendientes de la función de calibrado habitual y el gráfico de adiciones de analito pueden compararse para hallar diferencias significativas. La ausencia de significación indica que no existe un efecto de matriz general detectable. Si el calibrado no es lineal, puede emplearse un método más complejo para demostrar la significación, pero normalmente bastará con una comparación visual a iguales concentraciones. La ausencia de significación en esta prueba suele revelar la ausencia de variaciones en el efecto de matriz [Sección A13].

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

22

A3.3 Procedimiento final de calibrado También puede ser preciso validar de forma independiente la estrategia de calibrado tal como está especificada en el procedimiento, aunque los errores que ello implique contribuirán a aumentar las incertidumbres estimadas. Lo importante aquí es que la incertidumbre de la evaluación estimada a partir de diseños específicos de linealidad, etc. sea inferior a la derivada del simple calibrado definido en el protocolo del procedimiento.

A4 VERACIDAD A4.1 Estimación de la veracidad La veracidad es el grado de coincidencia entre el resultado de una prueba y el valor de referencia aceptado de la propiedad objeto de la medición. La veracidad se expresa cuantitativamente en términos de “sesgo”; cuanto más pequeño es el sesgo, mayor veracidad indica. El sesgo suele determinarse comparando la respuesta del método a un material de referencia con el valor conocido asignado a ese material. Se recomienda realizar pruebas de significación. Si la incertidumbre del valor de referencia no es despreciable, la evaluación de los resultados debe tener en cuenta la incertidumbre del material de referencia y la variabilidad estadística. A4.2 Condiciones para las pruebas de veracidad El sesgo puede aparecer a diferentes niveles de la organización de un sistema analítico; por ejemplo, el sesgo de ejecución, el sesgo del laboratorio y el sesgo del método. Es importante recordar cuál se está analizando mediante los diferentes métodos de estudio del sesgo. En particular:

• La media de una serie de análisis de un material de referencia, realizados en su totalidad en una única ejecución, ofrece información sobre la suma del efecto del método, del laboratorio y de la ejecución en esa ejecución particular. Dado que se supone que el efecto de ejecución es aleatorio entre diferentes ejecuciones, el resultado variará de una ejecución a otra más de lo esperado a partir de la dispersión observable de los resultados, lo que debe tenerse en cuenta al evaluar los resultados (por ejemplo, realizando una prueba del sesgo medido respecto a la desviación estándar entre las ejecuciones, investigada por separado).

• La media de análisis repetidos de un material de referencia en varias ejecuciones mide el efecto combinado del método y del laboratorio en un laboratorio particular (salvo si se asigna el valor utilizando un método particular).

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

23

A4.3 Valores de referencia para las pruebas de veracidad A4.3.1 Materiales de referencia certificados (MRC) Los MRC están sujetos a normas internacionales y tienen incertidumbres conocidas, de manera que pueden emplearse para estudiar simultáneamente todos los aspectos del sesgo (del método, del laboratorio y dentro del laboratorio), suponiendo que no hay desemparejamiento de la matriz. Los MRC deben utilizarse para validar la veracidad siempre que sea posible. Es importante asegurarse de que las incertidumbres del valor certificado sean suficientemente pequeñas para permitir la detección de un sesgo de magnitud importante. De lo contrario, sigue siendo recomendable utilizar MRC, aunque deben realizarse comprobaciones adicionales.

Un experimento de veracidad típico genera una respuesta media en un material de referencia. Al interpretar el resultado, debe tenerse en cuenta la incertidumbre asociada al valor certificado, junto con la incertidumbre que genera la variación estadística en el laboratorio. Esta última puede basarse en la desviación estándar de la ejecución, entre ejecuciones o en la estimación de la desviación estándar entre laboratorios, en función de la finalidad del experimento. Estadística o materiales. Si la incertidumbre del valor certificado es pequeña, normalmente se realiza una prueba de la t de Student utilizando la fidelidad adecuada.

Si es preciso y factible, deben examinarse varios MRC adecuados, con las correspondientes matrices y concentraciones de analito. Si tras hacer esto las incertidumbres de los valores certificados son más pequeñas que las de los resultados analíticos, por precaución conviene utilizar una regresión simple para evaluar los resultados. De esta forma, el sesgo puede expresarse como una función de la concentración, que puede tener un intercepto distinto a cero (sesgo “transicional” o constante) o una pendiente diferente a la unidad (sesgo “rotativo” o proporcional). Los resultados deben interpretarse con cautela si el rango de matrices es grande. 4.3.2 Materiales de referencia Si no hay Materiales de Referencia Certificados (MRC) disponibles, o como adición a MRC, puede emplearse cualquier material suficientemente bien caracterizado para el propósito (material de referencia10), teniendo siempre en cuenta que, sabiendo que un sesgo no significativo no implica que sea nulo, debe investigarse el sesgo significativo de cualquier material. Ejemplos de materiales de referencia: materiales caracterizados por un fabricante de materiales de referencia, pero cuyos valores carecen de una declaración de incertidumbre o de otras cualificaciones; materiales caracterizados por un fabricante de material; materiales caracterizados en el laboratorio para ser usados como materiales de referencia; materiales sujetos a una prueba por turnos rotatorios restringidos o distribuidos en un ensayo de aptitud. Aunque la trazabilidad de estos materiales puede ser cuestionable, sigue siendo mucho mejor usarlos que no realizar ningún estudio del sesgo. Los materiales se utilizarán del mismo modo que los MRC, aunque al carecer de declaración de incertidumbre todas las pruebas de significación se basan únicamente en la fidelidad observable de los resultados.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

24

A4.3.3 Uso de los métodos de referencia En principio, los métodos de referencia pueden emplearse para valorar el sesgo de otro método objeto de una validación. Es una opción útil cuando se comprueba una alternativa a, o una modificación de un método estándar establecido previamente validado y que se utiliza en el laboratorio. Ambos métodos se utilizan para analizar varios materiales de prueba típicos, preferiblemente tratando un rango de concentraciones útil y de forma uniforme. La comparación de los resultados en todo el rango mediante un método estadístico adecuado (por ejemplo, un test de t por parejas, con las debidas comprobaciones de la homogeneidad de la varianza y la normalidad) pondrá de manifiesto cualquier sesgo existente entre los métodos. A4.3.4 Uso de la adición/recuperación En ausencia de materiales de referencia, o para complementar estudios de materiales de referencia, el sesgo puede investigarse por adición y recuperación. Se analiza un material de prueba típico por el método objeto de la validación en su estado original y tras la adición (spiking) de una masa conocida del analito a la porción de prueba. La diferencia entre ambos resultados como proporción de la masa añadida se denomina la recuperación sustituta o, en ocasiones, la recuperación marginal. Las recuperaciones significativamente diferentes de la unidad indican que el sesgo afecta al método. De forma estricta, los estudios de la recuperación aquí descritos sólo estudian el sesgo debido a los efectos que se producen en el analito añadido; dichos efectos no son necesariamente aplicables en la misma medida al analito nativo, en el que puede haber efectos adicionales. Los estudios de adición/recuperación están fuertemente sujetos a la siguiente regla: aunque una buena recuperación no constituye una garantía de veracidad, una recuperación pobre indica claramente una falta de veracidad. Los métodos de tratamiento de los datos de adición/recuperación han sido descritos en detalle en otros estudios.4

A5 FIDELIDAD La fidelidad es el grado de coincidencia entre los resultados de pruebas independientes obtenidos en condiciones estipuladas. Suele expresarse en términos de desviación estándar o de coeficiente de variación. La distinción entre la fidelidad y el sesgo es fundamental, pero depende del nivel al que se considere el sistema analítico. Así, desde el punto de vista de una determinación individual, cualquier desviación que afecte al calibrado para la ejecución se considerará un sesgo. Desde el punto de vista de un analista que revisa el trabajo realizado durante un año, el sesgo de ejecución será diferente cada día y actuará como una variable aleatoria, con una fidelidad asociada. Las condiciones estipuladas para la estimación de la fidelidad tienen en cuenta este cambio en el punto de vista.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

25

Para la validación en un solo laboratorio, cabe tener en cuenta dos conjuntos de condiciones: (a) la fidelidad en condiciones de repetibilidad, que describe las variaciones observadas durante una ejecución individual como expectativa 0 y desviación estándar σ r , y (b) la fidelidad de ejecución a ejecución, que describe las variaciones en el sesgo de ejecución δrun como expectativa 0 y desviación estándar σ run . Normalmente, ambas fuentes de error actúan en los resultados analíticos

individuales, que por tanto tienen una fidelidad combinada ( )σ σ σtot r runn= +2 2 1 2, donde n es el

promedio de resultados repetidos dentro de una ejecución para el resultado obtenido. Ambas estimaciones de la fidelidad pueden obtenerse más simplemente analizando por duplicado el material de prueba seleccionado en varias ejecuciones sucesivas. A continuación, los componentes independientes de la varianza pueden calcularse aplicando un análisis de varianza de un factor. Cada análisis duplicado debe ser una ejecución independiente del procedimiento aplicado a una porción de prueba independiente. Alternativamente, la fidelidad combinada σ tot puede estimarse directamente analizando una vez el material de prueba en sucesivas ejecuciones y estimando la desviación estándar a partir de la ecuación habitual (las desviaciones estándar observadas suelen designarse con el símbolo s para distinguirlas de las desviaciones estándar σ). Es importante que los valores de la fidelidad sean representativos de las condiciones en las que probablemente se realizaría la prueba. En primer lugar, la variación en las condiciones entre las ejecuciones debe representar lo que normalmente sucedería utilizando el método de la forma habitual en el laboratorio. Por ejemplo, deben representarse los cambios de lotes de reactivos, de analistas y de instrumentos. En segundo lugar, el material de prueba utilizado debe ser el habitual en términos de matriz e, idealmente, el estado de fragmentación de los materiales debe ser el que probablemente existe en las aplicaciones habituales. Por tanto, serán adecuados los materiales de prueba o, en menor grado, los materiales de referencia ajustados a la matriz, pero no lo serán las soluciones estándar del analito. Nótese que los MRC y los materiales de referencia preparados suelen homogeneizarse más que los materiales de prueba habituales, y, por tanto, la fidelidad obtenida de su análisis puede subestimar la variación que se observaría con los materiales de prueba. Muy a menudo la fidelidad varía con la concentración del analito. Las hipótesis típicas son: i) la fidelidad no varía en función del nivel de analito, o ii) la desviación estándar es proporcional a, o linealmente dependiente del nivel de analito. En ambos casos, la hipótesis debe comprobarse si se espera que el nivel de analito varíe sustancialmente (en más del 30% de su valor central). Probablemente, el experimento más económico es un simple estudio de la fidelidad en o cerca de los extremos del rango de funcionamiento, junto con una prueba estadística adecuada de la diferencia en la varianza. Los tests F son pertinentes para el error distribuido normalmente. Pueden obtenerse datos de fidelidad para una gran variedad de conjuntos de condiciones. Además de la repetibilidad mínima y las condiciones entre ejecuciones aquí indicadas, puede ser conveniente disponer de información adicional. Por ejemplo, para el estudio de los resultados o para

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

26

mejorar la medición, puede resultar útil tener una indicación de los efectos de los cambios de operario y de ejecución, de los efectos entre diferentes días y dentro del mismo día o de la fidelidad alcanzable utilizando uno o varios instrumentos. Pueden utilizarse diferentes diseños y técnicas de análisis estadístico. Se recomienda vivamente realizar un diseño experimental minucioso en estos estudios.

A6 RECUPERACIÓN Los métodos para estimar la recuperación se comentan junto con los métodos de estimación de la veracidad (véase más arriba).

A7 RANGO El rango validado es el intervalo de concentración del analito dentro del cual el método puede considerarse validado. Es importante comprender que este rango no es necesariamente idéntico al rango útil de calibrado. Mientras que el calibrado puede cubrir un amplio rango de concentraciones, el resto de la validación (normalmente una parte mucho más importante en términos de incertidumbre) cubre un rango más restringido. En la práctica, la mayoría de métodos se validan a uno o dos niveles de concentración. El rango validado puede obtenerse realizando una extrapolación a partir de esos puntos de la escala de concentración. Cuando el uso del método se centra en la concentración de interés muy por encima del límite de detección, conviene realizar la validación cerca de este nivel crítico. Es imposible definir una extrapolación general segura de este resultado para otras concentraciones del analito porque depende mucho del sistema analítico empleado. Por tanto, el informe del estudio de validación debe establecer el rango cerca del valor crítico en el cual la persona que realiza la validación, aplicando su criterio profesional, considera que la incertidumbre estimada es real. Cuando el rango de la concentración de interés se aproxima a cero, o al límite de detección, es incorrecto suponer una incertidumbre absoluta o una incertidumbre relativa constantes. Una aproximación útil en este caso habitual es suponer que existe una relación funcional lineal, con un intercepto positivo, entre la incertidumbre u y la concentración c, que puede expresarse como: u c u c( ) = +0 θ dondeθ es la incertidumbre relativa estimada a una concentración netamente superior al límite de detección, u0 es la incertidumbre estándar estimada para una concentración cero y, en algunos casos, puede estimarse como cL / 3 . En estas circunstancias, es razonable considerar el rango validado desde cero hasta un pequeño múltiplo entero del punto superior de validación. De nuevo, esto dependerá del criterio profesional del operario.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

27

A8 LÍMITE DE DETECCIÓN En sentido amplio, el límite de detección es la cantidad o concentración de analito más pequeña en la muestra de prueba que puede distinguirse fiablemente de cero.22,23 En los sistemas analíticos donde el rango de validación no lo incluye o no se le aproxima, no es preciso que el límite de detección forme parte de la validación. Pese a la aparente simplicidad de la idea, el conjunto del tema del límite de detección topa con los problemas que señalamos a continuación:

• Existen varias aproximaciones conceptuales posibles al tema, cada una de las cuales ofrece una definición del límite diferente. Los intentos de clarificar esta cuestión no han hecho sino aumentar la confusión.

• Aunque cada aproximación depende de una fidelidad estimada a una concentración igual o próxima a cero, no está claro si debe tomarse en condiciones de repetibilidad o en otras condiciones para la estimación.

• A menos que se recabe una enorme cantidad de datos, las estimaciones del límite de detección están sujetas a una variación aleatoria bastante grande.

• Las estimaciones del límite de detección suelen estar sesgadas por la parte inferior a causa de los factores operativos.

• Las deducciones estadísticas relativas al límite de detección requieren que se establezca la hipótesis de la normalidad, algo por lo menos cuestionable a bajas concentraciones.

En términos prácticos para la validación de métodos, parece mejor optar por una definición simple que permita realizar rápidamente una estimación, que sólo se utilizará como indicador sobre la utilidad del método. Sin embargo, debe admitirse que, tal como se estima en el desarrollo de métodos, el límite de detección puede no ser idéntico como concepto o como valor numérico al que se utiliza para caracterizar un método analítico completo. Por ejemplo, el “límite de detección instrumental”, tal como se denomina en la literatura o en los manuales de los instrumentos, y que seguidamente se ajusta para la dilución, suele ser más pequeño que el límite de detección "práctico" y es inadecuado para la validación de métodos. Por tanto, se recomienda que para la validación de métodos la estimación de la fidelidad utilizada ( $σ 0 ) se base en al menos 6 determinaciones independientes completas de la concentración del analito en una matriz blanca típica o un material de bajo nivel, sin censurar los resultados iguales a cero o negativos, y que el límite de detección aproximado se calcule como 3 0$σ . Cabe observar que con el número de grados mínimos de libertad recomendado, este valor es bastante incierto y puede ser fácilmente erróneo por un factor de dos. Si se precisan estimaciones más rigurosas (por ejemplo, para apoyar decisiones basadas en la detección de un material), debe hacerse referencia a las directrices correspondientes (véanse, por ejemplo, las referencias 22-23).

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

28

A9 LÍMITE DE DETERMINACIÓN O LÍMITE DE CUANTIFICACIÓN En ocasiones es útil establecer una concentración por debajo de la cual el método analítico no puede funcionar con una fidelidad aceptable. A veces, esa fidelidad se define arbitrariamente como un 10% RSD y otras veces el límite se toma también arbitrariamente como un múltiplo fijo (normalmente 2) del límite de detección. Aunque hasta un cierto grado es seguro operar por encima de ese límite, hemos de admitir que constituye una dicotomía bastante artificial de la escala de concentración: las mediciones inferiores a ese límite no están desprovistas de información y pueden ser adecuadas para el propósito. Así, no se recomienda el uso de este tipo de límite en la validación para el propósito que nos ocupa. Es preferible intentar expresar la incertidumbre de medición como una función de la concentración y comparar esa función con un criterio de adecuación al propósito acordado entre el laboratorio y el cliente o el usuario final de los datos.

A10 SENSIBILIDAD La sensibilidad de un método es la pendiente de la función de calibrado. Dado que suele ser arbitraria, en función de la configuración de los instrumentos, no es útil en la validación (aunque puede serlo en los procedimientos de garantía de calidad para demostrar si un instrumento funciona de acuerdo con un estándar constante y satisfactorio).

A11 ROBUSTEZ La robustez de un método analítico es la resistencia al cambio en los resultados obtenidos por un método analítico cuando se realizan desviaciones menores a partir de las condiciones experimentales descritas en el procedimiento. Los límites de los parámetros experimentales deben especificarse en el protocolo del método (aunque en el pasado no se solía hacer siempre), y dichas desviaciones permisibles, por separado o en combinación, no deben producir cambios significativos en los resultados obtenidos (un “cambio significativo” implica que el método no puede funcionar dentro de los límites de incertidumbre que definen la adecuación al propósito). Deben identificarse los aspectos del método susceptibles de afectar a los resultados y debe evaluarse su influencia en el rendimiento del método mediante pruebas de robustez. La robustez de un método se demuestra introduciendo deliberadamente pequeños cambios en el procedimiento y examinando su efecto en los resultados. Puede se preciso considerar varios aspectos del método, pero dado que la mayoría de ellos tienen un efecto despreciable, normalmente será posible modificar varios de ellos al mismo tiempo. Youden13 ha descrito un experimento económico basado en diseños factoriales fraccionarios. Por ejemplo, es posible formular una aproximación utilizando 8 combinaciones de 7 factores variables, esto es, buscar los efectos de siete parámetros con exactamente ocho resultados analíticos. También es factible utilizar procedimientos univariable, en los cuales sólo se modifica una variable cada vez.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

29

Ejemplos de factores que puede analizar un estudio de robustez: cambios de instrumento, operario o marca de reactivo, concentración de un reactivo, pH de una solución, temperatura de una reacción, tiempo transcurrido hasta la finalización de un proceso, etc.

A12 ADECUACIÓN AL PROPÓSITO La adecuación al propósito es el grado en que el rendimiento de un método se ajusta a los criterios acordados entre el analista y el usuario final de los datos, que describen las necesidades del usuario final. Por ejemplo, los errores en los datos no deben ser de una magnitud que aumente la probabilidad definida de tomar decisiones incorrectas a partir de ellos, pero no deben ser tan pequeños como para que las pruebas resulten ser un gasto inútil para el usuario final. Los criterios de adecuación al propósito deben basarse en algunas de las características descritas en el presente Anexo, pero se expresarán en términos de incertidumbre total aceptable.

A13 VARIACIÓN DE LA MATRIZ La variación de la matriz es, en muchos sectores, una de las más importantes pero menos reconocidas fuentes de error en las mediciones analíticas. Cuando definimos el sistema analítico a validar especificando, entre otras cosas, la matriz del material de prueba, puede haber espacio para una notable variación dentro de la clase definida. Para citar un ejemplo extremo, una muestra de la clase “sustrato” puede estar compuesta de arcilla, arena, tiza, laterita (principalmente Fe2O3 y Al2O3), turba, etc., o de mezclas de las mismas. Es fácil imaginar que cada uno de estos tipos contribuye a crear un efecto de matriz único en un método analítico, como la espectrometría por absorción atómica. Si no tenemos información sobre los tipos de substrato que analizamos, habrá una incertidumbre adicional en los resultados a causa de este efecto de matriz variable. Las incertidumbres de la variación de la matriz deben ser cuantificadas por separado porque no se tratan en ningún otro lugar del proceso de validación. La información se obtiene recabando un conjunto representativo de las matrices que probablemente contendrá la clase definida, todas con concentraciones de analito del rango adecuado. El material se analiza de acuerdo con el protocolo, y se estima el sesgo de los resultados. A menos que el material de prueba sea un MRC, la estimación del sesgo deberá realizarse por adición y recuperación. La incertidumbre se estima mediante la desviación estándar de los sesgos (nota: esta estimación también contendrá una contribución a la varianza procedente de los repetidos análisis. Esto tendrá una magnitud 2 2σ r si se ha empleado la adición. Si se precisa un valor de incertidumbre estricto, esta cantidad debe deducirse de la variación de la varianza de la matriz para evitar un doble cómputo).

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

30

A14 INCERTIDUMBRE DE LA MEDICIÓN El procedimiento formal de estimación de la incertidumbre de la medición calcula una estimación de la incertidumbre de la medición a partir de una ecuación o de un modelo matemático. Los procedimientos descritos como de validación de métodos están diseñados para garantizar que la ecuación utilizada para estimar el resultado, con la correspondiente tolerancia de errores aleatorios de todo tipo, sea una expresión válida que represente todos los efectos reconocidos y significativos sobre el resultado. Por consiguiente, teniendo en cuenta la advertencia que señalamos más adelante, puede utilizarse directamente la ecuación o el ‘modelo’ objeto de la validación para estimar la incertidumbre de la medición. Esto se hace siguiendo unos principios establecidos, basados en la ‘ley de propagación de la incertidumbre’ que, para efectos de entrada independientes, es u(y(x1,x2,...)) = ∑

= niii xuc

,1

22 )(

donde y(x1,x2,....xn) es una función de varias variables independientes x1,x2..., y ci es un coeficiente de sensibilidad evaluado como ci=∂y/∂xi, el diferencial parcial de y respecto a xi. u(xi) y u(y) son incertidumbres estándares, esto es, incertidumbres de medición expresadas en forma de desviaciones estándar. Dado que u(y(x1,x2,...)) es función de varias estimaciones independientes de la incertidumbre, se denomina incertidumbre estándar combinada. Por tanto, para estimar la incertidumbre de la medición a partir de la ecuación y=f(x1,x2...) utilizada para calcular el resultado es necesario, en primer lugar, establecer las incertidumbres u(xi) en cada uno de los términos x1, x2 etc. y, en segundo lugar, combinarlas con los términos adicionales necesarios para representar los efectos aleatorios hallados en la validación; y finalmente, tener en cuenta cualquier efecto adicional. En los comentarios anteriores sobre la fidelidad, el modelo estadístico aplicado es

y=f(x1,x2...) + δrun + e donde e es el error aleatorio de un resultado particular. Dado que δrun y e son conocidos gracias a los experimentos de fidelidad, para obtener las desviaciones estándar σ run yσ r respectivamente, estos últimos términos (o, estrictamente, sus estimaciones srun y sr) son las incertidumbres asociadas a estos términos adicionales. Cuando se promedian los resultados individuales de una ejecución, la incertidumbre combinada asociada a estos dos términos es (como se indicaba anteriormente)

( ) 2122runrtot snss += . Cabe resaltar que cuando se demuestra que los términos de la fidelidad varían

con el nivel de analito, la estimación de la incertidumbre para un resultado particular debe emplear el término de fidelidad adecuado a ese nivel. Por tanto, la base de la estimación de la incertidumbre se deriva directamente del modelo estadístico supuesto y objeto de la prueba de validación. Para explicar (en particular) la no homogeneidad y el efecto de matriz (véase sección A13), deben añadirse a esta estimación todos los términos necesarios. Finalmente, la incertidumbre estándar calculada se multiplica por un ‘factor de cobertura’, k, para obtener la incertidumbre ampliada, esto es, “un intervalo que se espera que abarque una amplia fracción de los valores de distribución que pueden atribuirse al mesurando”8. Si el modelo estadístico está bien establecido, se sabe que la

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

31

distribución es normal y el número de grados de libertad asociado a la estimación es alto, suele tomarse un valor k igual a 2. Así, la incertidumbre ampliada corresponde a un intervalo de confianza del 95%. Cabe hacer una advertencia: al poner a prueba el modelo estadístico hipotético, forzosamente se utilizan pruebas imperfectas. Ya se ha señalado que estas pruebas no pueden demostrar que ningún efecto sea igual a cero; sólo pueden revelar que un efecto es demasiado pequeño para ser detectado en la incertidumbre asociada a una prueba específica de significación. Un ejemplo particularmente importante es la prueba de sesgo del laboratorio significativo. Si ésta es la única prueba realizada para confirmar la veracidad, sin duda quedará alguna incertidumbre residual acerca de si el método carece realmente de sesgo o no. Por consiguiente, cuando estas incertidumbres son significativas en relación con la incertidumbre calculada hasta el momento, debe dejarse una tolerancia adicional. En caso de un valor de referencia incierto, la tolerancia más simple es la incertidumbre fijada para el material combinada con la incertidumbre estadística de la prueba aplicada. Una discusión más amplia de esto superaría el ámbito de este texto (véanse más detalles en la referencia 9). Sin embargo, es importante señalar que aunque la incertidumbre estimada directamente a partir del modelo estadístico supuesto es la incertidumbre mínima que puede asociarse a un resultado analítico, es casi seguro que se tratará de una subestimación; asimismo, una incertidumbre ampliada basada en las mismas consideraciones y que utilice k=2 no ofrecerá suficiente confianza. Para aumentar la confianza, la Guía ISO8 recomienda aumentar el valor k cuando sea preciso, y no añadir términos de forma arbitraria. La experiencia práctica sugiere que para las estimaciones de la incertidumbre basadas en un modelo estadístico validado, pero sin más pruebas a parte de los estudios de validación para mejorar la confianza en el modelo, k no debe ser inferior a 3. Si existe un motivo de peso para dudar de que el estudio de validación sea exhaustivo, debe aumentarse el valor k todo lo que sea necesario.

RESOLUCIÓN OENO 8/2005

Certificado conforme

Paris, 20 de julio de 2005 El Director General de la OIV

Secretario de la Asamblea general

Federico CASTELLUCCI

32

ANEXO B. CONSIDERACIONES ADICIONALES SOBRE LA ESTIMACIÓN DE LA INCERTIDUMBRE EN ESTUDIOS DE VALIDACIÓN

B1 ANÁLISIS DE LA SENSIBILIDAD La expresión básica empleada en la estimación de la incertidumbre, u(y(x1,x2,...)) = ∑

= niii xuc

,1

22 )( ,

precisa de ‘coeficientes de sensibilidad’, ci. Es habitual en la estimación de la incertidumbre hallar que si un determinado factor de influencia xi tiene una incertidumbre conocida u(xi), el coeficiente ci está insuficientemente caracterizado o no puede obtenerse directamente de la ecuación que conduce al resultado. Esto es especialmente habitual cuando no se incluye un efecto en la ecuación de medición porque normalmente no es significativo o porque la relación no se conoce lo suficiente para justificar una corrección. Por ejemplo, el efecto de temperatura de solución Tsol en procedimiento de extracción a temperatura ambiente raramente se establece en detalle. Si se desea valorar la incertidumbre en un resultado asociado a dicho efecto, es posible determinar el coeficiente experimentalmente. La forma más simple de hacerlo es cambiar xi y observar el efecto en el resultado, de forma similar a las pruebas básicas de robustez. En la mayoría de casos, en un primer momento es suficiente elegir como máximo dos valores de xi distintos al valor nominal y calcular una pendiente aproximada a partir de los resultados observados. La pendiente ofrece una aproximación del valor de ci. A continuación puede determinarse el término ci.u(xi) (cabe señalar que éste es un método práctico para demostrar la significación o un posible efecto en los resultados). En este experimento, es importante que el cambio en el resultado observado sea suficiente para realizar un cálculo fiable de ci, algo difícil de prever con antelación. No obstante, dado un rango permitido para la cantidad de influencia xi o una incertidumbre ampliada de la cantidad que supuestamente vayan a producir un cambio insignificante, es importante valorar ci a partir de un rango más grande. Por tanto, se recomienda que para una cantidad de influencia con un rango esperado de ±a (donde ±a puede ser, por ejemplo, el rango permitido, el intervalo de incertidumbre ampliada o un intervalo de confianza del 95%), la prueba de sensibilidad emplee, cuando sea posible, un cambio de al menos 4a para garantizar la fiabilidad de los resultados. B2 CRITERIO PROFESIONAL Es habitual hallar que, aunque un efecto está admitido y pueda ser significativo, no siempre es posible obtener una estimación fiable de la incertidumbre. En tales circunstancias, la Guía ISO deja claro que es preferible una estimación profesional de la incertidumbre a hacer caso omiso de la misma. Así, si no se dispone de una estimación de la incertidumbre para un efecto potencialmente importante, el analista debe realizar una valoración personal de la incertidumbre probable y aplicarla para estimar la incertidumbre combinada. La referencia 8 incluye orientaciones para utilizar el criterio profesional para estimar la incertidumbre.