construcciÓn de diseÑos Óptimos para modelos con …

212
Raúl Martín Martín CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON VARIABLES NO CONTRABLES I.S.B.N. Ediciones de la UCLM 978-84-8427-562-6 Cuenca, 2007

Upload: others

Post on 25-Jul-2022

10 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Raúl Martín Martín

CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON VARIABLES NO CONTRABLES

I.S.B.N. Ediciones de la UCLM 978-84-8427-562-6

Cuenca, 2007

Page 2: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Departamento de Matemáticas

CONSTRUCCIÓN DE DISEÑOS

ÓPTIMOS PARA MODELOS CON

VARIABLES NO CONTROLABLES

MEMORIA PARA OPTAR AL GRADO DE DOCTOR

AUTORRaúl Martín Martín

DIRECTORDr. Jesús López Fidalgo

Ciudad Real, 2006

Page 3: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Resumen

El objetivo de esta tesis consiste en determinar diseños óptimoscuando no todas las variables explicativas están bajo el control delexperimentador. Los valores de dichas variables pueden ser conoci-dos o desconocidos antes de que el experimento sea realizado. Pararesolver este problema se consideran distintos enfoques, dependien-do de las diferentes situaciones.

Cada uno de los capítulos está estructurado en una introducción,en donde se presentan los objetivos y las principales contribuciones,el desarrollo de los mismos y una última sección dedicada a lasconclusiones.

A continuación exponemos de manera resumida los principales ob-jetivos y contribuciones de la memoria.

En el capítulo 1 se exponen las ideas básicas y generales del diseñoóptimo de experimentos y se introduce la notación que se seguirá alo largo de la memoria. Se definen los principales criterios de opti-mización, a saber, D−, A−, G−, E−, DA− y L− A optimizaciónque serán usados a lo largo de la memoria. La segunda parte deeste capítulo introduce una importante herramienta en la teoríade diseño óptimo, la derivada direccional de una función criterio.Además se proporcionan algunos teoremas de optimización basa-dos en resultados de secciones anteriores. El capítulo concluye conla presentación de algunas técnicas numéricas que buscan el óptimoa partir de uno o varios diseños iniciales.

El capítulo 2 aborda la teoría del Diseño Óptimo cuyas variablesestán fuera del control del experimentador. Comienza el capítulo

i

Page 4: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

ii

considerando diseños con dos tipos de variables: una controlable yotra no controlable conocida a priori, son los diseños marginalmenterestringidos (MR). A continuación se consideran los diseños con unavariable controlable y otra no controlable, desconocida antes de rea-lizar el experimento, que serán los denominados condicionalmenteR restringidos (CR). Por último se estudian los diseños con los trestipos de variables, los diseños marginal y condicionalmente restrin-gidos (MCR). Para estos tres tipos de diseños, se proporcionan losrespectivos Teoremas de Equivalencia. Basándose en los resultadosanteriores, López Fidalgo y Garcet Rodríguez, [Lóp04a], proponenalgoritmos para el cálculo de dichos diseños que recogemos en estamemoria. Particularizamos los resultados anteriores y los algorit-mos de los diseños MR, CR y MCR respecto a algunos criterios.Además proponemos una nueva cota de la eficiencia de los diseñosque se obtienen, basándonos en el resultado de Atwood, [Atw69].

El capítulo 3 propone una clase de algoritmos multiplicativos parael cálculo de diseños óptimos de los propuestos en el capítulo 2. Laadopción de estos algoritmos para el cálculo de diseños óptimoscuando no todas las variables son controlables ha sido sugerida porlos trabajos de Torsney y Mandal [Tor01]. Por último obtuvimosuna equivalencia entre diseños MR (MCR) D− y Ds− óptimos.

El capítulo 4 se dedica esencialmente, al estudio de los diseños D−óptimos marginalmente restringidos mediante un método secuencialque permita dirigir los experimentos según vayan apareciendo lasobservaciones en la variable no controlable pero conocida. Vienemotivado por el ejemplo que aparece en López-Fidalgo y Garcet-Rodríguez [Lóp04a] sobre el diseño de un experimento para evaluarla capacidad predictiva de una prueba de ejercicio preoperatoriocuyo objetivo consistía en predecir la morbimortalidad quirúrgi-ca en pacientes con diagnóstico de cáncer de pulmón sometidos auna resección pulmonar electiva, a partir de las características físi-cas del paciente, del ejercicio físico realizado y de la existencia ono de desaturación de oxígeno en sangre durante la prueba. Bajoeste marco, supusimos cómo podríamos mejorar nuestro diseño silos pacientes llegan de una manera secuencial. Se proporciona un

Page 5: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

iii

algoritmo para el cálculo de los diseños óptimos. En un segundomomento, se plantea la construcción de diseños con distribucionesmarginales discretas y continuas clásicas supuestamente conocidas.

El capítulo 5 contiene una primera aproximación al cálculo dediseños óptimos para modelos con observaciones correladas cuandose emplean funciones de covarianza parametrizadas. Se proponenvarios ejemplos reales con modelos lineales y no lineales, resueltosalgunos de ellos, mediante la adaptación de un algoritmo usadopara modelos con variables no controlables conocidas antes de queel experimento sea llevado a cabo. Este algoritmo es una adaptacióna los diseños MR del propuesto por Brimkulov y otros [Bri80].

Page 6: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Summary

Most of the literature about Optimal Experimental Designs sup-poses that the variables which are in the model, which generatesthe results, are under the control of the experimenter. In this thesiswe allow variables that can not be controlled by the experimenter,and we will try to provide methods to compute designs under thisframework.

Chapter 1 is devoted to provide briefly the principal ideas and themost important results in the theory of Optimal Designs. This in-cludes several criteria (D−, A−, G−, E−, DA− and LA− optimal-ity), directional derivatives (Fréchet and Gâteaux), the well knownEquivalence Theorem of Kiefer and Wolfowitz and its general ex-tension provided by Whittle.

Chapter 2 explores the theory of constrain designs, specifically thosein which some of the variables in the model are not under the controlof the experimenter. The algorithms proposed for computing thesedesigns are reviewed and some of them are applied according tosome criteria. We introduce a new measure for the quality of adesign in comparison with the optimal design. A “new” bound lowerfor the efficiency is also provided.

As a result of the difficulty of the algorithms which appear in theliterature, Chapter 3 gives a new kind of procedure for constructingnew algorithms when the factors are not controlled. These iterationsare of the form: p(r+1)

j ∝ p(r)j f(d

(r)j ). They were first proposed by

Torsney [Tor77]. These algorithms are computed following severalcriteria. Computational studies show fast convergence, but near the

v

Page 7: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

vi

optimum the convergence rate slows down considerably. Althoughmonotonicity does not guarantee fast convergence, an appropri-ate choice of function f(d) produces almost optimal designs in afew iterations. An important result of this Chapter is the equiva-lence between D−optimal MR or MCR designs and the appropriateDs−optimality.

Within the framework of the uncontrolled explanatory variables,Chapter 4 deals with the problem of constructing MR D−optimaldesigns for linear regression models with different types of priormarginal distributions. We discuss and illustrate two techniques tocompute such designs assuming the marginal design is distribut-ed as a continuous design. The second half of this chapter consid-ers a modification of an example proposed by López Fidalgo andGarcet Rodríguez [Lóp04a]. The example is the following: To ob-tain more information in order to predict complications of surgeryin the treatment of lung cancer an exercise test is used. The varia-bles considered are the percentage of the normal value of volume ofexpired air for each subject (x1), decreasing of blood oxygen con-centration during exercise under 90 % during the exercise test (x2),and the exercise time in minutes (x3). The variable x3 is completelyunder control, x1 is not subject to control, but its values are knownbefore the exercise is carried out, and desaturation is observed dur-ing the exercise test. The target is to predict the occurrence of anypostoperative cardiorespiratory complications morbi-mortality. Weconsider a simplified problem taking into account only the first andthe third variables. Assuming that we have calculated our design,but a new patient arrives, the marginal design changes. We wantto assign an exercise time in such a way that the joint design isoptimal. The sequential designs are constructed in such a way thatall of information in the previous runs can be used efficiently insuggesting how the next run should be conducted.

Finally we realized that in some examples where uncontrolled va-riables appeared and the assumption that no correlation exists be-tween observations is not realistic. Chapter 5 is devoted to comput-ing designs with correlated observations where different covariance

Page 8: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

vii

structures are studied. Also, Brimkulov’s algorithm is adapted toMarginally Restricted D−Optimality and is applied to complex sit-uations.

This brief summary will be completed with the introductions toeach chapter. Finally the last chapter reviews the main findings ofthe thesis and a discussion of future work.

Page 9: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

viii

Page 10: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Índice general

1. Diseño de Experimentos 1

1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Teoría de diseños para modelos lineales . . . . . . . 3

1.3. Matriz de Información . . . . . . . . . . . . . . . . 7

1.4. Criterios de optimización . . . . . . . . . . . . . . . 10

1.4.1. Funciones criterio . . . . . . . . . . . . . . . 11

1.5. Condiciones de optimización . . . . . . . . . . . . . 18

1.5.1. Teorema de Equivalencia . . . . . . . . . . . 18

1.5.2. Derivada direccional . . . . . . . . . . . . . 19

1.6. Aproximación al diseño óptimo . . . . . . . . . . . 27

1.6.1. Algoritmo de Wynn-Fedorov para D− opti-mización . . . . . . . . . . . . . . . . . . . . 31

1.7. Modelos no lineales . . . . . . . . . . . . . . . . . . 40

2. Diseños con variables no controlables 43

2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 43

2.2. Diseños Marginalmente Restringidos . . . . . . . . 45

2.2.1. Criterios de optimización clásicos para dise-ños MR . . . . . . . . . . . . . . . . . . . . 53

ix

Page 11: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

x ÍNDICE GENERAL

2.3. Diseños Condicionalmente Restringidos . . . . . . . 64

2.3.1. Criterios de optimalidad clásicos para diseñosCR . . . . . . . . . . . . . . . . . . . . . . . 68

2.4. Diseños Marginal y Condicionalmente Restringidos 76

2.4.1. Criterios de optimalidad clásicos para diseñosMCR . . . . . . . . . . . . . . . . . . . . . . 78

3. Algoritmos 85

3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 86

3.2. Planteamiento del problema . . . . . . . . . . . . . 86

3.3. Construcción de diseños óptimos MR . . . . . . . . 88

3.3.1. Construcción de diseños MR para distintasfunciones criterio . . . . . . . . . . . . . . . 90

3.3.2. Ejemplos . . . . . . . . . . . . . . . . . . . . 93

3.4. Construcción de diseños óptimos MCR . . . . . . . 95

3.4.1. Construcción de diseños óptimos MCR paradistintas funciones criterio . . . . . . . . . . 97

3.4.2. Ejemplos . . . . . . . . . . . . . . . . . . . . 98

3.5. Diseños óptimos para algunos casos reales . . . . . 100

3.5.1. Procedimiento de densificación para la fabri-cación de combustible nuclear . . . . . . . . 100

3.5.2. Una prueba física para la predicción de lamorbimortalidad quirúrgica de cáncer de pul-món . . . . . . . . . . . . . . . . . . . . . . 102

3.6. Conclusiones . . . . . . . . . . . . . . . . . . . . . . 106

Page 12: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

ÍNDICE GENERAL xi

4. D-Óptimos Secuenciales MR 109

4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 110

4.2. D-óptimos MR con distribución marginal discreta . 111

4.3. D-óptimos MR con distribución marginal continua . 112

4.3.1. Discretización de la distribución de probabi-lidad del diseño marginal . . . . . . . . . . . 112

4.3.2. Modelización de p(x1) por una familia paramétri-ca de funciones . . . . . . . . . . . . . . . . 118

4.4. Construcción Secuencial de diseños D-óptimos MR . 119

4.4.1. Un ejemplo real . . . . . . . . . . . . . . . . 120

4.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . 124

5. D–óptimos MR con observaciones correladas 127

5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 128

5.2. Planteamiento del problema . . . . . . . . . . . . . 129

5.3. Estructura de la covarianza . . . . . . . . . . . . . 131

5.3.1. Función potencial modificada . . . . . . . . 133

5.3.2. D−optimización y correlación . . . . . . . . 134

5.4. Regresión lineal con observaciones correladas . . . . 135

5.5. Retención radioactiva en el cuerpo humano . . . . . 141

5.6. Un procedimiento iterativo . . . . . . . . . . . . . . 142

5.6.1. Un ejemplo real . . . . . . . . . . . . . . . . 144

5.7. Procedimiento de densificación . . . . . . . . . . . . 146

5.8. Análisis de sensibilidad . . . . . . . . . . . . . . . . 148

5.9. Conclusiones . . . . . . . . . . . . . . . . . . . . . . 151

Page 13: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

xii ÍNDICE GENERAL

6. Conclusiones e investigación futura 153

6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . 153

6.2. Líneas de investigación futuras . . . . . . . . . . . . 157

6.2.1. Modelos Lineales Generalizados . . . . . . . 157

6.2.2. Diseños con observaciones correladas . . . . 161

A. Apéndice 171

A.1. Cálculo de las derivadas locales de algunas funcionescriterio . . . . . . . . . . . . . . . . . . . . . . . . . 171

A.2. Código fuente para el cálculo de diseños D−óptimosMR con observaciones correladas . . . . . . . . . . 174

A.3. Diseño óptimo del problema de densificación en elcaso correlado . . . . . . . . . . . . . . . . . . . . . 180

Bibliografía 185

Page 14: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Lista de Tablas

1.1. Construcción de un diseño D−óptimo para el modelode regresión lineal a través del origen. . . . . . . . . 35

2.1. Diseños óptimos MR y sus eficiencias utilizando elalgoritmo que encontramos enLópez Fidalgo y Garcet Rodríguez [Lóp04a]. . . . . 58

2.2. Diseños D-óptimos CR y sus eficiencias. . . . . . . 72

3.1. Número de iteraciones necesarias para conseguir . . 94

3.2. Diseños óptimos MCR usando un algoritmo multi-plicativo . . . . . . . . . . . . . . . . . . . . . . . . 99

3.3. Número de iteraciones necesarias para alcanzar . . 99

3.4. Frecuencias de porcentajes de aditivos U3O8 para los392 casos considerados en el ejemplo . . . . . . . . 102

3.5. Diseños óptimo MCR para el procedimiento de den-sificación . . . . . . . . . . . . . . . . . . . . . . . . 103

3.6. Diseños óptimos MCR y eficiencias de los diseñosusados en la práctica . . . . . . . . . . . . . . . . . 105

3.7. Número de iteraciones necesarias para que . . . . . 106

xiii

Page 15: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

xiv LISTA DE TABLAS

4.1. Diseños óptimos condicionales, cotas para las eficien-cias y eficiencias exactasen porcentajes para el ejemplo (t0 = 0, p0 = 1,tl+1 = 1, pl+1 = 0 en todos los casos) . . . . . . . . 117

4.2. Pesos del diseño secuencial en los puntos {0, 1} en laprimera columna, y en los puntos {(0, 0), (0, 1), (1, 0), (1, 1)}para las segunda y tercera columnas. La última colum-na muestra las eficiencias del diseño secuencial re-specto del correspondiente D−óptimo MR. . . . . . 124

5.1. Diseños D–Óptimos MR cuando los parámetros deinterés son los de la tendencia (primera fila para ca-da valor de θ2, j = 1) y cuando además de los pa-rámetros del modelo, los de la función de covarianzason también de interés (segunda fila para cada valorde θ2, j = 2) y la correspondiente información. . . . 136

5.2. Diseños D−óptimos MR cuando los parámetros deinterés son los del modelo (primera fila para cadavalor de θ2, j = 1) y cuando ambos parámetros losdel modelo y los de la función de covarianza son deinterés (segunda fila para cada valor de θ2, j = 2) yla información correspondiente. . . . . . . . . . . . 137

5.3. Diseños D−óptimos MR para la estructura de cova-rianza 1.) cuando los parámetros de interés son losdel modelo(primera fila para cada valor de θ2, j = 1)y cuando ambos parámetros los del modelo y los dela función de covarianza son de interés (segunda fi-la para cada valor de θ2, j = 2) y la informacióncorrespondiente. . . . . . . . . . . . . . . . . . . . . 139

Page 16: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

LISTA DE TABLAS xv

5.4. Diseños D−óptimos MR para la estructura de cova-rianza 2.) cuando los parámetros de interés son losdel modelo(primera fila para cada valor de θ2, j = 1)y cuando ambos parámetros los del modelo y los dela función de covarianza son de interés (segunda fi-la para cada valor de θ2, j = 2) y la informacióncorrespondiente. . . . . . . . . . . . . . . . . . . . . 139

5.5. Diseños D−óptimos MR para la estructura de cova-rianza Gaussiana cuando los parámetros de interésson los del modelo (primera fila para cada valor deθ2, j = 1) y cuando ambos parámetros los del mo-delo y los de la función de covarianza son de interés(segunda fila para cada valor de θ2, j = 2) y la in-formación correspondiente. . . . . . . . . . . . . . . 140

5.6. Diseños D−óptimos MR para la estructura de cova-rianza exponencial cuando los parámetros de interésson los del modelo (primera fila para cada valor de θ2,j = 1) y cuando ambos parámetros los del modelo ylos de la función de covarianza son de interés (segun-da fila para cada valor de θ2, j = 2) y la informacióncorrespondiente. . . . . . . . . . . . . . . . . . . . . 140

5.7. D–Óptimos MR cuando los parámetros de interésson los del modelo (primera fila para cada valor deθ2, j = 1) y cuando son de interés los parámetrosdel modelo y de la función de covarianza (segundafila para cada valor de θ2, j = 2) y la informacióncorrespondiente. . . . . . . . . . . . . . . . . . . . . 143

5.8. Diseño óptimo conjunto para el modelo de vientoirlandés . . . . . . . . . . . . . . . . . . . . . . . . 145

5.9. D-eficiencias de diseños D−óptimos bajo la estruc-tura de covarianza Gaussiana con valor nominal delparámetro θ

(G)2 , cuando la verdadera estructura de

covarianza es la exponencial con valor nominal delparámetro θ(E)

2 . . . . . . . . . . . . . . . . . . . . . 148

Page 17: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

xvi LISTA DE TABLAS

5.10. D-eficiencias bajo la suposición de que el valor delparámetro es θ∗1 para las estructuras de covarianzaexponencial (E) y Gaussiana (G) cuando ambos pa-rámetros el de la tendencia y el de la covarianza sonde interés . . . . . . . . . . . . . . . . . . . . . . . 150

5.11. D-eficiencias para el ejemplo de la Sección 5.5 cuandosolamente el parámetro de la tendencia es de interés(j = 1) y cuando ambos el de la tendencia y el de lacovarianza son de interés (j = 2) cuando el verdaderovalor del parámetro es θ∗2 y el que fue usado paracalcular el diseño óptimo fue θ2 . . . . . . . . . . . 150

A.1. Diseño D–óptimo MR para el ejemplo de densificación181

A.2. Diseño D–óptimo MR para el ejemplo de densifi-cación (cont.) . . . . . . . . . . . . . . . . . . . . . 182

A.3. Diseño D–óptimo MR para el ejemplo de densifi-cación (cont.) . . . . . . . . . . . . . . . . . . . . . 183

Page 18: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 1

Diseño de Experimentos

1.1. Introducción

La experimentación es una herramienta fundamental en todos loscampos de investigación y desarrollo. Un experimento es diseñadopara responder a una gran variedad de cuestiones de interés. Engeneral, existen diferentes posibilidades para elegir puntos en losque tomar observaciones o regiones de observación. El problema dedecidir cuántas observaciones realizar y en qué puntos define undiseño.

El resultado observado de un experimento se modeliza medianteuna relación funcional con los factores que en él influyen. Esta de-pendencia se puede escribir como:

y(x) = η(x, θ) + ε(x),

siendo y una variable aleatoria, denominada variable respuesta, quedepende de una o varias variables x a las que llamaremos variablesexplicativas, regresoras o variables controlables. Estas, pueden serelegidas libremente por el experimentador. La función η recibe elnombre de superficie de respuesta y es una función parcialmenteconocida, es decir, está dentro de un conjunto paramétrico de fun-ciones η(x) = η(x, θ), donde los parámetros θt = (θ1, . . . , θm) ∈ R

m

1

Page 19: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2 Diseño de Experimentos

son desconocidos y su especificación determina totalmente a η. Portanto, el número de parámetros del modelo es m. Por último, elmodelo presenta un error aleatorio ε que engloba tanto los erroresde la realización de las pruebas como la especificación del modelo.

Para caracterizar la varianza de y(x) y la dependencia entre dosobservaciones y(x), y(z), consideramos la función de covarianza:

E{[y(x) − η(x, θ)][y(z) − η(z, θ)]

}= E

[ε(x)ε(z)

]

= Cov[y(x), y(z)].

La cuestión que surge es: ¿En qué valores de las variables contro-lables deberían tomarse las observaciones y en qué proporcionespara obtener una estimación óptima, en algún sentido, de los pará-metros desconocidos?

En primer lugar, hemos de especificar el conjunto de puntos ob-servables donde toman valores las variables controlables. Dicho con-junto se denomina espacio del diseño o dominio experimental y sedenota por χ. En la práctica χ va a ser un subconjunto compactode un espacio euclídeo, con frecuencia un intervalo de la recta realo producto de ellos. En adelante supondremos que dicho conjuntoes compacto.

La teoría general de diseños óptimos se desarrolló en un principiopara modelos de regresión lineal con observaciones incorreladas,aunque en muchos ejemplos prácticos, los modelos son no linealesy en muchos problemas es más adecuado considerar observacionescorreladas.

El objetivo de este capítulo, consiste en dar una descripción generalde la teoría de diseños óptimos para modelos lineales con obser-vaciones incorreladas. En las siguientes secciones, se expondrá unresumen de conceptos y resultados fundamentales de dicha teoría.

Page 20: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.2. Teoría de diseños para modelos lineales 3

1.2. Teoría de diseños para modelos li-neales

En los diseños para modelos lineales, el modelo es lineal en losparámetros desconocidos θ, esto conduce al modelo

y(x) = η(x, θ) + ε(x) = θtf(x) + ε(x). (1.1)

Como ya hemos indicado, el error ε(x) es aleatorio, y suponemosque

E[ε(x)] = 0 y V ar[ε(x)] = σ2(x),

es decir,

E[y(x)] = θtf(x) =

m∑

j=1

fj(x)θj y V ar[y(x)] = σ2(x).

La función de superficie respuesta η(x, θ) es lineal en las compo-nentes de f t(x) = (f1(x), . . . , fm(x)), siendo esta una función vec-torial continua y conocida, y θt = (θ1, . . . , θm), es un vector deparámetros desconocidos que pertenece a un conjunto Θ.

Por otro lado, podemos suponer que la varianza de la respuesta, de-pende de las variables controlables mediante una función conocida,λ(x),

V ar[y(x)] = σ2(x) =σ2

λ(x).

Al ser λ(x) conocida, podemos reducir el correspondiente modelode regresión mediante las transformaciones:

y√λ(x) −→ y , f(x)

√λ(x) −→ f(x)

a un modelo homocedástico donde V ar[y(x)] = σ2. Véase Ro-dríguez Torreblanca y Ortiz Rodríguez, [Rod99].

La función λ(x) además de ser conocida, tiene que ser acotada,continua, con valores reales, positiva y definida en χ. Se denomina

Page 21: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4 Diseño de Experimentos

función de eficiencia y refleja la estructura de heterocedasticidaddel modelo.

La simplicidad de las transformaciones que son necesarias paratratar el caso general, nos permite suponer, sin pérdida de genera-lidad en la teoría del diseño óptimo de experimentos, que λ(x) = 1,y trabajar así de manera más cómoda.

A partir de este momento trabajaremos con modelos homocedásti-cos. Además, utilizaremos modelos de regresión con observacionesincorreladas.

Por tanto el modelo de regresión lineal con observaciones incorre-ladas, viene determinado por una terna, (χ,Θ, σ), donde χ es unespacio métrico compacto y Θ es un espacio paramétrico. Podemosconseguir que las funciones f1(x), . . . , fm(x) formen una base deeste espacio.

Para cada valor x ∈ χ se obtiene una observación sobre y. Debido aeste control sobre la selección de x, la cuestión que surge es ¿cuán-tas y en qué valores de x deberían ser tomadas observaciones sobrey para obtener la mejor inferencia sobre todos o parte de los pará-metros θ? A esta selección del número de observaciones y valoresde x ∈ χ es a lo que se llama diseño óptimo.

Supongamos que de antemano el número de observaciones que pode-mos realizar es N . Usando notación vectorial:

YN = (y(x1), . . . , y(xN))t es el vector de observaciones

con

XN = (xij), xij = fj(xi), i = 1, . . . , N, j = 1, . . .m

es decir,

XN =

f1(x1) . . . fm(x1). . . . . . . . .

f1(xN ) . . . fm(xN )

.

De Podemos escribir el modelo (1.1) matricialmente :

E[YN ] = XNθ,

Page 22: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.2. Teoría de diseños para modelos lineales 5

y la hipótesis de que las observaciones sean incorreladas, se escribecomo:

ΣN = Cov(Y | θ, σ2, X) = σ2IN

siendo IN la matriz identidad de orden N .

Los parámetros del modelo, θ, los podemos estimar mediante míni-mos cuadrados, obteniendo

θ = (X tNXN)−1X t

NYN .

Este estimador coincide con el mejor estimador lineal centrado(BLUE). El estimador de mínimos cuadrados es ampliamente usa-do debido a su estructura, ya que es independiente de la matriz decovarianzas ΣN . La matriz de covarianzas del estimador θ es

Cov (θ) = (X tNXN )−1X t

NΣNXN

((X t

NXN)−1)t

= σ2(X tNXN)−1.

Definición 1.1. Se denomina diseño discreto o exacto de N ob-servaciones a una sucesión de N puntos de χ, VN = {x1, . . . , xN},donde podría haber repeticiones.

El problema de diseño consiste en elegir un diseño exacto de tamañoN que minimize un funcional apropiado de Cov (θ). Desde un puntode vista matemático, en vez de considerar la matriz anterior, seconsidera la llamada matriz de información que se define

M(VN) =1

NX tNXN =

1

N

N∑

i=1

f(xi)ft(xi).

Esta matriz coincide, salvo constante, con la matriz de informaciónde Fisher.

DadasN observaciones, debemos decidir cuántasNi debemos tomaren xi, con

∑ki=1Ni = N , de modo que la matriz X tX sea “grande”

en algún sentido. Dado que los Ni deben ser enteros, esto es unproblema de programación entera que en el contexto de la teoría

Page 23: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6 Diseño de Experimentos

de diseño se denomina problema de diseño exacto. Dadas estaselecciones, podemos escribir la matrix X tX del siguiente modo

X tX =k∑

i=1

Nif(xi)ft(xi).

La definición anterior, sugiere la idea de asociar al diseño una me-dida de probabilidad discreta, definida por ξN(xi) = Ni

N, xi ∈ χ.

La búsqueda de diseños exactos óptimos es en general difícil, puescomo dijimos se trata de problemas de programación entera, y enestas condiciones, no es sencillo definir la existencia o identificarsoluciones óptimas. Parece conveniente hacer, en cierto sentido, con-tinuo el problema.

Definición 1.2. Cualquier medida de probabilidad, ξ, sobre χ consoporte en un conjunto finito, es un diseño aproximado o asintótico.

Es decir, si el diseño ξ tiene peso ξ(xi) en xi, i = 1, . . . , k y elnúmero total de observaciones que se realizan es N , entonces, setoman aproximadamente N ·ξ(xi) observaciones en xi, i = 1, . . . , k.Además, eligiendo un N suficientemente grande, podemos aproxi-mar un diseño de estas características a uno exacto. Las aproxi-maciones serán mejores cuanto mayor sea N . (Véase Imhof, LópezFidalgo y Wong [Imh01].)

Todavía, podríamos pensar en una definición más general del dise-ño, como una medida de probabilidad cualquiera. A estos diseñosse les conoce como diseños continuos (Atkinson [Atk92]).

Haciendo uso del Teorema de Caratheodory (ver Observación 1.2)veremos que cualquier diseño óptimo continuo lo podemos “reem-plazar” por una distribución de probabilidad discreta. Por este mo-tivo, podemos suponer que el soporte del diseño óptimo es discreto.

El diseño concentrado en los puntos x1, ..., xk, con pesos respectivosp1, ..., pk (0 ≤ pi ≤ 1 para i = 1, . . . , k;

∑ki=1 pi = 1) se denotará por

ξ =

{x1 ... xkp1 ... pk

},

Page 24: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.3. Matriz de Información 7

y el peso de un punto xi, se denotará también como ξ(xi) = pi.Representaremos por ξ (o p en notación vectorial) la distribuciónresultante sobre χ:

ξ ≡ p = (ξ(x1), . . . , ξ(xk)) = (p1, . . . , pk).

Definición 1.3. El soporte(o espectro) de un diseño ξ es el con-junto de puntos para los cuales el diseño tiene pesos distintos decero:

Sξ = {x ∈ χ : ξ(x) > 0}.

1.3. Matriz de Información

Ya hemos definido la matriz de información para un diseño exacto.En general, considerando el diseño x1, . . . , xN , con medida de pro-babilidad, ξN , definimos la matriz de información como la matriz

M(ξN ) = X tNΣ−1

N XN1

N

donde ΣN = diag(σ2(x1), . . . , σ2(xN )).

Generalizando la definición anterior para diseños aproximados ycontinuos, definimos la matriz de información de un diseño aproxi-mado ξ como

M(ξ) =∑

x∈X

σ−2(x)f(x)f t(x)ξ(x).

Por último, considerando a ξ como una medida de probabilidadcualquiera en χ, la matriz de información de un diseño continuo es

M(ξ) =

χ

σ−2(x)f(x)f t(x)ξ(dx).

Page 25: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

8 Diseño de Experimentos

Observación 1.1. Suponiendo la normalidad de las observaciones,la matriz de información coincide con la matriz de información deFisher:

M(ξ) = −Eξ[∂2 log l(y, γ, σ2)

∂γi∂γj

]= Eξ

[∂ log l(y, γ, σ2)

∂γi

∂ log l(y, γ, σ2)

∂γj

].

Esta definición se podrá aplicar a modelos no lineales, con el in-conveniente de que la matriz, dependerá de los parámetros que sequieran estimar.

Notación 1.1. Sea A una matriz cualquiera de orden m. Se de-finen los conjuntos siguientes:

M(A) = {Au : u ∈ ℜm}

N (A) = {u ∈ ℜm : Au = 0}que son los subespacios imagen y núcleo de la aplicación lineal aso-ciada a la matriz A.

El conjunto de todos los diseños en el modelo se denotará por Ξ,mientras que el conjunto de todas las matrices de información será:

M = {M(ξ) : ξ ∈ Ξ}

El conjunto M tiene en general una estructura más sencilla que elconjunto Ξ. De hecho, como veremos en la siguiente proposición, Mes un subconjunto convexo de un espacio euclídeo, el de las matricescuadradas de orden m y simétricas.

Teorema 1.1. (Teorema de Caratheodory.) Cada elementoM de la envolvente convexa M de cualquier subconjunto S de unespacio l dimensional lo podemos expresar como combinación linealconvexa de l + 1 elementos de S:

M =

l+1∑

i=1

αisi,

l+1∑

i=1

αi = 1, αi ≥ 0, si ∈ S.

Page 26: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.3. Matriz de Información 9

Si M es un punto de la frontera de M entonces αl+1 = 0.

Teorema 1.2. (Propiedades de la Matriz de Información.)

Para cualquier diseño ξ ∈ Ξ se verifica:

1. M(ξ) es simétrica y semidefinida positiva.

2. M(ξ) es singular si el soporte de ξ contiene menos puntos queel número de parámetros, m.

3. El conjunto de todas las matrices de información M = {M(ξ) :ξ ∈ Ξ} es convexo.

4. Si f(x) y λ(x) son continuas en χ, y χ es compacto entoncesM es compacto.

5. Para cualquier diseño, su matriz de información siempre sepuede representar por:

M(ξ) =k∑

i=1

λ(xi)f(xi)f′(xi)pi

donde k ≤ m(m+1)2

+ 1 , 0 ≤ pi ≤ 1 y∑k

i=1 pi = 1.

Observación 1.2. La propiedad (5) del Teorema anterior, nosdice que para cualquier diseño, ξ, cuyo número de puntos en su so-porte supere a m(m+1)

2+ 1 podemos encontrar otro diseño ξ con un

número de puntos en su soporte menor o igual que m(m+1)2

+1 y talque M(ξ) = M(ξ). De este modo, cualquier diseño óptimo continuopuede ser reemplazado por, al menos, una distribución de probabi-lidad discreta con soporte finito. Esto es consecuencia del Teoremade Caratheodory aplicado al espacio de las matrices simétricas deorden m.

Page 27: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

10 Diseño de Experimentos

1.4. Criterios de optimización

Entre un conjunto de diseños, no es fácil decidir cuál es “el mejor”de ellos. Para describir los resultados de un experimento, hacemosuso de θ y de la matriz de covarianzas de los estimadores, Cov( θ ),o algunas funciones de ellas.

Sabemos que entre todos los estimadores de θ, el estimador mínimocuadrático, θ, es el mejor en el sentido de minimizar la varianzaentre todos los estimadores lineales insesgados.

Consideremos diseños exactos, se trata de elegir el diseño que mini-mice Cov( θ ) ∝M−1(ξN). Necesitamos por tanto elegir un criterio,una función de la inversa de la matriz de información, que nos sirvapara buscar el mejor diseño bajo su punto de vista. Su elección de-penderá de los intereses que se busquen al realizar el experimento,es decir buscamos el diseño que verifica:

ξ∗N = argmınξN

Φ(M−1(ξN)),

siendo Φ una función que responda a las necesidades del experimen-tador. Nos encontramos ante un problema de optimización entera:

ξ∗N =

{x∗ip∗i

}k∗

i=1

= arg mınxi,pi,k

Npi entero

Φ

[M−1

({xipi

}k

i=1

)].

Encontrar una solución a este tipo de problemas puede resultar ex-tremadamente difícil. Para salvar, de manera relativa, este proble-ma, usaremos los diseños aproximados que definimos anteriormente.

Denotando, como vimos, al conjunto de diseños en el modelo por

Ξ = {ξ : ξ es una medida de probabilidad en χ},

podemos escribir el problema anterior del siguiente modo:

ξ∗ = argmınξ∈Ξ

Φ[M−1(ξ)].

Page 28: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.4. Criterios de optimización 11

A la función Φ la llamamos criterio de optimización. Veamos ahoraalgunas propiedades deseables de estas funciones criterio.

1.4.1. Funciones criterio

Definición 1.4. Diremos que una función:

Φ : M −→ R ∪ {+∞}

acotada inferiormente es una función criterio si se cumple que:

M(ξ) ≥M(η) ⇒ Φ[M(ξ)] ≤ Φ[M(η)].

Observación 1.3. La relación entre las matrices se refiere alorden de Loewner, es decir A ≥ B ⇔ B − A es semidefinidapositiva.

Notación 1.2. Llamaremos M+ = {M ∈ M : detM > 0}.L(M) es el subespacio vectorial de las matrices simétricas de or-den m generado por el conjunto M. Si Φ es una función criteriodefinimos los conjuntos:

MΦ = {M ∈ M : Φ(M) <∞}

Ξ∗ = {ξ ∈ Ξ : ξ es Φ-óptimo}

Definición 1.5. Diremos que ξ∗ ∈ Ξ es un diseño Φ−óptimo siverifica:

Φ[M(ξ∗)] = mınξ∈Ξ

Φ[M(ξ)]

Definición 1.6. La función Φ es convexa si dadas cualesquieraM1,M2 ∈ M entonces

Φ[γM1 + (1 − γ)M2] ≤ γΦ(M1) + (1 − γ)Φ(M2), 0 ≤ γ ≤ 1.

Page 29: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

12 Diseño de Experimentos

Observación 1.4. Una condición suficiente para la convexidadde la función es que,

∂2

∂γ2Φ[γM1 + (1 − γ)M2]

∣∣∣∣∣γ=0

≥ 0

cuando la derivada exista.

Se exponen a continuación las definiciones y propiedades de loscriterios más utilizados en la práctica.

En primer lugar, consideremos el caso en el que estamos interesa-dos por todos los parámetros del modelo. En este caso, la matrizde información debe ser no singular y por tanto definida positi-va. En este contexto, consideramos los criterios más habituales:D−optimización, A−optimización, G−optimización y E− optimización.

D−optimización (Criterio del determinante)

El criterio de D-optimización viene definido por la función criterio:

ΦD[M(ξ)] = log |M(ξ)|−1 = −log|M(ξ)|, ξ ∈ Ξ.

Algunas propiedades de ΦD son:

El valor de ΦD es finito si y sólo si M(ξ) es no singular.

ΦD es continua en M.

ΦD es convexa en M y estrictamente convexa en M+.

En las matrices en que ΦD es finita, también es diferenciable,y su gradiente es:

▽[− log |M(ξ)|] = −M−1(ξ).

Además∂ΦD

∂pi= −f t(xi)M−1(ξ)f(xi).

Page 30: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.4. Criterios de optimización 13

Existe una interpretación estadística interesante del diseño D− óp-timo. Suponiendo normalidad en los errores del modelo lineal (1.1),la región de confianza del vector de parámetros desconocidos θ des-cribe un elipsoide de la forma:

(θ − θ)M(ξ)(θ − θ) ≤ λ,

siendo θ el estimador mínimo cuadrático de θ. Como el volumendel elipsoide es proporcional a |M−1(ξ)|1/2, este criterio consiste enminimizar el volumen de dicho elipsoide.

A−optimización (Criterio de la media de las varianzas)

El criterio de A-optimización viene definido por la función criterio:

ΦA[M(ξ)] = TrM−1(ξ), ξ ∈ Ξ.

Como Cov(θ) ∝M−1(ξ), entonces

m∑

j=1

Cov(θj) ∝ TrM−1(ξ),

de modo que este criterio minimiza el promedio de las varianzasde los estimadores de los parámetros, pero no tiene en cuenta lascovarianzas entre ellos. Este criterio fue considerado por Elfving[Elf52] y Chernoff [Che53].

Algunas propiedades de ΦA son:

El valor de ΦA es finito si y sólo si M(ξ) es no singular.

ΦA es continua en M.

ΦA es convexa en M y estrictamente convexa en M+.

Page 31: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

14 Diseño de Experimentos

En las matrices en que ΦA es finita, también es diferenciable,y su gradiente es:

▽[TrM−1(ξ)] = −M−2.

Si ΦA es diferenciable

∂ΦA

∂pi= −f t(xi)M−2(ξ)f(xi).

E−optimización (Criterio del autovalor más pequeño)

El criterio de E-optimización viene definido por la función criterio:

ΦE [M(ξ)] =1

λξξ ∈ Ξ,

siendo λξ el mínimo autovalor de M(ξ).

Algunas propiedades de ΦE son:

El valor de ΦE es finito si y sólo si M(ξ) es no singular.

ΦE es continua en M.

ΦE es convexa en M y estrictamente convexa en M+.

Si consideramos de nuevo el elipsoide de confianza de θ, como lasraíces de los autovalores son proporcionales a los ejes de dicho elip-soide, el criterio E−óptimo, minimiza el mayor de los ejes.

Observación 1.5. Podemos considerar los criterios anteriores co-mo casos especiales de un criterio general llamado Φp−optimización,y se define como:

Φp[M(ξ)] =

[1

m

m∑

i=1

( 1

λi

)p] 1

p

, 0 ≤ p <∞

Page 32: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.4. Criterios de optimización 15

Así, para p → 0, tenemos el D-óptimo, para p → 1 el A-óptimo ypara p→ ∞ el E-óptimo, siempre que lımp→∞ Φp(ξ) este definido.

Considerando el modelo lineal (1.1)

y(x) = η(x, θ) + ε

con V ar(y(x)) = σ2, y usando que Var(LZ) = LVar(Z)Lt, podemosmostrar que la varianza de la respuesta predicha en x, es decir,η(x, θ) = θf(x), es:

V ar(y(x)) ∝ d(x, ξ) = f t(x)M−1(ξ)f(x).

La función d(x, ξ) se denomina función de dispersión.Basándonos en esto, podemos definir criterios de optimización demodo que los diseños resultantes minimicen, en algún sentido, lavarianza de la respuesta predicha.

G−optimización

Este criterio consiste en minimizar el valor más grande posible dela varianza en el espacio de diseño χ. Se define por la función:

ΦG[M(ξ)] = supx∈χ

d(x, ξ).

Kiefer y Wolfowitz [Kie59b] prueban la equivalencia entre este cri-terio y el criterio de D−optimización.

Algunas propiedades de este criterio son:

ΦG es continua en M.

ΦG es convexa en M y estrictamente convexa en M+.

I−optimización

Page 33: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

16 Diseño de Experimentos

Intenta minimizar el valor esperado de la varianza de la respuestasobre χ, y se define por:

ΦI [M(ξ)] =

χ

f t(x)M−1(ξ)f(x)dµ ,

siendo µ una medida de probabilidad sobre χ.

Este criterio también es conocido como V -optimización e inclusoIV -optimización.

En ocasiones, no estamos interesados en todos los parámetros, sinoen algunos de ellos o combinaciones de ellos. Supongamos que es-tamos interesados en s combinaciones lineales de los parámetrosθ1, . . . , θm, es decir, en Aθ, siendo A una matriz s × m de rangos ≤ m.

DA−optimización

La función criterio viene definida por

ΦDA[M(ξ)] = log det{AM−1(ξ)At}.

Algunas propiedades de este criterio son:

ΦDAes continua en M.

ΦDAes convexa en M y estrictamente convexa en M+.

ΦDAtiene derivadas parciales para pesos positivos,

∂ΦDA

∂pi= f t(xi)M

−1(ξ)At[AM−1(ξ)At]−1AM−1(ξ)f(xi).

LA−optimización

La función criterio viene definida por

ΦLA[M(ξ)] = Tr{AM−1(ξ)At}.

Algunas propiedades de este criterio son:

Page 34: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.4. Criterios de optimización 17

ΦLAes continua en M.

ΦLAes convexa en M .

ΦLAtiene derivadas parciales para pesos positivos,

∂ΦDA

∂pi= f t(xi)M

−1(ξ)AtAM−1(ξ)f(xi).

Observamos que cuando A = ct, siendo c un vector de dimensiónm, este criterio es el llamado c−óptimo. Este criterio fue propuestopor Elfving [Elf52], y su interés se basa en la estimación de unafunción lineal de los parámetros ctθ.

Dada una matriz cualquiera, A, diremos que A− es una inversageneralizada o g-inversa cuando AA−A = A. Otra definiciónequivalente a ésta es la siguiente: A− es una inversa generalizadade A si A−u satisface la ecuación Ax = u para cada u de M(A). Lainversa generalizada existe siempre, pero en general no es única. SiA es cuadrada y regular entonces la inversa generalizada coincidecon la matriz inversa.

Cuando la matriz A es simétrica, existe una g-inversa muy particu-lar, debida a Penrose, y que denotaremos por A+. Esta matriz esla única que verifica lo siguiente:

A+u =

{0 si u ∈ N (A)wu si u ∈ M(A)

donde wu es el único vector de M(A) tal que Awu = u.

Se define el criterio de c−optimización por:

Φc[M(ξ)] = ctM−(ξ)c.

Una herramienta para la construcción de c−óptimos la proporcionael Teorema de Elfving mediante un procedimiento gráfico. Aunqueeste método es válido para cualquier dimensión, raramente es usa-do para modelos con más de dos parámetros, esto es debido a ladificultad de la construcción del llamado conjunto de Elfving.

Page 35: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

18 Diseño de Experimentos

Rodríguez-Díaz [Rod00], López-Fidalgo y Rodríguez-Díaz, [Lóp04d],proporcionan un procedimiento computacional para encontrar losc-óptimos usando el método de Elfving para más de dos dimen-siones.

1.5. Condiciones de optimización

En esta sección determinamos condiciones para las cuales ξ∗ será óp-timo. Una herramienta importante será la derivada direccional. Seenuncia el Teorema de equivalencia y su extensión debida a Whittle.

1.5.1. Teorema de Equivalencia

Kiefer y Wolfowitz [Kie59b] demostraron la equivalencia entre loscriterios D− y G−óptimos, cuando el modelo es homocedástico. Esdecir, utilizando ambos criterios, llegamos al mismo diseño óptimo.

Teorema 1.3. (Teorema de Equivalencia.) Las siguientes afir-maciones son equivalentes:

1. ξ∗ maximiza |M(ξ)| entre todos los diseños en χ (D-optimización)

maxξ∈Ξ

|M(ξ)| = |M(ξ∗)|.

2. El diseño ξ∗ minimiza supx∈χ d(x, ξ) entre todos los diseñosaproximados en χ (G-optimización)

mınξ∈Ξ

supx∈χ

d(x, ξ) = supx∈χ

d(x, ξ∗).

Además la expresión anterior es igual a m (número de pará-metros)

supx∈χ

d(x, ξ∗) = m.

Page 36: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.5. Condiciones de optimización 19

Demostración. Puede encontrarse en Kiefer y Wolfowitz [Kie59b] yen Fedorov [Fed72].

Observación 1.6. El Teorema establece la equivalencia entre D−optimización, que se utiliza para optimizar la estimación de los pa-rámetros del modelo, y G−optimización, donde el interés se centraen la predicción óptima de la respuesta. Esta equivalencia se da paradiseños continuos pero para diseños exactos (para un N dado)puede que no se verifique.

Este Teorema, juega un papel importante en la construcción de dise-ños óptimos y en la realización de algoritmos para su construcción,puesto que pueden intercambiarse el uso de las propiedades de losdiseños D− y G− óptimos.

El Teorema también proporciona un método simple para verificar laD-optimización de un diseño. Según el punto 2 del Teorema, bastaver que se cumple la condición de que supx∈χ d(x, ξ

∗) = m.

Del Teorema se deduce que en los puntos del soporte de un diseñoD− (G−óptimo) la función de dispersión d(x, ξ∗) alcanza su máxi-mo valor, es decir, m. La utilidad de esta observación está en que,en lugar de comprobar que d(x, ξ) ≤ m ∀x ∈ χ, para saber si el di-seño ξ es D-óptimo, se podría empezar comprobando si d(xi, ξ) = men los puntos xi del soporte de ξ. Puesto que la condición estableci-da es necesaria pero no suficiente, solamente serviría, en principio,para asegurar que el diseño no es D−óptimo si la condición no severifica.

1.5.2. Derivada direccional

Whittle [Whi73b] y Kiefer [Kie74] amplían el Teorema de equivalen-cia para funciones criterio más generales y a su vez White [Whi73a]lo extiende a diseños para modelos no lineales. Se introducen unaserie de conceptos para enunciar el Teorema de equivalencia dadopor Whittle.

Page 37: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

20 Diseño de Experimentos

Definición 1.7. Dada una función criterio Φ : Ξ −→ R ∪ {∞}convexa, definimos la derivada direccional de Φ en M1 = M(ξ) enla dirección de M2 = M(η) como:

FΦ(M(ξ),M(η)) = ∂Φ(M1,M2) =

= lımβ→0+

Φ[(1 − β)M1 + βM2] − Φ(M1)

β.

En ocasiones escribiremos Φ(ξ) en lugar de Φ[M(ξ)] y FΦ(ξ, η) envez de FΦ(M(ξ),M(η)) cuando no exista confusión.

La derivada direccional puede existir incluso si Φ no es diferenciable.(Whittle [Whi73b])).

Whittle [Whi71] y Kiefer [Kie74] usan en su teoría de diseño unadefinición alternativa a la derivada direccional, la derivada deGâteaux.

Definición 1.8. Dada una función criterio Φ : Ξ −→ R ∪ {∞}convexa, definimos la derivada de Gâteaux de Φ en M1 = M(ξ) enla dirección de M2 = M(η) como:

GΦ(M(ξ),M(η)) = lımβ→0+

Φ(M1 + βM2) − Φ(M1)

β.

Podemos ver fácilmente la relación entre ambas definiciones:

FΦ[M(ξ),M(η)] = GΦ[M(ξ),M(η) −M(ξ)],

yGΦ[M(ξ),M(η)] = FΦ[M(ξ),M(ξ) +M(η)].

La diferenciabilidad de Φ implica que GΦ sea lineal en su segundoargumento, Rockafellar [Roc72].

Observamos que GΦ(ξ, ej) = ∂Φ∂pj

, siendo ξ = (p1, . . . , pk) y ej =

(0, . . . , 1, . . . , 0).

Page 38: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.5. Condiciones de optimización 21

Lema 1.1. (Propiedades de la derivada direccional.)Sea Φ convexa, entonces se verifica:

1. FΦ(M,M) = 0, ∀ M ∈ M+

2. FΦ(M1,M2) ≤ Φ(M2) − Φ(M1), ∀M1 ∈ M+, M2 ∈ M

Demostración.

1. Esta es inmediata:

FΦ(M,M) = lımβ→0+

Φ[(1 − β)M + βM ] − Φ(M)

β

= lımβ→0+

Φ(M) − Φ(M)

β= 0

2. Por ser Φ convexa, se verifica que:

Φ[(1 − β)M1 + βM2] − Φ(M1)

β≤ (1 − β)Φ(M1) + βΦ(M2) − Φ(M1)

β

= Φ(M2) − Φ(M1).

Tomando lımβ→0+ en la desigualdad anterior, se tiene que

FΦ(M1,M2) ≤ Φ(M2) − Φ(M1)

2

Teorema 1.4. Sea Φ una función convexa sobre M. Se verificaque

ξ∗ es Φ-óptimo si y sólo si FΦ[M(ξ∗),M(ξ)] ≥ 0 ∀ ξ ∈ Ξ

Page 39: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

22 Diseño de Experimentos

Demostración.

Si Φ se minimiza en M(ξ∗) entonces esto implica que:

Φ[(1 − β)M(ξ∗) + βM(ξ)] − Φ[M(ξ∗)] ≥ 0

para todo β ∈ [0, 1] y todo ξ ∈ Ξ.

Como (1−β)M(ξ∗)+βM(ξ) = M [(1−β)ξ∗ +βξ], por la definiciónde derivada direccional tenemos que:

FΦ(M1,M2) = lımβ→0+

Φ[(1 − β)M1 + βM2] − Φ(M1)

β.

Sustituyendo M1 por M(ξ∗)y M2 por M(ξ), como el numerador espositivo, se verifica que:

FΦ[M(ξ∗),M(ξ)] = ∂Φ[M(ξ∗),M(ξ)] ≥ 0 ∀ ξ ∈ Ξ,

y queda probada la condición necesaria.

Para ver la suficiencia, supongamos que FΦ[M(ξ∗),M(ξ)] ≥ 0 ∀ ξ ∈Ξ. Usando el Lema (1.1), obtenemos que Φ[M(ξ)] − Φ[M(ξ∗)] ≥ 0para todo ξ ∈ Ξ, es decir ξ∗ es óptimo.

2

Corolario 1.1. Bajo las hipótesis del Teorema anterior

ınfξFΦ[M(ξ∗),M(ξ)] = 0.

Demostración.

Debido a que FΦ[M(ξ∗),M(ξ)] ≥ 0 para todo ξ ∈ Ξ eligiendoξ = ξ∗, concluimos, puesto que FΦ[M(ξ∗),M(ξ∗)] = 0 (Lema 1.1).

2

Page 40: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.5. Condiciones de optimización 23

Teorema 1.5. (Teorema general de equivalencia.) Sea Φ unafunción criterio convexa y ξ∗ un diseño tal que:

FΦ[M(ξ∗),M(ξ)] > −∞, ξ ∈ Ξ.

Entonces son equivalentes:

1. ξ∗ ∈ Ξ minimiza Φ sobre Ξ, es decir, ξ∗ es Φ-óptimo.

2. ξ∗ maximiza el ınfη∈Ξ FΦ(M(ξ),M(η)).

3. ınfη∈Ξ FΦ(M(ξ∗),M(η)) = 0.

Demostración. Puede encontrarse en Pázman [Paz86].

Aunque como se ha mencionado, no es necesario que la función seadiferenciable en un punto para que las derivadas direccionales esténbien definidas, que la función criterio Φ sea diferenciable juega unimportante papel a la hora de simplificar los resultados.

Definición 1.9. La derivada direccional FΦ se dice lineal si severifica que ∀ξ ∈ Ξ y ∀η ∈ Ξ

FΦ(ξ, η) =

χ

FΦ(ξ, ξx)η(dx),

donde ξx es el diseño unipuntual con peso 1 en x ∈ χ.

Lema 1.2. Sea Φ convexa y sea M ∈ M+. Una condición nece-saria y suficiente para que Φ sea diferenciable en M es que la deriva-da direccional FΦ(M, ·) sea lineal.

Page 41: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

24 Diseño de Experimentos

Demostración. Una demostración de este Lema puede encontrarseen Pázman [Paz86].

Lema 1.3. Si FΦ es lineal se verifica que

ınfη∈Ξ

FΦ(ξ, η) = ınfx∈χ

FΦ(ξ, ξx).

Demostración.

Como {ξx : x ∈ χ} ⊂ Ξ entonces

ınfη∈Ξ

FΦ(ξ, η) ≤ ınfx∈χ

FΦ(ξ, ξx).

Por otro lado debido a que η es una medida de probabilidad:

ınfη∈Ξ

FΦ(ξ, η) = ınfη∈Ξ

χ

FΦ(ξ, ξx)η(dx) ≥ ınfη∈Ξ

χ

ınfx∈χ

FΦ(ξ, ξx)η(dx)

= ınfx∈χ

FΦ(ξ, ξx).

2

Lema 1.4. Si FΦ es lineal, entonces

Sξ∗ ⊆{x ∈ χ : FΦ(ξ∗, ξx) = 0

}.

Demostración.

Como ξ∗ es óptimo, la derivada direccional en ξ∗ para cualquierdirección es no negativa, en particular

∀ x ∈ χ : FΦ(ξ∗, ξx) ≥ 0.

Y por la linealidad de FΦ se tiene que

0 = FΦ(ξ∗, ξ∗) =

χ

FΦ(ξ∗, ξx)ξ∗(dx).

Page 42: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.5. Condiciones de optimización 25

Por tanto, como ξ∗ es una medida de probabilidad la integral ante-rior es cero si

Sξ∗ ⊆{x ∈ χ : FΦ(ξ∗, ξx) = 0

}.

2

Observación 1.7.

1. Si Φ[(1−β)ξ+βη] es diferenciable podemos escribir mediantela regla de L’Hôpital

FΦ(ξ, η) = lımβ→0+

d

dβΦ[(1 − β)ξ + βη).

2. Si existe el gradiente de Φ entonces por su definición, podemosescribir:

FΦ(M1,M2) = Tr{[▽Φ(M1)](M2 −M1)}= 〈▽Φ(M1),M2 −M1〉.

3. Si Φ es diferenciable en M(ξ), llamando p al vector de pe-sos del diseño ξ y q al vector de pesos de un diseño η, por larelación entre la derivada direccional y la derivada de Gâteaux,

FΦ(ξ, η) = FΦ(p, q) = GΦ(p, q − p) = (q − p)t∂Φ

∂p

=k∑

i=1

(qi − pi)∂Φ

∂pi.

Denotando por di = ∂Φ∂pi

, tenemos que

FΦ(p, ej) = dj −k∑

i=1

pidi.

Page 43: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

26 Diseño de Experimentos

Teorema 1.6. Si Φ es convexa en M y diferenciable en M(ξ∗),entonces

ξ∗ es Φ − óptimo si y sólo si FΦ[M(ξ∗), f(x)f t(x)] ≥ 0

para todo x ∈ χ.

Demostración.

La necesidad es inmediata haciendo uso del Teorema 1.4.

Veamos ahora que se verifica la condición de suficiencia.

Dada una matriz M(ξ) sabemos que podemos expresarla de la for-ma:

M(ξ) =k∑

i=1

ξ(xi)f(xi)ft(xi),

donde∑ξ(xi) = 1 y ξ(xi) > 0. Entonces, si Φ es diferenciable en

M(ξ∗) (Lema 1.1.):

FΦ[M(ξ∗),M(ξ)] =∑

i

ξ(xi)FΦ[M(ξ∗), f(xi)ft(xi)].

Así, FΦ[M(ξ∗), f(x)f t(x)] ≥ 0 para todo x ∈ χ y esto implicaque FΦ[M(ξ∗),M(ξ)] ≥ 0 para todo ξ ∈ Ξ. Aplicando el Teoremaanterior obtenemos el resultado.

2

Teorema 1.7. Si Φ es diferenciable en un entorno de M(ξ∗),entonces son equivalentes:

1. ξ∗ es Φ-óptimo

2. f t(x) ▽ Φ[M(ξ∗)]f(x) ≥ TrM(ξ∗) ▽ Φ[M(ξ∗)], x ∈ χ

3. ınfx∈χ ft(x)▽Φ[M(ξ∗)]f(x) =

∑x∈χ f

t(x)▽Φ[M(ξ∗)]f(x)ξ∗(x)

Page 44: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 27

La demostración puede encontrarse en Pázman [Paz86].

Observación 1.8. De acuerdo con el segundo punto de la obser-vación 1.7.

FΦ[M(ξ∗), f(x)f t(x)] = f t(x)▽Φ[M(ξ∗)]f(x)−TrM(ξ∗)▽Φ[M(ξ∗)].

El Teorema anterior proporciona un par de condiciones para labúsqueda del soporte óptimo

Corolario 1.2. Bajo las condiciones del Teorema anterior, undiseño ξ∗ es Φ-óptimo si y sólo si

1. FΦ[M(ξ∗), f(xj)ft(xj)] = 0 si ξ∗(xj) > 0

2. FΦ[M(ξ∗), f(xj)ft(xj)] ≥ 0 si ξ∗(xj) = 0.

1.6. Aproximación al diseño óptimo

En la mayoría de los problemas reales no es posible calcular analíti-camente el diseño óptimo bajo un determinado criterio. Los procedi-mientos iterativos son herramientas muy útiles para la construcciónde diseños aproximados. Una vez obtenidos estos, sería convenientesaber cuándo estamos lo “suficientemente” cerca del óptimo. Unindicador de esta distancia nos la proporciona la eficiencia del dise-ño, aunque en general esta cantidad tampoco la podremos conocercuando el diseño óptimo no lo conozcamos, y nos tendremos queconformar con cotas inferiores de ella.

Definición 1.10. Se dice que una función criterio Φ es ho-mogénea si verifica Φ(δM) = 1

δΦ(M), siendo δ cualquier número

real positivo.

Page 45: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

28 Diseño de Experimentos

Definición 1.11. Se define la eficiencia de un diseño ξ respectode una función criterio Φ homogénea como

effΦ(ξ) =mınµ Φ[M(µ)]

Φ[M(ξ)]=

Φ(ξ∗)

Φ(ξ),

siendo ξ∗ el diseño Φ- óptimo.

Observación 1.9.

1. effΦ(ξ) ∈ [0, 1]. Cuanto más cerca esté del 1 mejor será laeficiencia. (A menudo la eficiencia se expresa en porcentajes).

2. Significado de la eficiencia. Supongamos que para ξ se hatomado una muestra de tamaño N, es decir, se han realizadoN experimentos, y que su eficiencia es ρ. ¿Qué tamaño demuestra se ha de tomar con ξ∗ para obtener la misma pre-cisión en las estimaciones? (Obviamente si ξ∗ es el óptimo,se necesitarán menos observaciones).

ρ =N∗Φ(M∗)

NΦ(M)=N∗

N· 1 ⇒ N∗ = ρ ·N

Así por ejemplo, si la eficiencia de un diseño es del 50%,entonces bastará tomar la mitad de observaciones con el dise-ño óptimo para obtener la misma precisión que con el diseñooriginal.

3. Cota de la eficiencia.

De acuerdo con el Lema (1.1)

FΦ(M,N) ≤ Φ(N) − Φ(M),

por tanto

ınfNFΦ(M,N) ≤ Φ(M(ξ∗)) − Φ(M),

Page 46: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 29

y dividiendo por Φ(M) resulta:

effΦ(ξ) ≥ 1 +ınfN FΦ(M,N)

Φ(M).

De este modo obtenemos una cota para la eficiencia de undiseño dado. Esta cota puede usarse como regla de paradapara los algoritmos de construcción de diseños óptimos.

Además, si Φ es diferenciable, por el Lema 1.3., se tiene que:

effΦ ≥ 1 +ınfN FΦ(M,N)

Φ(M)

= 1 +ınfx∈χ FΦ[M(ξ), f(x)f t(x)]

Φ(M).

La idea propuesta por Wynn [Wyn70] y Fedorov [Fed72] para laconstrucción de medidas de diseño Φ-óptimas es la siguiente: supon-gamos que tenemos una medida de diseño ξ(n) con matriz de infor-mación M(ξ(n)) y que Φ es diferenciable en M(ξ(n)). Determinamosel punto xn+1, que es aquél que maximiza FΦ[M(ξ(n)), f(x)f t(x)]sobre χ. Si ξ(n) no es Φ-óptimo, entonces por el Teorema de equiva-lencia este valor máximo es menor que cero. Así, podemos aumentarΦ moviéndonos desde M(ξ(n)) en la dirección de f(xn+1)f

t(xn+1).Esto lo hacemos poniendo más peso en xn+1 que el que pone ξ(n).El nuevo diseño se obtiene de acuerdo a la regla:

ξ(n+1) = (1 − αn+1)ξ(n) + αn+1ξxn+1,

siendo ξxn+1 la medida con probabilidad 1 en xn+1. En ocasionesdenotamos a esta medida por 1xn+1 .

Obsérvese que la matriz de información de ξ(n+1), viene dada por:

M(ξ(n+1)) = (1 − αn+1)M(ξ(n)) + αn+1f(xn+1)ft(xn+1).

Ahora debemos elegir de manera adecuada la longitud del pasoαn+1, pues no todas las elecciones aseguran la convergencia y menos

Page 47: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

30 Diseño de Experimentos

aún que Φ[M(ξ(n+1))] < Φ[M(ξ(n))]. Obviamente, tomando αn+1 deuna manera “adecuada”, podremos asegurar esta desigualdad, yaque

FΦ(M(ξ(n)), f(xn+1)ft(xn+1)) < Φ[f(xn+1)f

t(xn+1)] − Φ[M(ξ(n))] < 0.

Una posibilidad es elegir αn+1 de manera que proporcione un au-mento máximo en Φ y, suponiendo que Φ es diferenciable, la longi-tud de paso se determina por FΦ[M(ξ(n+1)), f(xn+1)f

t(xn+1)] = 0.

Otra forma de elegir longitudes de paso para este tipo de algoritmositerativos es fijar una sucesión {αn+1} de longitudes de paso deantemano, sin preocuparnos si Φ decrece en cada iteración. La teoríageneral asegura que si hacemos esto, para acercarnos al óptimoM(ξ∗), debemos requerir que αn+1 → 0 cuando n → ∞. Además∑αn+1 debe ser divergente.

Fedorov y Hackl [Fed97] proponen las siguientes tres elecciones.Cualquier sucesión {αn+1} tal que:

lımn→∞

αn+1 = 0,

∞∑

n=0

αn+1 = ∞; (1.2)

αn+1 = argmınα

Φ[(1 − α)ξ(n) + αξ(xn)]; (1.3)

αn+1 =

{αn, si Φ[(1 − αn)ξ

(n) + αnξ(xn)] < Φ(ξ(n)),γαn, en otro caso .

(1.4)

La cantidad γ < 1 debe ser elegida de manera apropiada.

La regla de elección (1.3) se denomina regla del descenso más pro-nunciado (steepest descent).

Page 48: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 31

1.6.1. Algoritmo de Wynn-Fedorov para D− op-

timización

Decíamos en la introducción que el problema de construcción demedidas de diseño Φ-óptimas no es tan sencillo si no podemosidentificar inicialmente un conjunto finito que incluya los puntosde soporte de la medida óptima. Por esta razón se han desarrolla-do algoritmos especiales para este propósito. Por ejemplo, para elcaso concreto del criterio de D-optimización tenemos el algoritmode Wynn-Fedorov.

Debido a que en cada paso utilizaremos el diseño calculado ante-riormente, es útil obtener la expresión explícita del determinanteen un paso en función del calculado en la iteración anterior.

Teorema 1.8. Sea M(ξ(n)) la matriz de información de un di-seño no degenerado ξ(n) y sea M(ξxn+1) la matriz de informaciónde un diseño concentrado en un único punto xn+1. Entonces el de-terminante de la matriz de información de una combinación linealconvexa de estos diseños ξ(n+1) = (1−αn+1)ξ

(n)+αn+1ξxn+1 es iguala:

|M(ξ(n+1))| = (1−αn+1)m

(1+

αn+1λ(xn+1)d(xn+1, ξ(n))

1 − αn+1

)|M(ξ(n))|.

(1.5)

Observación 1.10. De (1.5) no es difícil concluir que el deter-minante de la matriz de información del diseño ξ(n+1) depende dela cantidad αn+1 y de las coordenadas del punto en el cual el di-seño ξxn+1 se concentra. Veremos que es siempre posible encontrarun punto xn+1 y un αn+1 para el cual |M(ξ(n+1))| > |M(ξ(n))|, si eldiseño ξ(n) no es D-óptimo.

Teorema 1.9. El valor más grande posible de |M(ξ(n+1))| para undiseño dado ξ(n) es:

Page 49: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

32 Diseño de Experimentos

maxx,α

|M(ξ(n+1))| =[λ(xn+1)d(xn+1, ξ

(n))]m(m− 1)m−1

[λ(xn+1)d(xn+1, ξ(n)) − 1]m−1mm|M(ξ(n))| > |M(ξ(n))|,

donde xn+1 es la solución de la ecuación

λ(xn+1)d(xn+1, ξ(n)) = max

xλ(x)d(x, ξ(n)),

y αn+1 viene definido como:

αn+1 =λ(xn+1)d(xn+1, ξ

(n)) −m

(λ(xn+1)d(xn+1, ξ(n)) − 1)m.

Una demostración de este Teorema puede encontrarse en Fedorov,[Fed72].

Teniendo en cuenta estos dos últimos teoremas, el algoritmo es elsiguiente:

1. Tomamos un diseño inicial ξ(0) regular formado por n puntos

x1, . . . , xn y pesos ξ(0)(x1), . . . , ξ(0)(xn) respectivamente(∑n

i=1 ξ(0)(xi) = 1, n ≥ m).

2. Calculamos la matriz de información del diseño ξ(0),

M(ξ(0)) =

n∑

i=1

ξ(0)(xi)λ(xi)f(xi)ft(xi)

y su inversa.

3. Se busca el punto x1 donde se maximiza la función λ(x)d(x, ξ(0))y se calcula su valor en el punto x1 : λ(x1)d(x1, ξ(0)).

4. Se construye el diseño ξ(1) = (1−α1)ξ(0)+α1ξx1 que estará formado

por los puntos y pesos siguientes:

ξ(1) =

{x1 x2 . . . xn x1

(1 − α1)p1 (1 − α1)p2 . . . (1 − α1)pn α1

}

Page 50: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 33

5. Se elige el valor α1 que incremente al máximo el valor del

determinante de la matriz de información del nuevo diseño

M(ξ(1)) que, según el Teorema 1.9, es:

α1 =λ(x1)d(x1, ξ(0)) − m

(λ(x1)d(x1, ξ(0)) − 1)m.

6. Se comprueba si se verifica alguna de las

siguientes condiciones:

α1 < γ1,

|M(ξ(1))| − |M(ξ(0))||M(ξ(1))| < γ2, (1.6)

λ(x1)d(x1, ξ(0)) − m

m< γ3,

donde γ1, γ2, γ3 son precisiones prefijadas.

7. Si se verifica alguna de las condiciones del paso anterior, el

diseño ξ(1) está suficientemente próximo al D-óptimo.

Si no se verifica ninguna de las reglas de parada anteriores

se repiten los pasos del 2 al 7 actualizando ξ(0) a ξ(1) y

así sucesivamente.

Para la construcción iterativa de las matrices M(ξ(0)),M(ξ(1)), . . .se utilizan los resultados de los teoremas anteriores.

El procedimiento iterativo anterior converge y su diseño límite ξcoincide con uno de los diseños D-óptimos.

Teorema 1.10. Supongamos que se satisfacen las condiciones delTeorema de equivalencia. Entonces el procedimiento iterativo 1-7converge, en cuyo caso:

lımn→∞

|M(ξ(n))| = |M(ξ∗)|,

donde M(ξ∗) es la matriz de información correspondiente al diseñoD-óptimo.

Page 51: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

34 Diseño de Experimentos

Ejemplo 1.1.Sea χ = [−1, 1] y el modelo

E[y(x)] = θtf(x) = θ1 + θ2x, σ2(x) = 1, x ∈ χ.

Aplicaremos el algoritmo de Wynn-Fedorov para ver có-mo mejora el diseño inicial. Tomemos como diseño ini-cial el siguiente:

ξ(0) =

{−1 00.5 0.5

}

La sucesión de diseños aplicando los pasos del algoritmoen las diez primeras iteraciones, quedan resumidas en laTabla 1.1.

Observamos que la sucesión de diseños tiende al diseñoóptimo

ξ∗ =

{−1 10.5 0.5

}

El algoritmo introduce de manera alternativa los puntos1 y -1. El valor de la función de varianza generalizadadecrece gradualmente, pero no monótonamente hacia 2.

Una característica del algoritmo es que el diseño al quetiende va incorporando la misma cantidad de puntosen -1 que en 1, que es lo que da lugar al óptimo. Porotro lado, la eficiencia aumenta rápidamente hacia uno.Solamente, después de añadir el primer punto al diseño,esta aumenta de 0.5 a 0.833.

Cota de Atwood

Se han considerado anteriormente cotas para la D-eficiencia de di-cho diseño basadas en el Teorema de equivalencia. Dichas cotas

Page 52: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 35

xi Diseño d(x, ξN) Eff

1 ξ(1) =

{−1 0 1518

518

49

}10 0.5%

-1 ξ(2) =

{−1 0 1

0.450 0.209 0.335

}2.960 0.833%

1 ξ(3) =

{−1 0 1

0.368 0.169 0.463

}2.613 0.880%

-1 ξ(4) =

{−1 0 1

0.470 0.140 0.390

}2.456 0.906%

1 ξ(5) =

{−1 0 1

0.410 0.120 0.470

}2.365 0.922%

-1 ξ(6) =

{−1 0 1

0.470 0.110 0.420

}2.305 0.933%

1 ξ(7) =

{−1 0 1

0.430 0.090 0.480

}2.262 0.941%

-1 ξ(8) =

{−1 0 1

0.480 0.080 0.440

}2.230 0.948%

1 ξ(9) =

{−1 0 1

0.438 0.080 0.481

}2.205 0.953%

-1 ξ(10) =

{−1 0 1

0.484 0.070 0.445

}2.185 0.957%

Tabla: 1.1: Construcción de un diseño D−óptimo para el modelo deregresión lineal a través del origen.

Page 53: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

36 Diseño de Experimentos

pueden ser mejoradas para el criterio de D−optimización (Atwood[Atw69]):

Teorema 1.11. Sea M(ξ) una matriz no singular. Entonces

effD(ξ) =

( |M(ξ)|maxξ |M(ξ)|

)1/m

≥ m

maxx d(x, ξ). (1.7)

Demostración:

La matriz de información, M(ξ), es una matriz simétrica definidapositiva, por tanto existe U ortogonal tal que UM(ξ)U t = I.

Consideremos un modelo, cuyas funciones de regresión seanϕ(x) = Uf(x) ∀x ∈ χ. Llamando dg(x, ξ) = gt(x)M−1(ξ)g(x), severifica que

d(x, ξ) = dϕ(x, ξ),

es decir, la función de dispersión es invariante por transforma-ciones lineales. Además dado ξ′ un diseño cualquiera, se verifica

quedetM(ξ)

detM(ξ′)∝ detMϕ(ξ)

detMϕ(ξ′), siendo Mϕ(ξ) la matriz del diseño

para el modelo ϕ(x). Por tanto, podemos considerar en el resto dela demostración que M(ξ) = I.

Sea ξ∗ un diseño D-óptimo. Como∫

χ

d(x, ξ)dξ∗(x) ≤∫

χ

maxx

d(x, ξ)dξ∗(x) = maxx

d(x, ξ)

resulta

maxx d(x, ξ) ≥∫χd(x, ξ)dξ∗(x) =

∫χf t(x)M−1(ξ)f(x)dξ∗(x)

=∫χTr[f t(x)M−1(ξ)f(x)]dξ∗(x)

= Tr

(M−1(ξ)

∫χf t(x)f(x)dξ∗(x)

)

= Tr(I ·M(ξ∗)) = Tr(M(ξ∗)).

Page 54: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 37

De modo que usando la desigualdad de la media aritmética y geo-métrica, obtenemos que

( |M(ξ)||M(ξ∗)|

)1/m

≥ m

Tr[M(ξ∗)]≥ m

maxx d(x, ξ)

esto es,

effD(ξ) ≥ m

maxx d(x, ξ).

2

Considerando la función criterio ΦD[M(ξ)] = |M(ξ)|−1/m, resulta:

▽(log ΦD(ξ)) =1

m▽ (− log |M(ξ)|) = − 1

mM−1(ξ).

Por otra parte como

▽(log ΦD(ξ)) =▽ΦD(ξ)

ΦD(ξ).

De ambas igualdades se deduce que:

▽ΦD(ξ) =−1

m|M(ξ)|1/mM−1(ξ).

Teniendo en cuenta lo anterior,

FΦD[M(ξ), f(x)f t(x)] = Tr

{[▽(M(ξ))][f(x)f t(x) −M(ξ)]

}

=1

m|M(ξ)|1/m{m− f t(x)M−1(ξ)f(x)

}

= |M(ξ)|−1/m

{1 − f t(x)M−1(ξ)f(x)

m

}.

Page 55: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

38 Diseño de Experimentos

De este modo, teniendo en cuenta que ΦD es diferenciable y quepor resultados anteriores habíamos obtenido que la cota para laeficiencia era

effΦ ≥ 1 +ınfx∈χ FΦ(M(ξ), f(x)f t(x))

Φ(M),

resulta que para D−optimización la cota para la eficiencia se puedeescribir como:

effD(ξ) ≥ 1 +

|M(ξ)|−1/m

{1 − ft(x)M−1(ξ)f(x)

m

}

|M(ξ)|−1/m

= 2 − maxx d(x, ξ)

m(1.8)

Representando ambas cotas para la eficiencia, (1.7) y (1.8), pode-mos observar cuál es la mejor sobre el diseño óptimo, como pode-mos ver en la Figura 1.1. Además lo podemos demostrar mediantela siguiente:

Proposición 1.10. La cota de la eficiencia proporcionada porAtwood [Atw69] mejora los resultados obtenidos por Kiefer [Kie60].

Demostración.

2 − maxx d(x, ξ)

m≤ m

maxx d(x, ξ),

es decir,

2 m maxx

d(x, ξ)−(maxx

d(x, ξ))2 ≤ m2 ⇔ 0 ≤

(m−max

xd(x, ξ)

)2.

2

Page 56: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.6. Aproximación al diseño óptimo 39

Cota de AtwoodCota Kiefer

Legend

0

0.2

0.4

0.6

0.8

1

y

4 5 6 7 8 9 10x

Figura 1.1 : Comparación de las cotas de Kiefer y Atwood.

Page 57: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

40 Diseño de Experimentos

Así, en el ejemplo anterior, el diseño del que partíamos

ξ(0) =

{−1 01/2 1/2

}

tiene como cotas para la eficiencia:

Cota de Atwood

effD(ξ(0)) ≥ m

maxx d(x, ξ)= 0.5.

Cota de Kiefer

effD(ξ(0)) ≥ 2 − maxx d(x, ξ)

m= 0.

1.7. Modelos no lineales

Como indicábamos en la introducción del capítulo, la teoría de di-seños óptimos se desarrolla en principio para modelos lineales. Sinembargo, en la práctica es frecuente encontrarnos con modelos nolineales.

En estos casos, los diseños óptimos dependen del valor de θ, es poresto que se denominan diseños localmente óptimos. Ahora nopodemos definir la matriz de información como lo hemos hecho an-teriormente. Utilizaremos la fórmula de Taylor para transformar elmodelo no lineal en uno lineal. Para ello, es necesario hacer una es-timación inicial de los parámetros, θ(0) = (θ

(0)1 , . . . , θ

(0)m )t. De modo

que el modelo queda linealizado del siguiente modo:

E[y(x)] = η(x, θ) = η(x, θ(0)) +m∑

i=1

(∂η(x, θ)

∂θi

)

θ(0)(θi − θ

(0)i )

+1

2

m∑

i,j=1

(∂2η(x, θ)

∂θiθj

)

θ(x)

(θi − θ(0)i )(θj − θ

(0)j ),

Page 58: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

1.7. Modelos no lineales 41

donde θ(s)i está comprendido entre θ(0)

i y θi, i = 1, . . . , m. Escri-biendo:

fi(x) =

(∂η(x, θ)

∂θi

)

θ(0), i = 1, . . . , m,

linealizamos el modelo, y se calcula el diseño óptimo para el modelolinealizado.

Page 59: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …
Page 60: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 2

Diseños con variables nocontrolables

2.1. Introducción

Es frecuente, que en el diseño de un experimento se consideren to-das las variables explicativas bajo el control del experimentador.Esta suposición frecuentemente no es realista. De hecho, en muchasáreas experimentales, es habitual encontrar variables que no estánbajo control. Por ejemplo, en un experimento de tipo médico laasignación de tratamientos a los pacientes puede ser realizada porel experimentador. Sin embargo, hay otras variables que escapan asu control, como pueden ser la edad o la presión sanguínea. Si losvalores concretos de estas variables son conocidos antes de realizarel experimento, entonces el objetivo será encontrar diseños óptimoscondicionados a los valores conocidos de estas variables. Llamare-mos a estos diseños marginalmente restringidos (MR).

Pueden existir otras variables cuyos valores concretos no puedenconocerse hasta finalizado el experimento. En esta situación puedeser factible suponer a priori una distribución de probabilidad condi-cionada, para posteriormente buscar la distribución marginal ópti-

43

Page 61: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

44 Diseños con variables no controlables

ma relativa a la variable controlable. Llamaremos a estos diseñoscondicionalmente restringidos (CR).

Por otro lado, podemos encontrar problemas donde aparezcan lostres tipos de variables que hemos considerado: controlables, no con-trolables con valores conocidos de antemano, y no controlables convalores desconocidos antes de realizar el experimento. Llamaremosa estos diseños marginal y condicionalmente restringidos (MCR).

Ardanuy y López Fidalgo [Ard92] introducen la teoría de los di-seños óptimos con soporte restringido. Cook y Thibodeau [Coo80]introducen la idea de diseño D−óptimo marginalmente restringido.Calvete [Cal83] realiza un estudio más completo sobre los diseñosmarginalmente restringidos. Nachtsheim [Nac89] proporciona teo-remas de equivalencia y algoritmos para D−optimización y Ds−optimización. Huang y Hsu [Hua93] generalizan estos resultadospara una función criterio general.Huang y Chang [Hua95] conside-ran el problema de los diseños óptimos marginalmente restringidospara modelos lineales. Cook y Fedorov [Coo95] tratan el problemageneral de diseños óptimos con restricciones en sentido general, yasean sobre los parámetros, el soporte o las funciones. Schwabe yWong [Sch04] plantean la relación existente entre las eficiencias delos diseños marginales y los diseños productos. Garcet-Rodríguez[Gar02] y López-Fidalgo y Garcet-Rodríguez [Lóp04a] prueban laconvergencia de los algoritmos para criterios generales y propor-cionan las herramientas necesarias para el tratamiento de diseñosóptimos CR y MCR.

En este capítulo, realizamos una revisión del problema de cons-trucción de diseños MR, CR y MCR, indicando los resultados bási-cos, algoritmos de construcción y una “nueva” cota de la eficienciapara cada uno de ellos basada en la cota de Atwood [Atw69].

Page 62: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 45

2.2. Diseños Marginalmente Restringidos

Sea y(x) la variable aleatoria observable, y supongamos que algunasde las variables de las que depende no pueden ser completamentecontroladas por el experimentador. Consideremos el espacio de di-seño o dominio experimental χ = χ1 × χ2, donde χ1 representa elespacio para las variables que por estar restringidas de algún modo,el diseño no podrá controlar. Cada punto x ∈ χ lo denotaremos porx = (x1, x2).

Definición 2.1. Sea ξ = ξ(x1, x2) un diseño arbitrario, llamamosdiseños marginales a los diseños

ξi(xi) =

χj

ξ(dxj, xi), i 6= j = 1, 2. (2.1)

Denotemos por Ξ el conjunto de todos los diseños en este espacioproducto. Dado un diseño conjunto ξ, los diseños marginales paraχ1 y χ2 serán las correspondientes distribuciones marginales ξ1 y ξ2como hemos visto.

Si los valores de la variable x1 son conocidos de antemano, estosdeterminan un diseño específico ξ1 con soporte finito

Seξ1= χ1 = {x(1)

1 , x(2)1 , . . . , x

(k)1 }.

De este modo, definimos el espacio ΞR como aquél que se restringea aquellos diseños que tienen por diseño marginal ξ1:

ΞR ={ξ ∈ Ξ / ξ1 = ξ1

},

y denotamos por:

MR ={M(ξ) ∈ M / ξ ∈ ΞR

}.

Por la linealidad de la integral es fácil ver que se verifica que ΞR yMR son convexos.

Page 63: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

46 Diseños con variables no controlables

Definición 2.2. Para cada diseño ξ ∈ ΞR llamaremos a

ξ2|1(x2

∣∣x1) (2.2)

diseño condicionado asociado a ξ, sobre χ2 dado x1 ∈ χ1.

Teniendo en cuenta las definiciones anteriores, podemos escribir

ξ(x1, x2) = ξ2|1(x2

∣∣x1) · ξ1(x1).

También podemos decir que para cada x(i)1 fijo,

ξ ∈ ΞR ⇔∑

x2

ξ(x(i)1 , x2) = ξ1(x

(i)1 ) > 0.

Por tanto, en el sumatorio para cada x(i)1 y para algún x2,

ξ(x(i)1 , x2) > 0.

De lo anterior, podemos deducir que si el número de puntos delsoporte del diseño marginal es k, #Seξ1

= k, digamos,

Seξ1= χ1 = {x(1)

1 , x(2)1 , . . . , x

(k)1 },

entonces: ∑x2ξ(x

(1)1 , x2) = ξ1(x

(1)1 ) > 0

......∑

x2ξ(x

(k)1 , x2) = ξ1(x

(k)1 ) > 0,

y por tanto existen al menos k puntos de χ2 tales que ξ(x1, x2) > 0.

Esto nos indica que no son posibles diseños unipuntuales, es decir,diseños de la forma:

ξ =

{(x1, x2)ξ(x1, x2)

},

de hecho, los diseños han de tener al menos k puntos.

Page 64: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 47

Por tanto, las matrices de información de los diseños:

ξ =

{(x

(1)1 , x

(1)2 ) (x

(2)1 , x

(2)2 ) . . . (x

(k)1 , x

(k)2 )

ξ1(x(1)1 ) ξ1(x

(2)1 ) . . . ξ1(x

(k)1 )

},

x(1)2 , x

(2)2 , . . . , x

(k)2 ∈ χ2

son los generadores de MR, que es un conjunto convexo en un espa-cio euclídeo de dimensión m(m+1)

2, siendom el número de parámetros

del modelo.

El teorema de Caratheodory garantiza que cualquier matriz de in-formación es una combinación convexa de 1 + m(m+1)

2generadores

como máximo. Como ξ = ξ2|1 · ξ1 = ξ2|1 · ξ1 y el soporte de ξ1 tienek puntos y el de ξ2|1 tiene como máximo 1 + m(m+1)

2, entonces para

cualquier matriz de información siempre existe un diseño conjuntoasociado con no más de k

(1 + m(m+1)

2

)puntos en su soporte.

En particular, el soporte del diseño condicional ξ2|1(·|x1) (que es elque se lleva a cabo en la práctica para cada x1 ∈ χ1) tendrá comomáximo 1 + m(m+1)

2puntos en su soporte para cada x1 ∈ χ1.

Por otro lado, si el soporte del diseño de ξ1 es infinito, no haygarantía de que el diseño conjunto tenga soporte finito, pero eldiseño condicional ξ2|1(·|x1) tendrá más de 1+ m(m+1)

2puntos en su

soporte para un valor específico x1.

A continuación se presentan los principales resultados para los dise-ños marginalmente restringidos, que son muy similares a los que nosencontramos en la teoría de los diseños no restringidos que vimosen el capítulo primero.

Teorema 2.1. Sea un diseño arbitrario ξ ∈ ΞR, entonces:

1. La matriz de información M(ξ) es simétrica semidefinida po-sitiva.

2. Si el soporte del diseño contiene menos de m puntos entoncesM(ξ) es singular.

Page 65: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

48 Diseños con variables no controlables

3. El conjunto MR es un subconjunto convexo de M.

4. Toda matriz de información se puede escribir como

M(ξ) =

k∑

i=1

pif(xi)f′(xi),

donde

pi ≥ 0,k∑

i=1

pi = 1, k ≤ m(m+ 1)

2+ 1.

Observación 2.1. Notemos que como estamos suponiendo que elsoporte de Sξ1 es finito, podemos restringir ΞR a los diseños consoporte finito.

Sea Φ una función criterio convexa.

Definición 2.3. Sea ξ∗ ∈ ΞR, diremos que un diseño es Φ-óptimomarginalmente restringido si verifica

Φ[M(ξ∗)] = mınξ∈ΞR

Φ[M(ξ)]. (2.3)

Teorema 2.2. El conjunto

Ξ∗R =

{ξ ∈ ΞR

∣∣ ξ es Φ − óptimo MR}

es un subconjunto convexo de ΞR.

Lema 2.1. Si Φ es convexa, entonces ξ∗ es Φ-óptimo marginal-mente restringido si y solo si

FΦ[M(ξ∗),M(ξ)] ≥ 0, ∀ξ ∈ ΞR.

Teorema 2.3. (Teorema de equivalencia para diseños marginal-mente restringidos.) Bajo la condición de convexidad de Φ, undiseño ξ∗ Φ-óptimo marginalmente restringido puede caracterizarseequivalentemente por una las siguientes condiciones:

Page 66: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 49

1. Φ[M(ξ∗)] = ınfξ∈ΞR

Φ[M(ξ)].

2. ınfN∈MR

FΦ[M(ξ∗), N ] = supξ∈Ξ+

R

ınfN∈MR

FΦ[M(ξ), N ].

3. ınfN∈MR

FΦ[M(ξ∗), N ] = 0.

En el caso de que la función criterio sea diferenciable,

Lema 2.2. Sea ξ ∈ Ξ+R. Si la función criterio Φ es diferenciable

en M+, se verifica:

ınfη∈ΞRFΦ[M(ξ),M(η)]

=

χ1

ınfx2∈χ2

FΦ[M(ξ),M(x1,x2)]ξ1(dx1).

Teorema 2.4. Si la función Φ es diferenciable sobre M+ sonequivalentes las siguientes afirmaciones:

1. ξ∗ ∈ Ξ∗R

2.∫

χ1

ınfx2∈χ2

FΦ[M(ξ∗),M(x1,x2)]ξ1(dx1)

= supξ∈Ξ+

R

χ1

ınfx2∈χ2

FΦ[M(ξ),M(x1,x2)]ξ1(dx1)

3.∫

χ1

ınfx2∈χ2

FΦ[M(ξ∗),M(x1,x2)]ξ1(dx1) = 0,

donde M(x1,x2) = f(x1, x2)ft(x1, x2) es la matriz de información del

diseño ξ ∈ Ξ concentrado en el punto x = (x1, x2).

Page 67: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

50 Diseños con variables no controlables

Corolario 2.1. Bajo las hipótesis del teorema anterior, si ξ∗ ∈ Ξ∗R

entonces∫

χ1

ınfx2∈Sξ∗2

FΦ[M(ξ∗),M(x1,x2)]ξ1(dx1) = 0,

siendo Sξ∗2 el soporte del diseño marginal ξ∗2.

Demostración.

0 = FΦ[M(ξ∗),M(ξ∗)] =

=∫χFΦ[M(ξ∗),M(x1,x2)]dξ

∗(x1, x2) =

=∫χ1

∫χ2FΦ[M(ξ∗),M(x1,x2)]ξ

∗2|1(dx2|x1)ξ1(dx1) ≥

≥∫χ1

ınfx2∈Sξ2FΦ[M(ξ∗),M(x1,x2)]ξ1(dx1) ≥

≥∫χ1

ınfx2∈χ2 FΦ[M(ξ∗),M(x1,x2)]ξ1(dx1)

= 0, por ser ξ∗ ∈ Ξ∗R

2

Teorema 2.5. (Teorema de caracterización.) Sea Φ difer-enciable sobre M+. Un diseño ξ∗ es Φ-óptimo MR si y solo si∀ x1 ∈ χ1

ınfx2∈χ2

∂Φ[M(ξ∗),M(x1,x2)] =

χ2

∂Φ[M(ξ∗),M(x1,x2)]ξ∗2|1(dx2|x1).

Cotas para la eficiencia.

Como vimos en el capítulo anterior

FΦ[M(ξ),M(η)] ≤ Φ[M(η)] − Φ[M(ξ)].

Page 68: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 51

Por tanto, tomando el extremo inferior de η en el conjunto de dise-ños restringidos ΞR, resulta:

effΦ−MR(ξ) ≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)].

Por otro lado, en el caso en que Φ sea diferenciable, sabemos quela derivada direccional es lineal, por tanto:

effΦ−MR(ξ)

≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)]

= 1 +

∫χ1

ınfx2∈χ2 FΦ[M(ξ), f(x1, x2)ft(x1, x2)]η1(dx1)

Φ[M(ξ)]

= 1+

∫χ1

ınfx2∈χ2

{f t(x1, x2) ▽ Φ[M(ξ)]f(x1, x2) − Tr

[M(ξ) ▽ Φ[M(ξ)]

]}ξ1(dx1)

Φ[M(ξ)].

De nuevo las cotas se usarán como regla de parada para algoritmosde construcción de diseños óptimos.

Teniendo en cuenta el Teorema 2.5 y la cota de la eficiencia, sepropone el siguiente algoritmo:

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir de ξ(n) calculamos el punto x(n) = (x(n)1 , x

(n)2 ).

Tomando χ1 = Seξ1, x(n) = (x

(n)1 , x

(n)2 ) =

arg

{ınf

x1∈χ1

{ınf

x2∈χ2

FΦ[M(ξ(n)), M(x1,x2)]−

χ2

FΦ[M(ξ(n)), M(x1,x2)]ξ(n)2|1 (dx2|x1)

}}

3. Calculamos el diseño condicional (en x(n))

ξ(n+1)2|1 (x2|x(n)

1 ) = (1 − αn)ξ(n)2|1 (x2|x(n)

1 ) + αn1(x

(n)1 ,x

(n)2 )

Page 69: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

52 Diseños con variables no controlables

4. Finalmente, construimos el diseño conjunto:

ξ(n+1)(x1, x2) =

{ξ(n)(x1, x2) = ξ

(n)2|1 (x2|x1) · ξ1(x1) si x1 6= x

(n)1

ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) si x1 = x

(n)1

Por tanto:

ξ(n+1)(x1, x2) = ξ(n)2|1 (x2|x1) · ξ1(x1) − ξ

(n)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

+ ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

= ξ(n)(x1, x2)

+ αnξ1(x(n)1 )1

x1=x(n)1

(ξ(x

(n)1 ,x

(n)2 )

− ξ(n)2|1 (x2|x(n)

1 ))

donde

1x1=x

(n)1

=

{1 si x1 = x

(n)1

0 si x1 6= x(n)1

5. El algoritmo se detiene cuando

1 +

∫χ1

ınfx2∈χ2 ∂Φ[M(ξ(n)), M(x1,x2)]ξ1(dx1)

Φ[M(ξ(n))]≥ δ,

siendo 0 < δ < 1 es una cota inferior para la eficiencia.

Puede demostrarse (véase López Fidalgo y Garcet Rodríguez [Lóp04a])que

lımn→∞

Φ[M(ξ(n))] = Φ[M(ξ∗)],

cuando la función criterio, Φ, cumple las siguientes condiciones:

1. Φ está acotada inferiormente y alcanza su mínimo en M(ξ∗),

2. Φ tiene las derivadas de segundo orden acotadas, es decir,existe B > 0, tal que

|∂2Φ/∂Mij∂Mrt| ≤ B <∞,

3. 0 < αn < 1, lımn→∞

αn = 0,

∞∑

n=0

αn = ∞

y∞∑

n=0

α2n ≤ k <∞.

Page 70: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 53

2.2.1. Criterios de optimización clásicos para di-

seños MR

En este trabajo se hace una aplicación de los resultados anterio-res a dos de los criterios de optimalidad más usuales de la li-teratura: D−optimización, A−optimización, particularizando laspropiedades generales.

D-optimización

SeaΦD[M(ξ)] = − log |M(ξ)|. (2.4)

La minimización de esta función es equivalente al criterioD−optimizaciónpara diseños marginalmente restringidos que requiere la minimizaciónde |M−1(ξ)|. Ya dijimos que esta función es estrictamente convexasobre M y diferenciable sobre M+.

Además, mediante el siguiente lema demostramos cuál es el valorde su derivada direccional:

Lema 2.3. Sean M1 ∈ M+,M2 ∈ M, entonces:

FΦD[M1,M2] = −

[Tr(M−1

1 M2) −m]

(2.5)

Demostración.

Obsérvese que por ser Φ diferenciable:

FΦD[M1,M2] = lım

α→0

ΦD[M1 + α(M2 −M1)] − ΦD[M1]

α

=∂

∂αΦD[M1 + α(M2 −M1)]

∣∣∣∣α=0+

.

Como ∂∂αln|A| = Tr

[A−1

(∂A∂α

)], entonces:

Page 71: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

54 Diseños con variables no controlables

FΦD[M1,M2] =

∂α− ln

∣∣[M1 + α(M2 −M1)]∣∣∣∣∣∣α=0+

= −[Tr([M1 + α(M2 −M1)]

−1(M2 −M1))]∣∣∣∣

α=0+

= −[Tr(M−1

1 M2) −m].

2

Haciendo uso del lema anterior y del teorema de equivalencia paradiseños MR, resulta:

Teorema 2.6. (Teorema de equivalencia)

Dada la función ΦD definida en (2.4), por ser Φ diferenciable enM+, son equivalentes las siguientes proposiciones:

1. ξ∗ es D-óptimo marginalmente restringido, ξ∗ ∈ Ξ∗R.

2. Siendo d(x1, x2, ξ) la función de dispersión,∫

χ1

maxx2∈χ2

d(x1, x2, ξ∗)ξ1(dx1) = mın

ξ∈Ξ+R

χ1

maxx2∈χ2

d(x1, x2, ξ)ξ1(dx1).

3.∫

χ1

maxx2∈χ2

d(x1, x2, ξ∗)ξ1(dx1) = m.

Demostración.

Basta tener en cuenta que por el lema anterior y por serTr[MxM

−1(ξ)] = f t(x)M−1(ξ)f(x), se verifica que:

FΦD[M(ξ),M(x1,x2)] = −

[Tr(M(ξ)−1M(x1,x2)) −m

]

= −[f t(x1, x2)M

−1(ξ)f(x) −m].

Page 72: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 55

De modo que debido al Teorema 2.4 obtenemos el resultado.

2

Corolario 2.2. Sea ξ∗ el diseño D−óptimo marginalmente re-stringido, entonces:

χ1

maxx2∈Sξ2

d(x1, x2, ξ∗)ξ1(dx1) = m.

Teorema 2.7. El diseño ξ∗ es D-óptimo marginalmente restringi-do si y solo si ∀ x1 ∈ χ1

maxx∈χ2

d(x1, x2, ξ∗) =

χ2

d(x1, x2, ξ∗)ξ∗2|1(dx2|x1).

Cota de la eficiencia

Para el caso restringido, la cota para la eficiencia, viene dada por:

effD−MR(ξ) ≥ 1 +ınf

G generadores de MRFΦD

[M(ξ), G]

ΦD[M(ξ)]

y por el teorema de equivalencia, para funciones diferenciables

effD−MR(ξ) ≥ 1 +

∫χ1

ınfx2 FΦD [M(ξ), f(x1, x2)ft(x1, x2)]

ΦD[M(ξ)]

= 1 +

∫χ1

ξ1(x1)

{|M(ξ)|−1/m

[1 − maxx2 ft(x1,x2)M

−1(ξ)f(x1,x2)

m

]}

|M(ξ)|−1/m

= 2 − 1

m

χ1

ξ1(x1)maxx2

f t(x1, x2)M−1(ξ)f(x1, x2).

Page 73: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

56 Diseños con variables no controlables

Algoritmo de construcción de diseños D-óptimos marginal-mente restringidos

Basándonos en el teorema de equivalencia y los teoremas de car-acterización de diseños D−óptimos MR, presentamos el siguientealgoritmo:

1. Establecemos un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir de ξ(n) calculamos el punto x(n) = (x(n)1 , x

(n)2 ) de χ1 ×

χ2 (recuérdese que tomamos χ1 = Seξ1), donde en este punto se

alcanza el máximo:

maxx1∈χ1=Seξ1

{maxx2∈χ2

d(x1, x2, ξ(n)) −

χ2

d(x1, x2, ξ(n))ξ

(n)2|1 (dx2|x1)

}=

= d(x(n)1 , x

(n)2 , ξ(n)) −

χ2

d(x(n)1 , x

(n)2 , ξ(n))ξ

(n)2|1 (dx2|x(n)

1 )

3. Calculamos el diseño condicional (en el nuevo punto calculado,

en los otros no varía)

ξ(n+1)2|1 (x2|x(n)

1 ) = (1 − αn)ξ(n)2|1 (x2|x(n)

1 ) + αn1(x

(n)1 ,x

(n)2 )

4. Finalmente, construimos el diseño conjunto:

ξ(n+1)(x1, x2) =

{ξ(n)(x1, x2) = ξ

(n)2|1 (x2|x1) · ξ1(x1) si x1 6= x

(n)1

ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) si x1 = x

(n)1

Por tanto;

ξ(n+1)(x1, x2)

= ξ(n)2|1 (x2|x1) · ξ1(x1) − ξ

(n)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

+ ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

= ξ(n)(x1, x2) + αnξ1(x(n)1 )1

x1=x(n)1

[ξ(x

(n)1 ,x

(n)2 )

− ξ(n)2|1 (x2|x(n)

1 )]

donde

1x1=x

(n)1

=

{1 si x1 = x

(n)1

0 si x1 6= x(n)1

Page 74: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 57

5. El algoritmo se detiene cuando

1 +

∫χ1

maxx2∈χ2 [d(x1, x2, ξ(n)) − m]ξ1(x1)

Φ[M(ξ(n))]≥ δ

donde 0 < δ < 1 es una cota inferior para la eficiencia.

El uso de programas informáticos para la búsqueda de diseños ópti-mos supone un gran avance de modo que las aplicaciones prácticasaumentan.

Ejemplo 2.1.Consideremos el modelo de regresión lineal

E[y(x)] = γ1x1+γ2x2, x1 ∈ χ1 = {0, 1}, x2 ∈ χ2 = {0, 1}.

Aplicaremos el algoritmo anterior para mejorar el diseñoinicial:

ξ(0) =

{(0, 0) (0, 1) (1, 0) (1, 1)

14

14

0 12

}.

En la Tabla 2.1 se resumen las 10 primeras iteraciones.

Observamos que∫χ1

maxx2 d(x1, x2, ξ(n))dξ1(x1) va ten-

diendo a 2, que es el número de parámetros.

Se alcanza una cota para la eficiencia del 98,6 % despuésde 30 iteraciones.

Page 75: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

58D

iseños

con

varia

bles

no

controlables

Diseño x(n) = (x(n)1 , x

(n)2 )

∫χ1

maxx2 d(x1, x2, ξ(n))dξ1(x1) − m Efic

ξ(0) =

{(0, 0) (0, 1) (1, 0) (1, 1)

14

14 0 1

2

}(1,0) 1.00 50 %

ξ(1) =

{(0, 0) (0, 1) (1, 0) (1, 1)

14

14

14

12

}(0,1) 0.67 66.6 %

ξ(2) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.17 0.33 0.25 0.25

}(0,1) 0.25 81.8 %

ξ(3) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.1 0.4 0.25 0.25

}(0,1) 0.19 87.5 %

ξ(4) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.08 0.42 0.25 0.25

}(0,1) 0.15 90.5 %

ξ(5) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.07 0.43 0.25 0.25

}(0,1) 0.12 92.3 %

ξ(6) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.06 0.44 0.25 0.25

}(0,1) 0.11 93.5 %

ξ(7) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.05 0.45 0.25 0.25

}(0,1) 0.09 94.4 %

ξ(8) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.05 0.45 0.25 0.25

}(0,1) 0.08 95.1 %

ξ(9) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.04 0.45 0.25 0.25

}(0,1) 0.07 95.6 %

ξ(10) =

{(0, 0) (0, 1) (1, 0) (1, 1)0.04 0.46 0.25 0.25

}(0,1) 0.06 96.1 %

Tabla: 2.1: Diseños óptimos MR y sus eficiencias utilizando el algoritmo que encontramos enLópez Fidalgo y Garcet Rodríguez [Lóp04a].

Page 76: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 59

Generalización de la cota de Atwood

Se han considerado anteriormente cotas para la D−eficiencia de di-cho diseño MR basadas en el teorema de equivalencia. Dichas cotaspueden ser mejoradas para el criterio de D−optimización (Atwood[Atw69]) como vimos en el capítulo anterior.

En esta sección se obtienen cotas mejores en ese sentido para lasD−eficiencias de diseños marginalmente restringidos (MR).

Teorema 2.8. Si M(ξ) es una matrix no singular, se verifica que:

effD−MR(ξ) ≥ m∫χ1

maxx2 d(x1, x2, ξ)η1(dx1).

Demostración.

Como se hizo en el Teorema 1.10, puede suponerse que M(ξ) = I.De esta forma si η es un diseño D-óptimo MR, resulta que:∫χ1

maxx2 d(x1, x2, ξ)η1(dx1)

≥∫χ=χ1×χ2

d(x1, x2, ξ)η2|1(dx2|x1)η1(dx1)

=∫χd(x1, x2, ξ)η(dx) =

∫χf t(x1, x2)M

−1(ξ)f(x1, x2)η(dx)

=∫χTr[f t(x1, x2)M

−1(ξ)f(x1, x2)]η(dx)

= Tr

(M−1(ξ)

∫χf t(x1, x2)f(x1, x2)η(dx)

)

= Tr(I.M(η)) = Tr[M(η)].

Por tanto:( |M(ξ)||M(η)|

)1/m

=

(1

M(η)

)1/m

≥ m

Tr[M(η)]

≥ m∫χ1

maxx2 d(x1, x2, ξ)η1(dx1),

Page 77: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

60 Diseños con variables no controlables

esto es,

effD−MR(ξ) ≥ m∫χ1

maxx2 d(x1, x2, ξ)η1(dx1).

2

La cota de la eficiencia del Teorema 2.8 es mayor que la cota pro-porcionada por López-Fidalgo y Garcet-Rodríguez [Lóp04a] paraestos diseños:

2 −∫χ1

maxx2 d(x1, x2, ξ)η1(dx1)

m≤ m∫

χ1maxx2 d(x1, x2, ξ)η1(dx1)

ya que

2m

χ1

maxx2

d(x1, x2, ξ)η1(dx1)−(∫

χ1

maxx2

d(x1, x2, ξ)η1(dx1)

)2

≤ m2

⇔ 0 ≤(m−

χ1

maxx2

d(x1, x2, ξ)η1(dx1)

)2

.

Ejemplo 2.2.Consideremos el ejemplo anterior, E[y(x)] = γ1x1+γ2x2

con x1 ∈ χ1 = {0, 1}, x2 ∈ χ2 = {0, 1}, con diseñomarginal:

ξ1 =

{0 1

1/2 1/2

}.

Para los diseños obtenidos en las dos primeras itera-ciones:

ξ(1) =

{(0, 0) (0, 1) (1, 0) (1, 1)1/4 1/4 0 1/2

}

ξ(2) =

{(0, 0) (0, 1) (1, 0) (1, 1)1/4 1/4 1/4 1/4

},

Page 78: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 61

puede observarse la mejoría para ambos diseños de lacota de Atwood y de la derivada del teorema de equiva-lencia.

Diseños Antigua Cota Nueva Cota

ξ(1) 0.500 0.667

ξ(2) 0.667 0.750

A-optimización

Sea la función ΦA definida como

ΦA[M(ξ)] = Tr[M−1(ξ)]. (2.6)

Teniendo en cuenta que ΦA es diferenciable sobre M+, y que▽[ΦA(M(ξ)] = [M−1(ξ)]2, es fácil demostrar el siguiente:

Teorema 2.9. (Teorema de equivalencia) Dada la funciónΦA, las siguientes condiciones son equivalentes:

1. ξ∗ es A-óptimo marginalmente restringido, ξ∗ ∈ Ξ∗R.

2. ∫

χ1

maxx2∈χ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)ξ1(dx1) =

= mınξ∈Ξ+

R

χ1

maxx2∈χ2

f t(x1, x2)[M−1(ξ)]2f(x1, x2)ξ1(dx1).

3.∫

χ1

maxx2∈χ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)ξ1(dx1) = Tr[M−1(ξ∗)].

Page 79: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

62 Diseños con variables no controlables

Donde M(x1,x2) = f(x1, x2)ft(x1, x2) es la matriz de información

del diseño ξ ∈ Ξ concentrado en el punto x= (x1, x2).

Corolario 2.3. Sea ξ∗ un diseño A−óptimo marginalmente re-stringido, entonces:

χ1

maxx2∈Sξ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)]dξ1(x1) = Tr[M−1(ξ∗)].

Teorema 2.10. El diseño ξ∗ es A-óptimo marginalmente restringi-do si y solo si para todo punto del soporte del diseño marginalx1 ∈ Seξ1

se verifica que

maxx∈χ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)]

=

χ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)]ξ

∗2|1(dx2|x1).

Teorema 2.11. Una condición suficiente para que un diseñoξ∗ ∈ ΞR sea óptimo simultáneamente respecto de los criterios D−y A−optimización es que:

k M−1(ξ) = [M−1(ξ)]2. (2.7)

Además en este caso:

Tr[M−1(ξ∗)] = k ·m,

siendo k una cierta constante.

Demostración.

ξ∗ es un diseño D−óptimo marginalmente restringido si y sólo si,aplicando el Teorema 2.6, minimiza

χ1

maxx2∈χ2

d(x1, x2, ξ)ξ1(dx1).

Page 80: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.2. Diseños Marginalmente Restringidos 63

Entonces, por la condición 2.7, minimiza:∫

χ1

maxx2∈χ2

f t(x1, x2)[M−1(ξ)]2f(x1, x2)ξ1(dx1).

Por tanto, según el Teorema 2.9, ξ∗ es A−óptimo marginalmenterestringido.

Por otro lado:

Tr[M−1(ξ∗)] =

χ1

maxx2∈χ2

f t(x1, x2)[M−1(ξ∗)]2f(x1, x2)ξ1(dx1)

= k

χ1

maxx2∈χ2

f t(x1, x2)M−1(ξ∗)f(x1, x2)ξ1(dx1)

= k ·m

como consecuencia del Teorema 2.6. 2

Algoritmo de construcción de diseños A-óptimos marginal-mente restringidos

1. Establecemos un diseño inicial ξ(0) ∈ Ξ+R, es decir, un diseño

con matriz de información no singular.

Dado ξ ∈ Ξ, denotemos:

υ(x1, x2, ξ) = f t(x1, x2)[M−1(ξ)]2f(x1, x2).

2. A partir de ξ(n) calculamos el punto x(n) = (x(n)1 , x

(n)2 ) de χ1 ×

χ2 (recuérdese que tomamos χ1 = Seξ1), siendo:

x(n) =

arg

{max

x1∈χ1=Seξ1

{maxx2∈χ2

υ(x1, x2, ξ(n))−

χ2

υ(x1, x2, ξ(n))ξ

(n)2|1 (dx2|x1)

}}

3. Calculamos el diseño condicional en el nuevo punto obtenido:

ξ(n+1)2|1 (x2|x(n)

1 ) = (1 − αn)ξ(n)2|1 (x2|x(n)

1 ) + αn1(x

(n)1 ,x

(n)2 )

Page 81: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

64 Diseños con variables no controlables

4. Finalmente, construimos el diseño conjunto:

ξ(n+1)(x1, x2) =

{ξ(n)(x1, x2) = ξ

(n)2|1 (x2|x1) · ξ1(x1) si x1 6= x

(n)1

ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) si x1 = x

(n)1

Por tanto

ξ(n+1)(x1, x2)

= ξ(n)2|1 (x2|x1) · ξ1(x1) − ξ

(n)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

+ ξ(n+1)2|1 (x2|x(n)

1 ) · ξ1(x(n)1 ) · 1

x1=x(n)1

= ξ(n)(x1, x2) + αnξ1(x(n)1 )1

x1=x(n)1

(ξ(x

(n)1 ,x

(n)2 )

− ξ(n)2|1 (x2|x(n)

1 )),

siendo

1x1=x

(n)1

=

{1 si x1 = x

(n)1

0 si x1 6= x(n)1

.

5. El algoritmo se detiene cuando

1 +

∫χ1

maxx2∈χ2

{υ(x1, x2, ξ

(n)) − Tr[M−1(ξ(n))]}ξ1(x1)

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1 es una cota inferior para la eficiencia.

2.3. Diseños Condicionalmente Restrin-gidos

Como en la sección anterior consideremos diseños definidos sobre elespacio producto χ = χ1 × χ2, de modo que no todos los factoresestán bajo el control del experimentador. A diferencia de los diseñosMR, en la práctica puede ocurrir que los valores de la variableno controlable, x1, sean desconocidos antes de que el experimentosea llevado a cabo. En este caso, supondremos que conocemos apriori una información sobre x1 para diferentes valores específicos

Page 82: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 65

de x2. Así, se puede establecer una distribución condicional ξ1|2, ybuscar diseños en χ = χ1 × χ2 con la restricción de que ξ1|2 sea sudistribución condicional, es decir, en este caso:

ΞR = {ξ ∈ Ξ / ξ1|2(·|x2) = ξ1|2, x2 ∈ Sξ2}.

Usamos el soporte del diseño marginal en lugar del espacio de diseñoporque la distribución condicional sólo tiene sentido para valoresposibles de x2.

Se verifica que ΞR es convexo, es decir, si µ, η ∈ ΞR y ξ = αµ +(1 − α)η para 0 < α < 1 entonces ξ1|2 = αµ1|2 + (1 − α)η1|2 =

αξ1|2 + (1 − α)ξ1|2 = ξ1|2. De este modo, ΞR y MR son tambiénconjuntos convexos.

En este caso, los generadores del conjunto MR, son las matrices deinformación de los diseños

ξ(x1, x2) =

{ξ1|2(x1 | x(0)

2 ) if x2 = x(0)2

0 if x2 6= x(0)2

, x(0)2 ∈ χ2.

MR es un conjunto convexo en un espacio euclídeo de dimensiónm(m+1)

2. El teorema de Caratheodory garantiza que, cualquier ma-

triz de información es una combinación convexa de como mucho1+ m(m+1)

2generadores. No existe garantía de encontrar un soporte

finito para un diseño conjunto, pero el diseño ξ2 tendrá como máxi-mo 1+ m(m+1)

2puntos en su soporte.(Véase López Fidalgo y Garcet

Rodríguez [Lóp04a]).

Lema 2.4. Sea ξ ∈ Ξ+R. Si Φ es diferenciable sobre M+ entonces

ınfη∈ΞR

∂Φ[M(ξ),M(η)]

= ınfx2∈χ2

χ1

∂Φ[M(ξ),M(x1 ,x2)] dξ1|2(dx1 | x2),

siendo M(x1,x2) = f(x1, x2)ft(x1, x2) la matriz de información del

diseño formado solamente por el punto (x1, x2).

Page 83: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

66 Diseños con variables no controlables

La demostración de este lema, la podemos encontrar en López Fi-dalgo y Garcet Rodríguez [Lóp04a].

Del lema anterior se sigue el teorema de equivalencia para diseñosCR.

Teorema 2.12. Si Φ es diferenciable en M+ las siguientes condi-ciones son equivalentes:

1. Φ[M(ξ∗)] = ınfξ∈ΞR

Φ[M(ξ)].

2. ınfx2∈χ2

χ1

∂Φ[M(ξ∗),M(x1,x2)] ξ1|2(dx1 | x2)

= supξ∈Ξ+

R

ınfx2∈χ2

χ1

∂Φ[M(ξ),M(x1,x2)] ξ1|2(dx1 | x2).

3. ınfx2∈χ2

χ1

∂Φ[M(ξ∗),M(x1,x2)] ξ1|2(dx1 | x2) = 0.

Demostración.

Considerando el Lema 2.4 y sustituyendo en el Teorema 2.4, obte-nemos el resultado.

2

Cotas para la eficiencia.

Nuevamente, teniendo en cuenta que

effΦ−CR(ξ) ≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)],

Page 84: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 67

si la función criterio es diferenciable, por el Lema 2.4 resultaeffΦ−CR(ξ)

≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)]

= 1 +ınfx2∈χ2

∫χ1FΦ[M(ξ), f(x1, x2)f

t(x1, x2)]ξ1|2(dx1|x2)

Φ[M(ξ)]

= 1+ınfx2∈χ2

∫χ1

{f t(x1, x2) ▽ Φ[M(ξ)]f(x1, x2) − Tr

[M(ξ) ▽ Φ[M(ξ)]

]}ξ1|2(dx1|x2)

Φ[M(ξ)].

Algoritmos para Φ-óptimos CR

López-Fidalgo y Garcet-Rodríguez, [Lóp04a], proponen un algorit-mo de tipo iterativo que proporciona una sucesión de diseños que,bajo ciertas condiciones, convergen al óptimo.

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir de ξ(n) se calcula el punto x(n)2 ∈ χ2, siendo este punto

x(n)2 = arg

{∫

χ1

∂Φ[M(ξ(n)), M(x1,x2)] ξ1|2(dx1 | x2)

}.

3. Determinamos el nuevo diseño marginal:

ξ(n+1)2 (x2) = (1 − αn)ξ

(n)2 (x2) + αn1

x(n)2

(x2).

4. Finalmente, calculamos el diseño conjunto:

ξ(n+1)(x1, x2) = ξ1|2(x1 | x2)ξ(n+1)2 (x2).

5. El procedimiento se detiene cuando:

1 +

∫χ1

∂Φ[M(ξ(n)), M(x1,x

(n)2 )

]ξ(n)1|2 (dx1 | x

(n)2 )

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1 es una cota inferior para la eficiencia.

Page 85: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

68 Diseños con variables no controlables

Teorema 2.13. Si Φ es una función criterio tal que

1. Φ está acotada inferiormente y alcanza su mínimo en M(ξ∗),

2. Φ tiene las derivadas de segundo orden acotadas, i.e., existeB > 0, tal que |∂2Φ/∂Mij∂Mrt| ≤ B <∞,

3. 0 < αn < 1, lımn→∞ αn = 0,∑∞

n=0 αn = ∞ y∑∞n=0 α

2n ≤ k <∞,

entonces lımn→∞

Φ[M(ξ(n))] = Φ[M(ξ∗)].

López-Fidalgo y Garcet-Rodríguez [Lóp04a] proporcionan una prue-ba de este teorema de convergencia.

2.3.1. Criterios de optimalidad clásicos para di-

seños CR

D−optimización.

Sea ΦD[M(ξ)] = −log|M(ξ)|. Teniendo en cuenta que

FΦD[M(ξ),M(x1,x2)] = −[d(x1, x2, ξ) −m],

y que ΦD diferenciable en M+, el teorema de equivalencia paradiseños D−óptimos CR puede ser enunciado del siguiente modo:

Teorema 2.14. Dada la función ΦD las siguientes proposicionesson equivalentes:

1. ξ∗ es D-óptimo condicionalmente restringido, ξ∗ ∈ Ξ∗R.

Page 86: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 69

2. supx2∈χ2

χ1

d(x1, x2, ξ∗)ξ1|2(dx1|x2)

= ınfξ∈Ξ+

R

supx2∈χ2

χ1

d(x1, x2, ξ)ξ1|2(dx1|x2),

siendo d(x1, x2, ξ) la función de dispersión.

3. supx2∈χ2

χ1

d(x1, x2, ξ∗)ξ1|2(dx1|x2) = m.

Cota de la eficiencia

La cota para la eficiencia, viene dada por:

effD−CR(ξ) ≥ 1 +ınf

G generadores de MRFΦD

[M(ξ), G]

ΦD[M(ξ)].

Para garantizar la homogeneidad del criterio, se suele utilizar, parael cálculo de la eficiencia, la función

ΦD[M(ξ)] = |M(ξ)|−1/m.

Por el teorema de equivalencia, para funciones diferenciables y porel Lema 2.4

effD−CR(ξ)

≥ 1 +ınfη∈ΞR FΦ[M(ξ), M(η)]

Φ[M(ξ)]

= 1 +ınfx2∈χ2

∫χ1

FΦ[M(ξ), f(x1, x2)ft(x1, x2)]ξ1|2(dx1|x2)

Φ[M(ξ)]

= 1 +ınfx2∈χ2

∫χ1

[| M(ξ) |−1/m

{1 − ft(x1,x2)M

−1(ξ)f(x1,x2)m

}]ξ1|2(dx1|x2)

|M(ξ)|−1/m

Page 87: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

70 Diseños con variables no controlables

Operando, resulta que:

effD−CR(ξ) ≥ 2− 1

mmaxx2∈χ2

χ1

ξ1|2(dx1|x2)ft(x1, x2)M

−1(ξ)f(x1, x2).

Algoritmo de construcción de diseños D-óptimos CR

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir de ξ(n) se calcula el punto x(n)2 ∈ χ2, siendo este el

punto

x(n)2 = arg max

x2∈χ2

χ1

d(x1, x2, ξ(n)) ξ1|2(dx1 | x2).

3. Determinamos el nuevo diseño marginal:

ξ(n+1)2 (x2) = (1 − αn)ξ

(n)2 (x2) + αn1

x(n)2

(x2).

4. Finalmente, calculamos el diseño conjunto:

ξ(n+1)(x1, x2) = ξ1|2(x1 | x2)ξ(n+1)2 (x2).

5. El procedimiento se detiene cuando:

1 −∫

χ1[d(x1, x

(n)2 , ξ(n)) − m]ξ

(n)1|2 (dx1 | x

(n)2 )

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1.

Ejemplo 2.3.Para aclarar los conceptos anteriores, consideremos elmodelo de regresión:

E[y(x)] = γ1x1+γ2x2, x1 ∈ χ1 = {0, 1}, x2 ∈ χ2 = {0, 1}.

La variable respuesta depende de dos variables explica-tivas, una controlable, x2, y otra no controlable y des-conocida antes de que el experimento sea realizado, x1.

Page 88: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 71

Supongamos que tenemos una información a priori so-bre x1 para diferentes valores de x2,

ξ1|2(·|0) =

{0 1

1/4 3/4

}, ξ1|2(·|1) =

{0 1

1/8 7/8

}.

En el caso de D-optimización, el objetivo será el dise-ño conjunto con valor máximo del determinante de lamatriz de información, sujeto a una distribución condi-cional, ξ1|2, es decir, el diseño conjunto será de la forma:

ξ =

{(0, 0) (1, 0) (0, 1) (1, 1)1−p4

3(1−p)4

p8

7p8

},

siendo el diseño que será llevado en la práctica

ξ2 =

{0 1

1 − p p

}.

Un simple cálculo, demuestra que el D-óptimo CR sealcanza en p∗ = 24

41, con valor del determinante, 9

41.

A continuación, aplicamos el algoritmo al ejemplo ante-rior, considerando como diseño inicial:

ξ(0) =

{(0, 0) (1, 0) (0, 1) (1, 1)

18

38

116

716

},

es decir,

ξ(0)2 =

{0 112

12

}.

La Tabla 2.2, proporciona un resumen de las 6 primerasiteraciones con los diseños y sus eficiencias

Podemos observar que el algoritmo no es monótono, yque la convergencia es lenta, probablemente porque par-timos de un diseño cercano al óptimo.

Page 89: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

72 Diseños con variables no controlables

Diseño conjunto x(n)2 Eficiencia

ξ(1) =

{(0, 0) (0, 1) (1, 0) (1, 1)

18

116

38

716

}1 87.27 %

ξ(2) =

{(0, 0) (0, 1) (1, 0) (1, 1)

116

332

316

2132

}0 60.86 %

ξ(3) =

{(0, 0) (0, 1) (1, 0) (1, 1)

18

116

38

716

}1 87.27 %

ξ(4) =

{(0, 0) (0, 1) (1, 0) (1, 1)

332

564

932

3564

}0 92.73 %

ξ(5) =

{(0, 0) (0, 1) (1, 0) (1, 1)

18

38

116

716

}1 87.27 %

ξ(6) =

{(0, 0) (0, 1) (1, 0) (1, 1)

548

796

516

4996

}1 99.75 %

Tabla: 2.2 : Diseños D-óptimos CR y sus eficiencias.

Generalización de la cota de Atwood

La cota para la eficiencia obtenida para los diseños D−óptimosCR, puede ser mejorada mediante una generalización de la cotapropuesta por Atwood, [Atw69].

Teorema 2.15. Si M(ξ) es una matriz no singular, se cumpleque

effD−CR(ξ) ≥ m∫χ1

maxx2 d(x1, x2, ξ)η1|2(dx1|x2).

Demostración.

Como se hizo en el Teorema 2.8, puede suponerse M(ξ) = I, yconsiderando un diseño D−óptimo CR, η :

Page 90: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 73

∫χ1

maxx2 d(x1, x2, ξ)η1|2(dx1|x2)

≥∫χ=χ1×χ2

d(x1, x2, ξ)η1|2(dx1|x2)η2(dx2)

=∫χd(x1, x2, ξ)η(dx) =

∫χf t(x1, x2)M

−1(ξ)f(x1, x2)η(dx)

=∫χTr[f t(x1, x2)M

−1(ξ)f(x1, x2)]η(dx)

= Tr

(M−1(ξ)

∫χf t(x1, x2)f(x1, x2)η(dx)

)

= Tr(I.M(η)) = Tr[M(η)].

Por tanto:

( |M(ξ)||M(η)|

)1/m

=

(1

M(η)

)1/m

≥ m

Tr[M(η)]

≥ m∫χ1

maxx2 d(x1, x2, ξ)η1|2(dx1|x2),

esto es,

effD−CR(ξ) ≥ m∫χ1

maxx2 d(x1, x2, ξ)η1|2(dx1|x2).

2

De nuevo, la cota de la eficiencia proporcionada en el teoremaanterior es mayor que la cota dada por López-Fidalgo y Garcet-Rodríguez, [Lóp04a], para estos diseños. En efecto:

0 ≤(

m −∫

χ1

maxx2

d(x1, x2, ξ)η1|x2(dx1|x2)

)2

,

es decir:

Page 91: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

74 Diseños con variables no controlables

2 m

χ1

maxx2

d(x1, x2, ξ)η1|2(dx1|x2)−(∫

χ1

maxx2

d(x1, x2, ξ)η1|2(dx1|x2)

)2

≤ m2.

Dividiendo por m

χ1

maxx2

d(x1, x2, ξ)η1|2(dx1|x2), obtenemos:

2 −∫

χ1maxx2 d(x1, x2, ξ)η1|2(dx1 | x2)

m≤ m∫

χ1maxx2 d(x1, x2, ξ)η1|2(dx1 | x2)

.

Ejemplo 2.4.Sea E[y(x)] = γ1x1 + γ2x2, donde x1 ∈ χ1 = {0, 1},x2 ∈ χ2 = {0, 1}, con diseños condicionales:

ξ1|2(· | 0) =

{0 1

1/4 3/4

}, y ξ1|2(· | 1) =

{0 1

1/8 7/8

}

y consideremos el diseño conjunto

ξ =

{(0, 0) (0, 1) (1, 0) (1, 1)1/16 3/32 3/16 21/32

}.

En este caso la cota de la eficiencia proporcionada porLópez Fidalgo y Garcet Rodríguez [Lóp04a] es 0.77, yla nueva es de 0.82.

A-optimización

Consideremos la función criterio

ΦA[M(ξ)] = Tr[M−1(ξ)].

En este caso, sabemos que ΦA es diferenciable en M+ y

FΦA[M(ξ),M(x1,x2)] = −[f t(x1, x2)(M

−1(ξ))2f(x1, x2)−TrM−1(ξ)].

Page 92: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.3. Diseños Condicionalmente Restringidos 75

De modo que el teorema de equivalencia puede ser enunciado delsiguiente modo:

Teorema 2.16. Dada la función ΦA, las siguientes proposicionesson equivalentes:

1. ξ∗ es A-óptimo condicionalmente restringido: ξ∗ ∈ Ξ∗R.

2. supx2∈χ2

χ1

f t(x1, x2)(M−1(ξ∗))−2f(x1, x2)ξ1|2(dx1|x2)

= ınfξ∈Ξ+

R

supx2∈χ2

χ1

f t(x1, x2)(M−1(ξ))−2f(x1, x2)ξ1|2(dx1|x2).

3. supx2∈χ2

χ1

f t(x1, x2)(M−1(ξ∗))−2f(x1, x2)ξ1|2(dx1|x2)

= Tr[M−1(ξ∗)].

Algoritmo de construcción de diseños A-óptimos CR

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir de ξ(n) se calcula el punto x(n)2 ∈ χ2, siendo este el

punto

x(n)2 = arg max

x2∈χ2

χ1

f t(x1, x2)(M−1(ξ(n)))−2f(x1, x2) ξ1|2(dx1 | x2).

3. Determinamos el nuevo diseño marginal:

ξ(n+1)2 (x2) = (1 − αn)ξ

(n)2 (x2) + αn1

x(n)2

(x2).

4. Finalmente, calculamos el diseño conjunto:

ξ(n+1)(x1, x2) = ξ1|2(x1 | x2)ξ(n+1)2 (x2).

5. El procedimiento se detiene cuando:

1−∫

χ1[f t(x1, x

(n)2 )(M−1(ξ(n)))−2f(x1, x

(n)2 ) − Tr(M−1(ξ(n)))]ξ

(n)1|2 (dx1 | x

(n)2 )

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1 es una cota inferior para la eficiencia.

Page 93: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

76 Diseños con variables no controlables

2.4. Diseños Marginal y CondicionalmenteRestringidos

Planteamos el caso en el que tenemos los dos tipos de restriccionesanteriores. Ahora aparecen tres clases de variables independientesen el modelo:

variables no controlables con valores conocidos antes de queel experimento sea realizado, x1 ∈ χ1.

variables no controlables con valores desconocidos antes deque el experimento sea realizado, x2 ∈ χ2.

variables controlables, x3 ∈ χ3.

El espacio de diseño es el espacio producto χ = χ1×χ2 ×χ3. Comorestricciones tendremos un diseño marginal, ξ1 y otro condicionalξ2|13, de modo que el conjunto de diseños es

ΞR = {ξ/ ξ1 = ξ1, ξ2|13(·|x1, x3) = ξ2|13(·|x1, x3), (x1, x3) ∈ Sξ13}.

Este conjunto es convexo, y la familia de matrices de informaciónasociada, MR = {M(ξ) : ξ ∈ ΞR}, tiene las mimas propiedadesque la familia de todas las matrices de información (Fedorov [Fed72]).

Usamos como soporte Sξ13 en vez de χ1 × χ3 porque aunqueξ2|13(x2|x1, x3) existe para cualquier x1 ∈ χ1 y x3 ∈ χ3, el diseñoque se lleva a cabo en la práctica ξ3|1 podría anularse para algunosvalores de x3.

Lema 2.5. Sea ξ ∈ Ξ+R. Si Φ es diferenciable en M+ entonces

ınfη∈ΞR

∂Φ[M(ξ),M(η)]

=

χ1

ınfx3∈χ3

χ2

∂Φ[M(ξ),Mx] ξ2|13(dx2 | x1, x3) ξ1(dx1),

Page 94: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.4. Diseños Marginal y Condicionalmente Restringidos 77

siendo Mx = f(x)f ′(x) la matriz de información del diseño forma-do por el punto x = (x1, x2, x3).

Usando el lema anterior, se demuestra fácilmente el siguiente

Teorema 2.17. Si Φ es diferenciable en M+ las siguientes condi-ciones son equivalentes:

1. Φ[M(ξ∗)] = ınfξ∈ΞR

Φ[M(ξ)].

2.∫

χ1

ınfx3∈χ3

χ2

∂Φ[M(ξ∗),Mx] ξ2|13(dx2 | x1, x3) ξ1(dx1)

= supξ∈Ξ+

R

χ1

ınfx3∈χ3

χ2

∂Φ[M(ξ),Mx] ξ2|13(dx2 | x1, x3) ξ1(dx1).

3.∫

χ1

ınfx3∈χ3

χ2

∂Φ[M(ξ∗),Mx] ξ2|13(dx2 | x1, x3) ξ1(dx1) = 0.

Cota para la eficiencia.

Una vez más puesto que

effΦ−MCR(ξ) ≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)],

si la función Φ es diferenciable, sabemos que la derivada direccionales lineal, por tanto:

effΦ−MCR(ξ)

≥ 1 +ınfη∈ΞR

FΦ[M(ξ),M(η)]

Φ[M(ξ)]

= 1 +

∫χ1

ınfx3∈χ3

∫χ2FΦ[M(ξ),Mx] ξ2|13(dx2 | x1, x3) ξ1(dx1)

Φ[M(ξ)]

= 1+

∫χ1

ınfx3∈χ3

∫χ2

{f t(x1, x2, x3) ▽ Φ[M(ξ)]f(x1, x2, x3) − Tr

[M(ξ) ▽ Φ[M(ξ)]

]}

Page 95: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

78 Diseños con variables no controlables

ξ2|13(dx2 | x1, x3) ξ1(dx1)

Φ[M(ξ)].

Algoritmos para Φ−óptimos MCR

Un algoritmo iterativo para la construcción de diseños Φ-óptimosMCR es propuesto por López-Fidalgo y Garcet-Rodríguez, [Lóp04a],donde se demuestra también su convergencia.

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir del diseño ξ(n) ∈ ΞR se calcula el punto x(n)3 (x1) de

χ3 que es aquél donde el mínimo

χ2

∂Φ[M(ξ(n)), Mx] ξ2|13(dx2 | x1, x3)

es alcanzado.

3. Se determina el nuevo diseño condicional,

ξ(n+1)3|1 (x3 | x1) = (1 − αn)ξ

(n)3|1 (x3 | x1) + αn1

x(n)3 (x1)

(x3).

4. Se define el nuevo diseño conjunto como

ξ(n+1)(x) = ξ1(x1)ξ2|13(x2 | x1, x3)ξ(n+1)3|1 (x3 | x1).

5. El procedimiento se detiene cuando

1 +

∫χ1

∫χ2

∂Φ[M(ξ(n)), M(x1,x2,x

(n)3 )

] ξ2|13(dx2 | x1, x(n)3 ) ξ1(dx1)

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1 es una cota inferior para la eficiencia.

2.4.1. Criterios de optimalidad clásicos para di-

seños MCR

D-optimización

Page 96: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.4. Diseños Marginal y Condicionalmente Restringidos 79

Consideremos la función criterio ΦD[M(ξ)] = −log|M(ξ)|. Sabemosque es diferenciable en M+ y que la derivada direccional es:

FΦD[M(ξ),M(x1,x2)] = −[d(x1, x2, ξ) −m].

Teorema 2.18. Dada la función ΦD las siguientes proposicionesson equivalentes:

1. ξ∗ es D-óptimo marginal y condicionalmente restringido, ξ∗ ∈Ξ∗R.

2.∫

χ1

supx3∈χ3

χ2

d(x1, x2, x3, ξ∗) ξ2|13(dx2 | x1, x3) ξ1(dx1)

= ınfξ∈Ξ+

R

χ1

supx3∈χ3

χ2

d(x1, x2, x3, ξ) ξ2|13(dx2 | x1, x3) ξ1(dx1).

3.∫

χ1

supx3∈χ3

χ2

d(x1, x2, x3, ξ∗) ξ2|13(dx2 | x1, x3) ξ1(dx1) = m.

Cota para la eficiencia.

Para establecer una cota para la eficiencia, se suele usar como fun-ción criterio de D-optimización ΦD[M(ξ)] = |M(ξ)|−1/m. En estecaso, podemos escribir la cota como

∫χ1

ınfx3∈χ3

∫χ2

{f t(x1, x2, x3) ▽ Φ[M(ξ)]f(x1, x2, x3) − Tr

[M(ξ) ▽ Φ[M(ξ)]

]}

ξ2|13(dx2 | x1, x3) ξ1(dx1)

Φ[M(ξ)]

= 2− 1

m

χ1

maxx3

χ2

f t(x1, x2, x3)M−1(ξ(n))f(x1, x2, x3) ξ2|13(dx2 | x1, x3) ξ1(dx1).

Algoritmo de construcción de diseños D-óptimos MCR

Page 97: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

80 Diseños con variables no controlables

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir del diseño ξ(n) ∈ ΞR se calcula el punto x(n)3 (x1) de

χ3 que es aquel donde el máximo∫

χ2

d(x1, x2, x3, ξ(n)) ξ2|13(dx2 | x1, x3)

es alcanzado.

3. Se determina el nuevo diseño condicional,

ξ(n+1)3|1 (x3 | x1) = (1 − αn)ξ

(n)3|1 (x3 | x1) + αn1

x(n)3 (x1)

(x3).

4. Se define el nuevo diseño conjunto como

ξ(n+1)(x) = ξ1(x1)ξ2|13(x2 | x1, x3)ξ(n+1)3|1 (x3 | x1).

5. El procedimiento se detiene cuando

1 −∫

χ1

∫χ2

[d(x1, x2, x(n)3 , ξ(n)) − m] ξ2|13(dx2 | x1, x

(n)3 ) ξ1(dx1)

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1.

Presentamos un ejemplo para aclarar los conceptos expuestos ante-riormente.

Ejemplo 2.5.Consideremos el modelo de regresión lineal

E[y(x)] = γ1x1 + γ2x2 + γ3x3,

donde x1 ∈ χ1 = {0, 1}, x2 ∈ χ2 = {0, 1}, x3 ∈ χ3 ={0, 1}. La esperanza de la variable respuesta dependede tres variables explicativas, una variable controlablex3, otra no controlable con valores desconocidos antesde que el experimento sea realizado, x2 y otra tambiéndesconocida pero cuyos valores son conocidos de ante-mano, x1, estos valores proporcionan el diseño marginal:

ξ1 =

{0 1

1/2 1/2

}.

Page 98: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.4. Diseños Marginal y Condicionalmente Restringidos 81

También suponemos que, tenemos un conocimiento apriori sobre la variable x2, así tenemos los diseños condi-cionales:

ξ2|13(·|0, 0) =

{0 1

3/4 1/4

}, ξ2|13(·|1, 0) =

{0 1

2/3 1/3

},

y

ξ2|13(·|0, 1) =

{0 1

4/5 1/5

}, ξ2|13(·|1, 1) =

{0 1

1/2 1/2

}.

En el caso de D-optimización, buscamos el diseño con-junto con mayor valor del determinante de la matrizde información, sujeto a la distribución marginal ξ1 y ala condicional ξ1|2, es decir, buscamos un diseño de laforma:

ξ =

{(0, 0, 0) (1, 0, 0) (0, 1, 0) (0, 0, 1) (1, 1, 0) (1, 0, 1) (0, 1, 1) (1, 1, 1)3(1−p)

81−q3

1−p8

2p5

1−q6

q4

p10

q4

},

donde

ξ3|1(·|0) =

{0 1

1 − p p

}y ξ3|1(·|1) =

{0 1

1 − q q

},

que son los diseños que se realizan en la práctica.

Aplicando el algoritmo al ejemplo dado obtenemos, des-pués de 18 iteraciones, el diseño

ξ =

{(0, 0, 0) (1, 0, 0) (0, 1, 0) (0, 0, 1) (1, 1, 0) (1, 0, 1) (0, 1, 1) (1, 1, 1)0.0104 0.1574 0.0035 0.03889 0.0787 0.1319 0.0972 0.1319

},

que alcanza una eficiencia del 99 %.

Generalización de la cota de Atwood.

Page 99: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

82 Diseños con variables no controlables

Al igual que se hizo para los diseños MR y CR, veamos que lageneralización de la cota de Atwood mejora la cota anteriormenteexpuesta.

Teorema 2.19. Sea M(ξ) una matriz no singular, se verifica que:

effD−MCR(ξ) ≥ m∫χ1

maxx3

∫χ2

d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1).

Demostración.

Podemos suponer M(ξ) = I, y consideremos η un diseño D−óptimoMCR (véase el teorema 2.8).∫

χ1maxx3

∫χ2

d(x1, x2, ξ)η2|13(dx2|x1, x3)η1(dx1)

≥∫

χd(x1, x2, x3, ξ)η(dx) =

∫χ

f t(x1, x2, x3)M−1(ξ)f(x1, x2, x3)η(dx) =

=∫

χTr[f t(x1, x2, x3)M

−1(ξ)f(x1, x2, x3)]η(dx) =

= Tr

(M−1(ξ)

∫χ

f t(x1, x2, x3)f(x1, x2, x3)η(dx)

)

= Tr(I.M(η)) = Tr[M(η)].

Por tanto:( |M(ξ)||M(η)|

)1/m

=

(1

M(η)

)1/m

≥ m

Tr[M(η)]

≥ m∫χ1

maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

,

esto es,

effD−MCR(ξ) ≥ m∫χ1

maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

.

Page 100: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

2.4. Diseños Marginal y Condicionalmente Restringidos 83

2

La cota de la eficiencia del Teorema anterior es mayor que la co-ta proporcionada por López-Fidalgo y Garcet-Rodríguez, [Lóp04a],para estos diseños. En efecto,

2 −∫χ1

maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

m

≤ m∫χ1

maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

es decir,

2 mm∫

χ1maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

−(

m∫χ1

maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

)2

≤ m2

⇔ 0 ≤(m− m∫

χ1maxx3

∫χ2d(x1, x2, ξ)η2|13(dx2 | x1, x3)η1(dx1)

)2

.

A-optimización

Sea ΦA[M(ξ)] = Tr[M−1(ξ)],y denotemos x = (x1, x2, x3). Por serΦA diferenciable en M+

R, se verifica que

FΦA[M(ξ),M(x1,x2)] = −[f t(x)(M−1(ξ))2f(x) − TrM−1(ξ)].

Teniendo en cuenta lo anterior enunciamos el teorema de equiva-lencia:

Teorema 2.20. Dada la función ΦA las siguientes proposicionesson equivalentes:

Page 101: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

84 Diseños con variables no controlables

1. ξ∗ es A-óptimo marginal y condicionalmente restringido, ξ∗ ∈Ξ∗R.

2.∫

χ1

supx3∈χ3

χ2

f t(x)(M−1(ξ∗))2f(x) ξ2|13(dx2 | x1, x3) ξ1(dx1)

= ınfξ∈Ξ+

R

χ1

supx3∈χ3

χ2

f t(x)(M−1(ξ))2f(x) ξ2|13(dx2 | x1, x3) ξ1(dx1).

3.∫

χ1

supx3∈χ3

χ2

f t(x)(M−1(ξ∗))2f(x) ξ2|13(dx2 | x1, x3) ξ1(dx1)

= Tr[M−1(ξ∗)].

Algoritmo de construcción de diseños A-óptimos MCR

1. Se establece un diseño inicial ξ(0) ∈ Ξ+R.

2. A partir del diseño ξ(n) ∈ ΞR se calcula el punto x(n)3 (x1) de

χ3 que es aquel donde el máximo

χ2

f t(x)(M−1(ξ(n)))2f(x) ξ2|13(dx2 | x1, x3)

es alcanzado.

3. Se determina el nuevo diseño condicional,

ξ(n+1)3|1 (x3 | x1) = (1 − αn)ξ

(n)3|1 (x3 | x1) + αn1

x(n)3 (x1)

(x3).

4. Se define el nuevo diseño conjunto como

ξ(n+1)(x) = ξ1(x1)ξ2|13(x2 | x1, x3)ξ(n+1)3|1 (x3 | x1).

5. El procedimiento se detiene cuando

1 −∫

χ1

∫χ2

[f t(x1, x2, x(n)3 )(M−1(ξ(n)))2f(x1, x2, x

(n)3 ) − TrM−1(ξ(n))]

ξ2|13(dx2 | x1, x(n)3 ) ξ1(dx1)

Φ[M(ξ(n))]≥ δ,

donde 0 < δ < 1 es una cota inferior para la eficiencia.

Page 102: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 3

Algoritmos

El objetivo de este capítulo consiste en el cálculo de diseños

óptimos cuando algunos factores no están bajo el control del

experimentador mediante el uso de técnicas numéricas. Los

valores de estas variables pueden ser conocidos o desconoci-

dos antes de que el experimento sea llevado a cabo. Se han

considerado distintos criterios para el cálculo de dichos di-

seños.

La principal contribución es proporcionar una clase de al-

goritmos eficientes, que serán probados para encontrar di-

seños óptimos restringidos. El mayor problema que encon-

tramos en la teoría proporcionada en el capítulo anterior es

que los algoritmos sugeridos por los teoremas de equivalencia

suponen un “gran esfuerzo” y lo que es peor una convergen-

cia lenta. En este capítulo proponemos un algoritmo basa-

do en los trabajos de Torsney y Mandal, [Tor01], y Mandal

y Torsney, [Man00] y [Man06]. En ellos, encontramos un

tipo de algoritmos multiplicativos para resolver un problema

de programación matemática. Este tipo de algoritmos serán

usados en nuestro contexto para mejorar la construcción de

diseños óptimos MR y MCR.

Se proporciona una equivalencia entre D− y Ds−optimización

para diseños MR y MCR, facilitando su cálculo.

85

Page 103: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

86 Algoritmos

3.1. Introducción

En el capítulo 1 hemos introducido el por qué de la necesidad dealgoritmos especiales para el cálculo de diseños óptimos. Asimismo,en el capítulo anterior indicábamos que para casos muy particu-lares en los que el conjunto χ, el modelo lineal y la función criterioΦ sean muy simples, es posible proporcionar una solución analíticaal problema de la construcción del diseño óptimo. Técnicas itera-tivas han sido desarrolladas (López-Fidalgo y Garcet-Rodríguez,[Lóp04a]) para proporcionar una serie de diseños que convergen alóptimo.

En este capítulo, se propone una clase de algoritmos multiplicativospara resolver este problema. Estos algoritmos utilizan un tipo deiteración propuesta por Torsney [Tor77]. Un mayor estudio sobreeste tipo de algoritmos lo podemos encontrar en Torsney [Tor83],Torsney y Alahmadi [Tor92], Torsney y Mandal [Tor01] y Mandaly Torsney [Man00].

En la sección 3.2 se hace una introducción de este tipo de algorit-mos. Se presenta el tipo de iteración y sus propiedades.

La sección 3.3 está dedicada a la adaptación de los algoritmos mul-tiplicativos al problema del cálculo de diseños Φ- óptimos marginal-mente restringidos. Se muestra la equivalencia entre diseños D− yDs−óptimos.

En la sección 4.4 hacemos un estudio análogo al de la sección ante-rior pero para diseños marginal y condicionalmente restringidos.

La última sección presenta el cálculo de diseños MR y MCR paraejemplos reales.

3.2. Planteamiento del problema

Como en Mandal y Torsney [Man00], consideremos el siguiente pro-blema:

Page 104: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.2. Planteamiento del problema 87

Minimizar la función criterio Φ(p) sujeto al conjunto de restricciones(3.1)

P ≡{p = (p1, . . . , pJ) : pj ≥ 0,

J∑

j=1

pj = 1}.

Una iteración, propuesta por Torsney [Tor77], que conserva las res-tricciones del problema anterior, es la siguiente:

p(r+1)j =

p(r)j f(d

(r)j )

∑Ji=1 p

(r)i f(d

(r)i )

, (3.2)

donde

d(r)j =

∂Φ

∂pi

∣∣∣∣pi=p

(r)j

,

y f(·) satisface las siguientes condiciones:

1. Es positiva.

2. Es estrictamente creciente.

3. Puede depender de uno o varios parámetros.

Las iteraciones (3.2) poseen las siguientes propiedades (Torsney[Tor88]):

1. p(r) es factible.

2. FΦ{p(r), p(r+1)} ≥ 0. La igualdad se verifica cuando las dj quecorresponden a los pj distintos de cero, tienen el mismo valor,d, es decir, dj =

∑pidi = d, y por tanto

p(r+1)j =

p(r)j f(dj)

∑Ji=1 p

(r)i f(di)

=p

(r)j f(d)

f(d)∑J

i=1 p(r)i

= p(r)j .

Page 105: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

88 Algoritmos

3. El soporte de p(r+1) está incluido en el soporte de p(r).

Otras propiedades interesantes pueden ser consultadas en Silvey,Titterington y Torsney [Sil78] y en Torsney y Mandal [Tor01].

Fedorov [Fed72] y Wynn [Wyn72] proponen un tipo de algoritmosque modifican un pj y cambian los otros proporcionalmente. Estosalgoritmos son útiles cuando muchos de los pj son cero en el óp-timo, como sucede en problemas de diseño. Por otro lado, cuandotodos los pj son positivos en el óptimo o cuando se sabe cuáles sonpositivos, iteraciones restringidas del tipo steepest ascent o New-ton pueden ser apropiadas (véase Wu [Wu78] y Atwood [Atw76] y[Atw80]). Torsney [Tor83], sugirió que la iteración (3.2) podría serútil cuando solamente unos pocos de los pesos del óptimo pudieranser cero.

Anteriormente, mencionamos que f(·) puede depender de uno omás parámetros. Torsney y Alahmadi [Tor92] estudian estas ideas.Titterington [Tit76] demuestra la monotonicidad para f(d) = dpara D−optimización. Torsney [Tor83] estudia monotonicidad devalores particulares de δ. Torsney [Tor83] también establece unacondición suficiente para la monotonicidad para f(d) = dδ, δ = 1

t+1,

cuando la función criterio Φ(ξ) es homogénea de grado −t, t > 0 conderivadas positivas y prueba esta condición en el caso de criterioslineales tales como c− optimización y A− optimización cuando t =1, es decir, δ = 1/2. Cuando δ = 1, se obtiene un algoritmo EM,cuya convergencia es lenta (véase Dempster [Dem77]).

3.3. Construcción de diseños óptimos MR

Consideremos la función de regresión E[y(x)] = ηt(x1, x2)θ, (x1, x2) ∈χ = χ1×χ2, siendo ηt(x1, x2) = (η1(x1, x2), . . . , ηm(x1, x2)) un vec-tor de m funciones continuas linealmente independientes sobre χ,

Page 106: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.3. Construcción de diseños óptimos MR 89

y θ el vector m−dimensional de parámetros desconocidos. Como sedefinió en la sección anterior, ξ∗ es un diseño MR Φ-óptimo si

mınξ∈ΞR

Φ(ξ) = Φ(ξ∗).

Supongamos que χ1 = {x(1)1 , . . . , x

(I)1 } y χ2 = {x(1)

2 , . . . , x(J)2 }. El

diseño aproximado ξ lo podemos escribir como

ξ(x(i)1 , x

(j)2 ) = ξ1(x

(i)1 ) × ξ2|1(x

(j)2 | x(i)

1 ) ≡ ξ1i × ξ2j|1i.

Por tanto, ξ esta caracterizado por el conjunto de pesos marginales,

ξ1 =(ξ1(x

(1)1 ), . . . , ξ1(x

(I)1 ))

= (ξ11, . . . , ξ1I),

y para cada valor x(i)1 , el objetivo será optimizar el conjunto de

diseños condicionales

ξ2|1i =(ξ2|1(x

(1)2 | x(i)

1 ), . . . , ξ2|1(x(J)2 | x(i)

1 ))

= (ξ21|1i, . . . , ξ2J |1i).

Estos pesos, deben satisfacer las condiciones:

ξ1i ≥ 0, i = 1, . . . , Iξ2j|1i ≥ 0, j = 1, . . . , J para cada i = 1, . . . I

yI∑

i=1

ξ1i =J∑

j=1

ξ2j|1i = 1, i = 1, . . . I.

Para cada x(i)1 seleccionamos ξ2|1i de manera óptima. Si θ es el esti-

mador mínimo cuadrático de θ, entonces Σθ ∝M−1(ξ) = M−1(ξ1ξ2|1),siendo

M(ξ) =I∑

i=1

J∑

j=1

ξ1iξ2j|1iη(x(i)1 , x

(j)2 )ηt(x

(i)1 , x

(j)2 )

la matriz de información.

Page 107: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

90 Algoritmos

Podemos generalizar el problema (3.1) para diseños marginalmenterestringidos del siguiente modo:

Minimizar Φ(p1, . . . , pI) sujeto a (3.3)

P ≡ { p = (p1, . . . , pI) : pi = (pi1, . . . , piJ) : pij ≥ 0,∑j pij = 1 para cada i = 1, . . . , I }.

Este problema tiene un conjunto de restricciones sobre pi1, . . . , piJ ;estas variables deben ser no negativas y sumar uno para cada i =1, . . . , I. En este contexto, estas variables pij son los pesos de losdiseños condicionales ξ2j|1i. De modo que la iteración (3.2) resultaahora:

ξ(r+1)2j|1i =

ξ(r)2j|1if(d

(r)2j|1i)∑J

t=1 ξ(r)2t|1if(d

(r)2t|1i)

, (3.4)

donde d2j|1i = ∂Φ/∂ξ2j|1i y f(·) es positiva y estrictamente cre-ciente.

Sea F2j|1i = d2j|1i−∑J

t=1 ξ2t|1id2t|1i. Las condiciones para un mínimolocal son:

F ∗2j|1i

{= 0, para ξ∗2j|1i > 0

≥ 0, para ξ∗2j|1i = 0.(3.5)

3.3.1. Construcción de diseños MR para distin-

tas funciones criterio

En este apartado calculamos los pasos del algoritmo para las fun-ciones criterio más utilizadas.

El cálculo de las derivadas d2j|1i, para las diferentes funciones cri-terio, lo podemos encontrar en el apéndice A.1.

1. Diseños D−óptimos.

Page 108: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.3. Construcción de diseños óptimos MR 91

Consideremos la función, Φ(ξ) = Ψ[M(ξ)] = − log{det{M(ξ)}

}.

Las derivadas son

d2j|1i =∂Φ

∂ξ2j|1i= −ξ1iηt(x(i)

1 , x(j)2 )M−1(ξ)η(x

(i)1 , x

(j)2 ).

Usamos el algoritmo (3.4) y elegimos f(d) = d pues con estaelección el algoritmo es monótono para determinar un diseñoD-óptimo no restringido (Titterington [Tit76]). De este mo-do, esperamos que el algoritmo para el caso restringido, seamonótono para encontrar los diseños condicionales ξ2j|1i.

2. Diseños c−óptimos.

Los diseños c−óptimos, como ya indicábamos en el capítulo1, son adecuados cuando queremos estimar una combinaciónlineal de los parámetros ctθ con mínima varianza. La fun-ción criterio que va a ser minimizada es Φ(ξ) = Ψ[M(ξ)] =ctM−1(ξ)c, cuyas derivadas son:

d2j|1i =∂Φ

∂ξ2j|1i= −ξ1i

[ηt(x

(i)1 , x

(j)2 )M−1(ξ)c

]2.

En este caso, obtenemos los diseños condicionales usando elalgoritmo (3.4) con f(d) = d1/2,

ξ(r+1)2j|1i =

ξ(r)2j|1i(d

(r)2j|1i)

1/2

∑Jt=1 ξ

(r)2t|1i(d

(r)2t|1i)

1/2.

La elección de esta función se debe nuevamente a que parac−óptimos no restringidos el algoritmo es monótono (Torsney[Tor83], y Fellman [Fel74]). Resultados experimentales mues-tran que también será monótona para encontrar diseños óp-timos condicionales.

3. Diseños DA−óptimos

Los diseños DA−óptimos se calculan cuando el interés no estáen todos los parámetros, sino solamente en k combinaciones

Page 109: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

92 Algoritmos

lineales de θ, por ejemplo Aθ, siendo A ∈ Mk×m una matrizde rango k < m. La función criterio es

Φ(ξ) = Ψ[M(ξ)] = log det{AM−1(ξ)At}.Las derivadas son

d2j|1i =∂Φ

∂ξ2j|1i

= −ξ1iηt(x

(i)1 , x

(j)2 )M−1(ξ)At

[AM−1(ξ)M t

]−1AM−1(ξ)η(x

(i)1 , x

(j)2 ).

Una vez mas, la experiencia sugiere considerar la funciónf(d) = d en el algoritmo (3.4) para que sea monótono.

El resultado siguiente revela otra elección. Podemos reem-plazar las derivadas de esta función criterio por las del D−óptimo.

Teorema 3.1. Si E[y(x)] = θt1x1 +θt2x2, entonces el diseñoD−óptimo marginalmente restringido es equivalente al diseñoDθ2−óptimo.

Demostración

Sea M(ξ) la matriz de información. Podemos escribir

M(ξ) = E

[(x1

x2

)(x1, x2

) ]

=

(E[x1x

t1] E[x1x

t2]

E[x2xt1] E[x2x

t2]

)=

(M11 M12

M t12 M22

)

Si θ es el estimador mínimo cuadrático de θ, entonces

Σθ ∝ M−1(ξ) =

(N11 N12

N t12 N22

)

yΣθ2

∝ [M22 −M t12M

−111 M12]

−1 = N22.

De modo que

det{Σθ

}∝ 1

det{M(ξ)} =det{[M22 −M t

12M−111 M12]

−1}

det{M11}

Page 110: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.3. Construcción de diseños óptimos MR 93

=det{N22}det{M11}

∝det{Σθ2

}

det{M11}

Debido a que el diseño marginal ξ1 es conocido, la matriz M11

puede ser considerada como una matriz constante, de modoque el mismo diseño maximiza det Σ y det Σ2.

2

4. Diseños LA−óptimos

Podemos escribir la función criterio como

Φ(ξ) = Ψ[M(ξ)] = tr{AM−1(ξ)At}

siendo A ∈ Mk×m una matriz de rango k < m. En este caso,las derivadas son

d2j|1i =∂Φ

∂ξ2j|1i= −ξ1iη

t(x(i)1 , x

(j)2 )M−1(ξ)AAtM−1(ξ)η(x

(i)1 , x

(j)2 ).

Es de esperar que el algoritmo (3.4) con f(d) = d1/2 seamonótono.

En todos los ejemplos de la siguiente sección consideramos, parainiciar el algoritmo, los diseños condicionales ξ2j|1i uniformes. Conla expresión “usamos el algoritmo 3.4” queremos indicar que se con-sidera la versión apropiada del algoritmo anteriormente indicado.

3.3.2. Ejemplos

Ejemplo 1

Consideremos el modelo lineal E[y(x)] = θ1x1+θ2x2, χ1 = {0, 1, 2},χ2 = {0, 1}, y supongamos que el diseño marginal sigue una dis-tribución binomial ξ1 ≡ Bi(2, 1/5). Como esperábamos, para At =ct = (0, 1), el algoritmo (3.4) converge de manera monótona a las

Page 111: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

94 Algoritmos

siguientes distribuciones para los criterios D−, c−, LA− y DA−óptimos:

ξ∗2|1(· | 0) =

{0 10 1

}, ξ∗2|1(· | 1) =

{0 114

34

}

y

ξ∗2|1(· | 2) =

{0 11 0

}.

Este ejemplo es una ilustración del resultado del Teorema 3.1. Eneste caso c-optimalidad y Dθ2-optimalidad coinciden.

Aunque la monotonicidad no garantiza una convergencia rápida,una buena elección de la función f(d) proporciona diseños óptimosen pocas iteraciones. La Tabla 3.1 muestra que paraD−,DA−, c− yLA− optimización se consigue F2j|1i ≥ -0.1 en una o dos iteraciones.

Criterio n=1 n=2 n=3 n=4D−optimización 1 12 36 57DA−optimización 1 3 3 4c−optimización 2 4 7 11LA−optimización 2 4 7 11

Tabla: 3.1 : Número de iteraciones necesarias para conseguirmın1≤i≤I, 1≤j≤J

{F2j|1i

}≥ −10−n

En el caso continuo, χ2 = [0, 1], consideramos el espacio de diseñoaproximado por una red de 11 puntos equiespaciados en intervalosde amplitud 0.1 entre 0 y 1. Usando el algoritmo (3.4), obtenemoslos mismos diseños condicionales que anteriormente.

Ejemplo 2

Consideremos ahora el modelo de regresión lineal con término in-dependiente E[y(x)] = θ0 + θ1x1 + θ2x2, con x1 ∈ χ1 = {0, 1, 2},x2 ∈ χ2 = {0, 1} y ξ1 ≡ Bi(2, 1/5). Usando nuevamente el algorit-mo (3.4), obtenemos los siguientes diseños condicionales:

Page 112: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.4. Construcción de diseños óptimos MCR 95

ξ∗2|1(· | 0) =

{0 1

0.529 0.471

}, ξ∗2|1(· | 1) =

{0 1

0.384 0.616

}

y

ξ∗2|1(· | 2) =

{0 1

0.964 0.036

}.

En ambos ejemplos se ha comprobado que los diseños obtenidos sonóptimos.

3.4. Construcción de diseños óptimos MCR

Como vimos en el capítulo anterior, en el modelo pueden aparecertres clases de variables independientes. Sea E[y(x)] = ηt(x1, x2, x3)θ,donde x1 ∈ χ1, x2 ∈ χ2, x3 ∈ χ3 yηt(x1, x2, x3) = (η1(x1, x2, x3), . . . , ηm(x1, x2, x3)) con varianza cons-tante. Estas variables pueden ser variables controlables, x3, no con-trolables con valores conocidos antes de que el experimento seallevado a cabo, x1, y no controlables con valores desconocidos, x2.

Como ya definíamos en el capítulo anterior, un diseño ξ∗ diremosque es Φ− óptimo si

mınξ∈ΞR

Φ(ξ) = Φ(ξ∗).

Como en la sección anterior, sea χ = χ1 × χ2 × χ3 con χ1 ={x(1)

1 , . . . , x(I)1 }, χ2 = {x(1)

2 , . . . , x(J)2 } y χ3 = {x(1)

3 , . . . , x(K)3 }. El

diseño aproximado, ξ, lo podemos escribir como

ξ(x(i)1 , x

(j)2 , x

(k)3 ) = ξ1(x

(i)1 ) × ξ2|1,3(x

(j)2 | x(i)

1 , x(k)3 ) × ξ3|1(x

(k)3 | x(i)

1 )

= ξ1i × ξ2j|1i,3k × ξ3k|1i.

El diseño, ξ, queda caracterizado por los diseños marginales:

ξ1 = (ξ1(x(1)1 ), . . . , ξ1(x

(I)1 )) = (ξ11, . . . , ξ1I),

Page 113: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

96 Algoritmos

así, para cada x(i)1 , x

(k)3 , los pesos condicionales son:

ξ2|1i,3k = (ξ2|13(x(1)2 | x(i)

1 , x(k)3 ), . . . , ξ2|13(x

(J)2 | x(i)

1 , x(k)3 ))

= (ξ21|1i,3k, . . . , ξ2J |1i,3k),

y finalmente, los diseños condicionales para cada x(i)1 :

ξ3|1i = (ξ3|1(x(1)3 | x(i)

1 ), . . . , ξ3|1(x(K)3 | x(i)

1 )) = (ξ31|1i, . . . , ξ3K|1i).

Estos diseños satisfacen las siguientes condiciones:

ξ3k|1i ≥ 0, k = 1, . . . , K para cada i = 1, . . . , I,

yK∑

k=1

ξ3k|1i = 1, i = 1, . . . , I.

Como dijimos en el capítulo anterior, los diseños ξ3|1i son los quese realizan en la práctica, por esto, nuestro interés se centra enelegir los diseños ξ3|1i de manera óptima para cada x(i)

1 . La matrizde información de los diseños se puede escribir del siguiente modo

M(ξ) =

I∑

i=1

J∑

j=1

K∑

k=1

ξ1iξ2j|1i,3kξ3k|1iη(x1, x2, x3)ηt(x1, x2, x3).

Una vez más, tenemos un ejemplo del problema (3.3), donde lasvariables pik se corresponden con los pesos de los diseños condi-cionales restringidos ξ3k|1i. De nuevo, podemos utilizar el algoritmomultiplicativo. Adaptándolo a nuestro caso, resulta que la iteraciónes

ξ(r+1)3k|1i =

ξ(r)3k|1if(d

(r)3k|1i)∑J

t=1 ξ(r)3t|1if(d

(r)3t|1i)

, (3.6)

donde d3k|1i = ∂Φ/∂ξ3k|1i y f(·) es positiva y estrictamente cre-ciente.

Sea F3k|1i = d3k|1i−∑J

t=1 ξ3t|1id3t|1i. Las condiciones de primer ordenpara el mínimo local son:

Page 114: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.4. Construcción de diseños óptimos MCR 97

F ∗3k|1i

{= 0, para ξ∗3k|1i > 0

≥ 0, para ξ∗3k|1i = 0.(3.7)

3.4.1. Construcción de diseños óptimos MCR para

distintas funciones criterio

Calculamos ahora las iteraciones para las funciones criterio másutilizadas.

1. Diseños D−óptimos.

Las derivadas son:

d3k|1i =∂Φ

∂ξ3k|1i

= −ξ1iJ∑

j=1

ξ2j|1i,3kηt(x

(i)1 , x

(j)2 , x

(k)3 )M−1(ξ)η(x

(i)1 , x

(j)2 , x

(k)3 ).

La función que utilizamos en el algoritmo (3.6) para este cri-terio es f(d) = d.

2. Diseños c−óptimos.

Las derivadas son:

d3k|1i = −ξ1iJ∑

j=1

ξ2j|1i,3k[ηt(x

(i)1 , x

(j)2 , x

(k)3 )M−1(ξ)c

]2.

De nuevo usamos la función f(d) = d1/2 en las iteracionespara esta función criterio.

3. Diseños DA−óptimos.Las derivadas son:

d3k|1i = −ξ1i

∑Jj=1 ξ2j|1i,3kηt(x

(i)1 , x

(j)2 , x

(k)3 )M−1(ξ)At

[AM−1(ξ)At

]−1

AM−1(ξ)η(x(i)1 , x

(j)2 , x

(k)3 ).

Page 115: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

98 Algoritmos

En el algoritmo (3.6) usamos la función f(d) = d.

El siguiente Teorema se demuestra de manera análoga al Teo-rema 3.1.

Teorema 3.2. Si E[y(x)] = θ1x1 + θ2x2 + θ3x3, entonces eldiseño D−óptimo marginal y condicionalmente restringido esequivalente al diseño D(θ2,θ3)−óptimo marginal y condicional-mente restringido.

4. Diseños LA−óptimos.Las derivadas son:

d3k|1i = −ξ1i

J∑

j=1

ξ2j|1i,3kηt(x(i)1 , x

(j)2 , x

(k)3 )M−1(ξ)AtAM−1(ξ)η(x

(i)1 , x

(j)2 , x

(k)3 ).

Aplicamos el algoritmo (3.6) con f(d) = d1/2 (Torsney [Tor83]).

En todos los ejemplos que proponemos a continuación, los diseñoscondicionales iniciales ξ3k|1i que consideramos son uniformes.

3.4.2. Ejemplos

Sea χ1 = χ2 = χ3 = {0, 1} y E[y(x)] = θ1x1 + θ2x2 + θ3x3. Su-pongamos que los valores de x1 conocidos de antemano, generan eldiseño

ξ1 =

{0 1

1/2 1/2

}.

Además la información a priori que suponemos sobre la variable x2

antes de que el experimento sea llevado a cabo, viene dada por:

ξ2|13(· | 0, 0) =

{0 1

3/4 1/4

}, ξ2|13(· | 1, 0) =

{0 1

2/3 1/3

},

ξ2|13(· | 0, 1) =

{0 1

4/5 1/5

}, ξ2|13(· | 1, 1) =

{0 1

1/2 1/2

}.

Page 116: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.4. Construcción de diseños óptimos MCR 99

Nuestro objetivo consiste en elegir los diseños condicionales ξ3|1(· |x

(i)1 ) de manera óptima. Empezando el algoritmo con todos los pe-

sos iguales, ξ3k|1i = 1/2, y aplicando (3.6) obtenemos de maneramonótona los diseños óptimos condicionales para diferentes fun-ciones criterio como se muestra en la Tabla 4.2.

x1 0 1 Criterioξ∗3|1(1 | x1) 1 0.5435 D−, DA−optimizaciónξ∗3|1(1 | x1) 1 0.5050 c−optimizaciónξ∗3|1(1 | x1) 1 0.6317 LA−optimización

Tabla: 3.2: Diseños óptimos MCR usando un algoritmo multiplicativo

Consideramos

ct = (0, 0, 1) and A =

(0 1 00 0 1

)

para c–, DA– y LA–optimización respectivamente.

De nuevo la convergencia no está asegurada por la monotonicidad,pero en la Tabla 3.3, observamos que F2j|1i ≥ -0.1 (n = 1) con unbajo número de iteraciones, incluso para -0.001, (n = 3).

Criterio n=1 n=2 n=3 n=4D−optimización 3 7 16 25DA−optimización 3 5 8 12c−optimización 7 11 15 19LA−optimización 6 20 54 104

Tabla: 3.3 : Número de iteraciones necesarias para alcanzarmın1≤i≤I, 1≤j≤J

{F2j|1i

}≥ −10−n

Con este ejemplo, confirmamos que el diseño D−óptimo MCR esequivalente a la construcción de diseños D−óptimos cuando los

Page 117: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

100 Algoritmos

parámetros de interés son el de la variable no controlable con valo-res conocidos antes de que el experimento sea llevado a cabo, y elparámetro de la variable controlable. Esto ilustra el Teorema 3.2.

3.5. Diseños óptimos para algunos casosreales

3.5.1. Procedimiento de densificación para la fa-

bricación de combustible nuclear

El elemento combustible nuclear, es un conjunto de barras que con-tienen el uranio fisible unidas en forma de haces de manera quepuedan ser manejadas de forma conjunta.

La estructura o forma de estos haces, está motivada por las fun-ciones que deben cumplir estos elementos en el reactor. La primeraes generar calor y, además, poder transmitirlo al medio líquido re-frigerante, normalmente agua, por ello su geometría ha de ser talque permite un flujo adecuado de ésta, de una manera constante yhomogénea.

Para que se genere el calor, es necesario que se produzcan las reac-ciones nucleares adecuadas, es decir, que neutrones de una determi-nada energía impacten en los núcleos atómicos de uranio 235 (isó-topo fisible del uranio) produciéndose la emisión de energía (calor)y más neutrones. Para que este fenómeno se produzca de una ma-nera controlada, es decir, que no llegue a producirse la reacciónen cadena, es necesario conseguir que el número de neutrones queimpacta sobre los átomos de uranio sea fijo. Para conseguir esto,será necesario eliminar una gran parte de los producidos durante lasreacciones, ello se consigue bien absorbiéndolos con determinadassustancias situadas en las barras de control, o bien haciendo que sepierdan, es decir, que no lleguen a impactar con ningún otro átomode uranio.

Page 118: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.5. Diseños óptimos para algunos casos reales 101

Para obtener lo anterior, se dispone el uranio de acuerdo en unadistribución geométrica muy estudiada y calculada. De ahí se de-duce el diámetro de las barras elementales, su situación espacial ylas características del uranio contenido en el interior de las barras,formando pastillas de un determinado tamaño porosidad y densi-dad. Los poros son creados durante el proceso de calentamiento enla central nuclear. Para este propósito se añaden algunos aditivosa la mezcla inicial. Después de un tiempo en el horno, los aditivosson quemados formando los poros en las pastillas. Las variablesconsideradas son:

1. “Densidad inicial”, x1 cuyos valores van desde 94.9 % a 96.7 %,y el espacio de diseño para esta variable es χ1 = {94.9, 95.0,95.1, 95.2, 95.3, 95.4, 95.5, 95.6, 95.7, 95.8, 95.9, 96.0, 96.1,96.2, 96.3, 96.4, 96.5, 96.6, 96.7}. La Tabla 3.4 muestra ladistribución de frecuencias de esta variable para 392 casos.

2. “Porcentaje de aditivo U3O8”, x2 ∈ χ2 = {0, 10, 20}.

Las propiedades de las variables son: x1 no está sujeta al control delexperimentador, pero sus valores son conocidos de antemano antesque el test sea llevado a cabo, y x2 es una variable bajo el controldel experimentador. La variable respuesta fue considerada como ladensidad final (incremento de la densidad teórica). Existe interésen describir la densidad final como función de la densidad inicial ydel porcentaje de aditivo. El modelo considerado en la práctica esun modelo de regresión cuadrática en las dos variables explicativas,y(x) = θ0 + θ1x1 + θ2x2 + θ12x1x2 + θ11x

21 + θ22x

22 con las hipótesis

usuales de normalidad, homocedasticidad e independencia.

Iniciando el algoritmo (3.4) con los mismos pesos iniciales paralos diseños condicionales, ξ2j|1i = 1/3, obtenemos los diseños de laTabla 3.5. De este modo, para una densidad inicial x1 = 96.1 ningúnaditivo se usará en el 46 % de los casos, un 10 % en el 8 % de loscasos, y un 20 % en el 46 % de los casos. Observamos que los diseñosóptimos condicionales son casi simétricos y con cierto equilibrio

Page 119: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

102 Algoritmos

x1 94.9 95.1 95.2 95.3 95.4 95.5 95.6 95.7 95.8n1 1 3 14 59 52 29 25 32 36

x1 95.9 96.0 96.1 96.2 96.3 96.4 96.5 96.6 96.7n1 29 36 38 12 10 8 2 3 3

Tabla: 3.4: Frecuencias de porcentajes de aditivos U3O8 para los 392casos considerados en el ejemplo

en los puntos medios. Por ejemplo, para x1 =95.9 los pesos soncasi iguales. Pero en general, hay una preferencia por los valoresextremos, como suele ocurrir en la teoría del diseño óptimo. Laeficiencia del diseño usado en la práctica es del 71.5 %. Es decir, conel diseño óptimo se puede ahorrar un 30 % para obtener resultadoscon una precisión similar, o en otras palabras, con el mismo tamañomuestral podrían haberse obtenido mejores resultados con el diseñoóptimo calculado.

De nuevo, se comprobó que el algoritmo era monótono y el númerode iteraciones necesarias para conseguir quemın1≤i≤I, 1≤j≤J

{F2j|1i

}≥ −10−1, −10−2, −10−3 y − 10−4 fueron

2, 4, 12 y 95 respectivamente.

3.5.2. Una prueba física para la predicción de la

morbimortalidad quirúrgica de cáncer de

pulmón

El uso de métodos científicos de investigación en medicina está sien-do cada vez más frecuente. En este ejemplo, consideramos un mode-lo para encontrar diseños experimentales con el objeto de predecir lamorbimortalidad quirúrgica en pacientes con diagnóstico de cáncerde pulmón sometidos a una resección pulmonar, es decir, la ocu-rrencia de complicaciones y/o fallecimiento durante la intervencióno durante los 30 días posteriores a ésta a partir de las características

Page 120: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.5. Diseños óptimos para algunos casos reales 103

x1 ξ1(x1) ξ2|1(0 | x1) ξ2|1(10 | x1) ξ2|1(20 | x1)94.9 0.0026 0,4316 0,1368 0,431695.1 0.0077 0.4457 0.1084 0.445995.2 0.0357 0.4445 0.1110 0.444595.3 0.1505 0.4266 0.1468 0.426695.4 0.1327 0.3742 0.2517 0.374195.5 0.0740 0.2911 0.4178 0.291195.6 0.0638 0.2324 0.5323 0.232395.7 0.0816 0.2246 0.5508 0.224695.8 0.0918 0.2616 0.4768 0.261695.9 0.0740 0.3331 0.3339 0.333096.0 0.0918 0.4105 0.1789 0.410696.1 0.0969 0.4595 0.0810 0.459596.2 0.0306 0.4788 0.0424 0.478896.3 0.0255 0.4834 0.0331 0.483596.4 0.0204 0.4815 0.0370 0.481596.5 0.0051 0.4753 0.0494 0.475396.6 0.0077 0.4661 0.0679 0.466096.7 0.0077 0.4549 0.0902 0.4549

Tabla: 3.5: Diseños óptimo MCR para el procedimiento de densificación

físicas del paciente, del ejercicio físico realizado y de la existencia ono de desaturación de oxígeno en sangre durante la prueba (Varela yotros [Var01]). El ejercicio físico consiste en una prueba en bicicletaestática.

López-Fidalgo y Garcet-Rodríguez [Lóp04a], consideraron las si-guientes variables principales: el “porcentaje de volumen de aireexpirado”, x1 ∈ χ1 = {0, 1} donde cero indica una mala funciónrespiratoria, “disminución o no de saturación de oxígeno en sangrepor debajo del 90 % ”, x2 ∈ χ2 = {0, 1} donde cero indica que ladesaturación no tiene lugar y el “tiempo del ejercicio en minutos”,x3 ∈ χ3 = {6, 12} (tiempos estándares para la realización de laprueba). Las propiedades de estas variables son: x1 es una variable

Page 121: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

104 Algoritmos

no controlable, pero sus valores son conocidos antes de que el ejer-cicio sea realizado, x2 no está bajo el control del experimentador ysus valores son observados durante la prueba, y x3 es una variableque está bajo el control del experimentador.

La variable respuesta fue considerada como binaria, donde 1 indicala presencia de morbimortalidad. El modelo considerado fue el deuna regresión logística, y ∼ Bi

(1, θ(γtx)

), donde

θ(γtx) =1

1 + e−(γ1x1+γ2x2+γ3x3).

Como el modelo es no lineal, los diseños dependen de los paráme-tros, de modo que necesitamos suponer valores nominales para ellos.El tiempo de ejercicio que se ha llevado a cabo, según el protocolo deBruce (Varela y otros [Var01]), ha sido de 12 minutos. Como no hayobservaciones para 6 minutos, realizamos una simulación teniendoen cuenta el experimento y la intuición de los experimentadores, asícomo los datos que ellos tenían hasta el momento. Un análisis deregresión logística sobre los datos simulados nos llevó a las siguien-tes estimaciones para los parámetros: γt = (−1,603, 1,376,−0,276).Estos fueron usados como valores nominales. El conocimiento delos valores de x1 conduce al siguiente diseño

ξ1 =

{0 1

0.2391 0.7609

}.

Esto significa que aproximadamente el 24 % de los pacientes tienenuna baja función pulmonar y el 75 % tienen una función pulmonaralta. Por otro lado, x2 será conocida cuando la prueba sea realiza-da, de modo que el modelo es no lineal, los diseños dependen delos parámetros, de modo que, debemos tomar una decisión sin elconocimiento de esta variable que no se encuentra bajo nuestro con-trol. No obstante, suponemos una información a priori sobre estavariable, x2, condicionada por las otras variables. La experiencia yla intuición de los profesionales proporcionó la siguiente distribu-ción:

Page 122: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.5. Diseños óptimos para algunos casos reales 105

ξ2|13(· | 0, 12) =

{0 1

0.6366 0.3634

}, ξ2|13(· | 1, 12) =

{0 1

0.9143 0.0857

},

que provienen de los datos que los profesionales ya tenían, y

ξ2|13(· | 0, 6) =

{0 1

0.7455 0.2545

}, ξ2|13(· | 1, 6) =

{0 1

0.6714 0.3286

},

que se fijan a partir de la intuición y experiencia del equipo médico.

Iniciando el algoritmo (3.6) con los mismos pesos iniciales, ξ3k|1i =12, obtenemos los diseños que aparecen en la Tabla 3.6. Considera-

mos ct1 = (1, 0, 0), ct2 = (0, 1, 0) y A =

(1 0 00 1 0

). Estas elec-

ciones se centran en el estudio de los dos primeros parámetros. Nohay que olvidar que el tiempo del ejercicio se incluye en el modelopara eliminar su influencia, pues la desaturación depende del tiempodel ejercicio. El diseño usado en la práctica tiene una baja eficien-cia. Por ejemplo, desde el punto de vista de los diseños D−óptimos,con el diseño óptimo que hemos calculado, solamente el 60.8 % delos pacientes serían necesarios para conseguir la misma precisiónen las estimaciones. Además, los diseños que se proponen indicanla realización del ejercicio para un menor tiempo en la mayoría delos casos, de modo que a los pacientes se les molesta menos con elejercicio.

x1 0 1 Criterio Eficiencias ( %)ξ∗3|1(12 | x1) 0.888 0 MCR D−optimización 60.8ξ∗3|1(12 | x1) 0.364 0 MCR DA−optimización 45.1ξ∗3|1(12 | x1) 0.065 0 MCR LA−optimización 47.6ξ∗3|1(12 | x1) 0.447 0 MCR c1−optimización 25.8ξ∗3|1(12 | x1) 0 0 MCR c2−optimización 71.8

Tabla: 3.6: Diseños óptimos MCR y eficiencias de los diseños usados enla práctica

Page 123: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

106 Algoritmos

La Tabla 3.7 muestra la velocidad de convergencia del algoritmo eneste ejemplo. Cabe destacar que para DA–optimización el algoritmoes más rápido que para otros criterios.

Criteria n=1 n=2 n=3 n=4D−optimización 4 22 63 123DA−optimización 3 9 25 41LA−optimización 18 53 102 141c1−optimización 19 46 73 100c2−optimización 72 200 418 708

Tabla: 3.7 : Número de iteraciones necesarias para quemın1≤i≤I, 1≤j≤J

{F2j|1i

}≥ −10−n

3.6. Conclusiones

En este capítulo, hemos desarrollado una serie de algoritmos cuya fi-nalidad ha sido el cálculo de diseños óptimos marginalmente restrin-gidos y marginal y condicionalmente restringidos. Mediante estosalgoritmos, hemos sido capaces de resolver algunos problemas realescomo el problema de densificación y el problema de la predicciónde la morbimortalidad quirúrgica en pacientes con cáncer de pul-món. En muchos ejemplos reales, nos encontramos con estos tiposde variables.

Las aplicaciones en la industria química, así como en otros cam-pos están muy extendidas. Otro problema de este tipo aparece fre-cuentemente en el control de calidad para la materia prima prove-niente de diversos proveedores y finalmente usada en un caro proce-so de producción. Buenos diseños experimentales deberían ser pro-porcionados para predecir de manera eficiente los defectos usandouna estandarización del test de la materia prima.

Page 124: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

3.6. Conclusiones 107

El tipo de materia prima, el resultado del test o la severidad deltest son variables típicas que aparecen en esta clase de problemas.Aunque la primera variable no está bajo control, sus valores sonconocidos antes de la realización del test. La segunda variable noestá bajo el control del experimentador y sus valores son solamenteobservados después de que el test sea llevado a cabo. Finalmente, latercera variable puede suponerse como una variable completamentebajo el control del experimentador.

La variable respuesta la podemos considerar como una variable bi-naria donde la respuesta es ser desechada o no. Podemos considerarel modelo de regresión logística de una forma análoga al ejemplo dela prueba de esfuerzo.

Otro posible problema de este tipo podría ser el siguiente: La fragili-dad del hormigón puede ser probada en el laboratorio usando trestamaños distintos de ensayo. Además hay dos tipos de hormigón(pesado y ligero, medidos en Pascales). Después del test, el hormigónnecesita pasar con éxito un proceso de control de calidad antes deser aprobado para su uso en la construcción.

La variable respuesta es binaria, el hormigón es o no aceptado parala construcción. Tres clases de variables son consideradas como enel ejemplo de arriba. Por una parte el tipo de de hormigón. Estavariable no está bajo el control del experimentador y sus valoresson conocidos de antemano. El resultado del test en el laboratorio,no esta bajo control y sus valores solamente son observados despuésde que el test sea realizado. El tamaño de la probeta de ensayo yel tiempo del test están bajo el control del experimentador. Estointroduce el caso de dos variables bajo control, reflejando un nuevogrado de dificultad que podrá ser considerado en un futuro trabajo.

Estudios computacionales muestran una rápida convergencia de losalgoritmos propuestos, pero cerca del óptimo, la tasa de conver-gencia disminuye considerablemente (ver Tablas 3.1, 3.3, 3.7 y lasección final de 3.5.1).

Finalmente, merece la pena destacar que los Teoremas 3.1 y 3.2muestran la equivalencia entre diseños D−óptimos MR o MCR y

Page 125: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

108 Algoritmos

los diseños Ds–óptimos. Podemos ver en el Ejemplo 1 de la sección3.3.2 que los diseños c−óptimos y Dθ2−óptimos son los mismos,ratificando de este modo el Teorema 3.1. Análogamente el Teore-ma 3.2 queda ilustrado por el ejemplo de la sección 3.4.2 dondeel diseño D−óptimo MCR para todos los parámetros, es tambiénel D−óptimo MCR cuando los parámetros de interés son los de lavariable no controlable con valores desconocidos y el parámetro dela variable controlable.

Aunque la monotonicidad no garantiza la rapidez de convergencia,una elección apropiada de la función f(d) proporciona diseños casióptimos en pocas iteraciones. Esto lo podemos observar en la Tabla3.1 donde vemos que para diseños D−, DA−, c− y LA−óptimosF2j|1i ≥-0.1 se obtiene en una o dos iteraciones.

Page 126: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 4

D-Óptimos Secuenciales MR

Los objetivos de este capítulo son: En primer lugar resolver

el problema de obtener diseños aproximados D− óptimos

marginalmente restringidos cuando el diseño marginal sigue

una distribución discreta y/o continua. En segundo lugar,

proponer algoritmos para el cálculo de diseños cuando las

observaciones van apareciendo a lo largo del estudio.

Las principales contribuciones son: En el apartado 4.2 se

presenta mediante un ejemplo el modo de calcular el D− óp-

timo MR cuando el diseño marginal, ξ1 se distribuye como

una distribución discreta, en particular, como la binomial.

En el apartado 4.3 proponemos dos técnicas para calcular

D−óptimos MR suponiendo, en este caso, que el diseño mar-

ginal se distribuye como una distribución continua. La primera

de ellas consiste en la discretización de esta distribución, y

la segunda en la modelización, mediante una familia de fun-

ciones, de los diseños que se llevan a cabo en la práctica.

En el apartado 4.4 presentamos un algoritmo secuencial,

basado en el que encontramos en Fedorov [Fed72].

109

Page 127: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

110 D-Óptimos Secuenciales MR

4.1. Introducción

En muchas situaciones experimentales algunas variables explicati-vas no están bajo el control del experimentador, como hemos co-mentado en los capítulos anteriores. Bajo este marco, diferentesaproximaciones pueden usarse cuando las observaciones llegan demanera secuencial. El objetivo principal es diseñar de manera óp-tima los experimentos cuando una nueva unidad experimental conun valor particular para x1 aparece. Se consideran dos formas paradiseñar:

1. Suponer una distribución particular para la variable x1, porejemplo una distribución Normal o una distribución Binomial.

2. Diseñar de manera óptima para un primer conjunto de ob-servaciones y después optimizar el diseño cada vez que unanueva unidad experimental aparezca.

Este es un problema no resuelto en la literatura. En este capítulotratamos de dar una aproximación a la solución de este problema.

Por último, ocurre que en muchos experimentos, debido al tiempode duración de los mismos, podemos obtener información adicionala la que teníamos cuando comenzamos. Esta información puede lle-gar de distintas fuentes. Lógicamente, no tiene sentido construir undiseño sin incluir esta nueva información, como tampoco tendríasentido empezar nuestra investigación cada vez que obtuviéramosuna nueva información para nuestro diseño. En estos casos se usanlos llamados diseños secuenciales que determinan nuevos diseñosusando la información de las etapas previas. Para nuestro obje-to de estudio, los diseños marginalmente restringidos, proponemosun algoritmo secuencial que comienza con un diseño marginal, ynuevas observaciones van apareciendo. Se supone que estas siguenuna distribución de probabilidad, de modo que cuando aparece unanueva observación, el diseño marginal cambia y calculamos el mejordiseño D−óptimo MR para este diseño marginal.

Page 128: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.2. D-óptimos MR con distribución marginal discreta 111

4.2. D-óptimos MR con distribución mar-ginal discreta

Consideremos el modelo de regresión a través del origen,

y(x) = β1x1 + β2x2 + ε,

donde x1 ∈ χ1 = {0, 1, 2} y x2 ∈ χ2 = {0, 1}, y supongamos que eldiseño marginal se distribuye como una binomial ξ1 ≡ Bi(2, θ), esdecir,

ξ1(x1) =

(2x1

)θx1(1 − θ)2−x1 , x1 = 0, 1, 2.

Los diseños que se llevan a cabo en la práctica, y por tanto, los quetenemos que calcular son los condicionales:

ξ2|1(· | x1) =

{0 1

1 − p(x1) p(x1)

}.

Sea θ = 1/5. Maximizando el determinante de la matriz de infor-mación, M(ξ) =

x1

x2

f(x1, x2)ft(x1, x2)ξ1(x1)ξ2|1(· | x1), obte-

nemos:p(0) = 1, p(1) =

3

4y p(2) = 0.

De modo que el diseño conjunto es:

ξ∗ =

{(0, 1) (1, 0) (1, 1) (2, 0)

1625

225

625

125

}.

Añadiendo un término constante al modelo de regresión lineal,

E[y(x)] = β0 + β1x1 + β2x2,

los diseños óptimos condicionales son

p(0) =7

16, p(1) = 1 and p(2) = 0,

obteniendo el diseño conjunto:

ξ∗ =

{(0, 0) (0, 1) (1, 1) (2, 0)

925

725

825

125

}.

Page 129: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

112 D-Óptimos Secuenciales MR

4.3. D-óptimos MR con distribución mar-ginal continua

Bajo las mismas condiciones que en la sección anterior, conside-remos que el espacio de diseño de la variable no controlable esχ1 = [0, 1] y que el diseño marginal ξ1 ≡ Beta(α, β), es decir,

ξ1(x1) =Γ(α + β)

Γ(α)Γ(β)xα−1

1 (1 − x1)β−1.

Los diseños que se llevan a cabo en la práctica, y por tanto en losque estamos interesados, son los diseños condicionales ξ2|1(·|x1).

Bajo las condiciones anteriores, la matriz de información viene dadapor:

M(ξ) =Γ(α + β)

Γ(α)Γ(β)

∫ 1

0

(xα+1

1 (1 − x1)β−1 xα1 (1 − x1)

β−1p(x1)xα1 (1 − x1)

β−1p(x1) xα−11 (1 − x1)

β−1p(x1)

)dx1.

Debemos obtener la función p(x1) de modo que el determinante dedicha matriz sea máximo. Este problema no es sencillo debido aque la única restricción sobre la función p(x1) es que debe estarcomprendida entre 0 y 1. Se proponen dos soluciones para esteproblema.

4.3.1. Discretización de la distribución de proba-

bilidad del diseño marginal

La distribución de probabilidad continua será aproximada por unadistribución discreta con soporte finito. Dividiendo el espacio de di-seño χ1 = [a, b] en l partes de la misma probabilidad, consideramosuna distribución marginal discreta. Sean {z1, . . . , zl−1} los corres-pondientes cuantiles, es decir, F (zi) = i

l. Los puntos del soporte

del diseño marginal, serán los puntos medios de cada intervalo de

Page 130: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.3. D-óptimos MR con distribución marginal continua 113

acuerdo a la distribución continua de origen. Se incluirán ademáslos puntos extremos, pues como es conocido, el diseño óptimo confrecuencia recurre a ellos. Además serán necesarios para la interpo-lación que se hará posterioremente con el diseño óptimo obtenido:

t0 = a,

ti =∫ zi

zi−1

teξ1(t)F (zi)−F (zi−1)

dt = l∫ zi

zi−1tξ1(t), i = 1, . . . , l,

tl+1 = b,

donde ξ1(t) es la función de densidad, F es la función de distribuciónde ξ1, z0 = a y zl = b. Entonces tendremos el diseño marginaldiscreto siguiente:

ξ(l)1 =

{t0 t1 . . . tl+11l+2

1l+2

. . . 1l+2

},

y con este, calculamos los diseños óptimos condicionales como sehizo en la sección anterior:

ξ(l)2|1(·|ti), i = 0, . . . , l + 1.

Si se obtiene una nueva observación, x1 ∈ χ1, se puede calcularξ2|1(·|x1) utilizando interpolación lineal como sigue:

ξ2|1(·|x1) = ξ(l)2|1(·|ti) +

ξ(l)2|1(·|ti+1) − ξ

(l)2|1(·|ti)

ti+1 − ti(x1 − ti) ,

i = 0, . . . , l + 1, x1 ∈ [ti, ti+1]es decir,

p(x) = p(ti) +p(ti+1) − p(ti)

ti+1 − ti(x− ti), i = 0, . . . l.

Ahora, necesitamos una cota inferior de la eficiencia. Usamos lacota proporcionada por López–Fidalgo y Garcet–Rodríguez (2004):

1 +

∫χ1

ınfx2∈χ2 ∂Φ[M(ξ(D)),M(x1,x2)]ξ1(dx1)

Φ[M(ξ(D))].

Page 131: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

114 D-Óptimos Secuenciales MR

En el caso de D−optimización, en el capítulo 2 vimos que la cotaanterior la podíamos escribir del siguiente modo:

EffMRD(ξ) ≥ 2 − 1

2

∫ 1

0

maxx2∈{0,1}

f t(x)M−1(ξ(D))f(x)ξ1(dx1). (4.1)

Ejemplo

Supóngase que ξ1 sigue una distribución beta, con parámetros (1, 2).Si el intervalo [0, 1] se divide en l partes, entonces:

zi = 1 −√l − i

l, i = 0, 1, . . . , l,

t0 = 0,

ti = 2 l

[z2i −z

2i−1

2+

z3i−1−z3i

3

]i = 1, . . . , l,

tl+1 = 1.

Notemos pi = ξ(l)2|1(1 | ti), i = 0, . . . , l+1. Por tanto, el determinante

de la matriz de información para el diseño discretizado es

ID(ξ(l)) = detM(ξ(l)) =1

(l + 2)2

[(1+

l∑

r=1

t2r

)( l+1∑

r=0

pr

)−( l+1∑

r=1

prtr

)2],

que es una función creciente en p0, de modo que el valor óptimolo alcanzará para p∗0 = 1. Por otro lado, las derivadas respecto api, i = 1, . . . , l + 1 son

∂ID(ξ(l))

∂pi=

1

(l + 2)2

[(1+

l∑

r=1

t2r

)−2ti

( l+1∑

r=1

prtr

)]i = 1, . . . , l+1.

Sólo una de estas derivadas puede ser cero. El resto, tienen que sersiempre positivas o negativas, de modo que p∗i = 0 o 1, quizás conla excepción de algunos valores p∗i0 . Este valor viene dado por

p∗i0 =

∑l+1r=0,r 6=i0

t2r − ti0∑i0−1

r=1 tr

ti0. (4.2)

Page 132: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.3. D-óptimos MR con distribución marginal continua 115

Como ti < ti+1, si la derivada es negativa para i también lo es parala sucesiva i + 1. Por tanto, hay tres casos posibles para los pesosdel diseño óptimo,

1. Si todas las derivadas son positivas entonces el diseño óptimotiene los siguientes pesos {1, 1, . . . , 1}.

2. Si una de las derivadas se anula, entonces el diseño óptimotiene pesos {1, . . . , 1, pi0, 0, . . . , 0}.

3. Si todas las derivadas son negativas, entonces el diseño óptimotiene pesos {1, 0, . . . , 0}.

Para determinar cuál de los tres casos anteriores es el óptimo, pode-mos usar el siguiente procedimiento,

1. Calcular ID(ξ(l)) para todas las posibilidades {1, . . . , 1, 0, . . . , 0}.

2. Elegir el máximo de ellos. Sea i0 el subíndice para el último1.

3. Calcular pi0 y pi0+1 con la fórmula (4.2).

4. Calcular ID(ξ(l)) para {1, . . . , 1, pi0, 0, . . . , 0} y{1, . . . , 1, pi0+1, 0, . . . , 0}.

Después de la interpolación y usando la distribución Beta, la matrizde información para el diseño final es:

M(ξ) = 2

(1/12

∑li=0

∫ ti+1

tip(D)(x1)x1(1 − x1)dx1∑l

i=0

∫ ti+1

tip(D)(x1)x1(1 − x1)dx1

∑li=0

∫ ti+1

tip(D)(x1)(1 − x1)dx1

).

Dividamos el intervalo [0, 1] en dos partes equiprobables, z0 =0, z1 = 0.29 y z2 = 1, de modo que los puntos del soporte del diseñomarginal son: t0 = 0, t1= 0.13, t2 = 0.52 y t3 = 1, y consideremosun diseño marginal con los mismos pesos,

Page 133: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

116 D-Óptimos Secuenciales MR

ξ1 =

{0 0.13 0.52 114

14

14

14

}.

Bajo las condiciones anteriores, los diseños condicionales, pi = ξ2|1(1|ti),pueden ser calculados como en la sección anterior (véase Tabla 4.1).Aplicando (4.1) a este caso, tenemos la cota inferior para la eficien-cia mostrada en la Tabla 4.1.

Repetimos el proceso para l = 3, 4, 8 y 10. En la Tabla 4.1 se pre-sentan los diseños óptimos condicionales y las eficiencias obtenidospara cada discretización.

Page 134: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.3

.D

-óptim

os

MR

con

dis

trib

ució

nm

argin

al

contin

ua

117

l i 1 2 3 4 5 6 7 8 9 10 Cota Eff2 ti 0.13 0.52

pi 1 1 72.68 89.723 ti 0.086 0.29 0.62

pi 1 1 1 60.32 86.104 ti 0.065 0.21 0.39 0.67

pi 1 1 1 1 53.49 84.258 ti 0.032 0.099 0.17 0.25 0.34 0.44 0.57 0.76

pi 1 1 1 1 1 1 1 0 77.00 91.4310 ti 0.025 0.078 0.13 0.19 0.25 0.33 0.41 0.50 0.61 0.79

pi 1 1 1 1 1 1 1 1 0.396 0 86.36 93.33

Tabla: 4.1: Diseños óptimos condicionales, cotas para las eficiencias y eficiencias exactasen porcentajes para el ejemplo (t0 = 0, p0 = 1, tl+1 = 1, pl+1 = 0 en todos los casos)

Page 135: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

118 D-Óptimos Secuenciales MR

Después de los pasos anteriores, podemos ver que un diseño de laforma

p(x1) =

{1, si x1 ≤ z0, si x1 > z

puede llevar al diseño óptimo. De modo que,

det{M(ξ)} = 4

(z

12− z2

24− z4

4− z6

9+z5

3

)

y el máximo se alcanza en z = 0.5 .

La eficiencia de este diseño resulta ser 1, por tanto, hemos encontra-do un diseño óptimo. De este modo, podemos calcular las eficienciasexactas para los diseños calculados anteriormente (ver Tabla 4.1).

4.3.2. Modelización de p(x1) por una familia paramétri-

ca de funciones

Supóngase que p(x1) pertenece a una familia de polinomios,

p(x1) = b0 + b1x1 + . . .+ bkxk1,

donde b0, . . . , bk han de asegurar que p(x1) ∈ [0, 1] para todos lospuntos de diseño, x1 ∈ χ1. Se calcula la matriz de información y semaximiza el determinante del modo habitual.

Consideremos de nuevo el modelo de regresión lineal

E[y(x)] = β1x1 + β2x2,

y supongamos en particular que p(x1) = γ + (δ − γ)x1 con 0 ≤γ, δ ≤ 1. Maximizando el determinante de la matriz de informaciónse obtiene γ = 1 y δ = 0, de modo que

p(x1) = 1 − x1.

La cota inferior para la eficiencia es entonces:

2 − 1

m

χ1

maxx2∈χ2

f t(x)M−1(ξ)f(x)ξ1(dx1) =

Page 136: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.4. Construcción Secuencial de diseños D-óptimos MR 119

= 2 − 1

2

∫ 1

0

maxx2∈χ2

(x1 x2)

(8 −2−2 2

)(x1

x2

)Γ(3)

Γ(1)Γ(2)(1 − x1)dx1 = 0.916.

Modelizando p(x1) por un polinomio de orden 2, p(x1) = b0 +b1x1 + b2x

21, y maximizando el determinante de M(ξ), obtenemos

que p(x1) = 1 − 38x1 − 5

8x2

1, y la cota inferior para la eficiencia es0.905.

Las cotas obtenidas con este diseño mediante este procedimientoson bastante buenas, sin embargo, en otros casos podría ser másdifícil obtener cotas tan altas. Así, considerando el modelo

E[y(x)] = β0 + β1x1 + β2x2,

la matriz de información en este caso será:

M(ξ) = Γ(α+β)Γ(α)Γ(β)

∫ 1

0

xα−11 (1 − x1)

β−1 xα1 (1 − x1)

β−1 xα−11 (1 − x1)

β−1p(x1)xα

1 (1 − x1)β−1 xα+1

1 (1 − x1)β−1 xα

1 (1 − x1)β−1p(x1)

xα−11 (1 − x1)

β−1p(x1) xα1 (1 − x1)

β−1p(x1) xα−11 (1 − x1)

β−1p(x1)

dx1.

y suponiendo que p(x1) = γ + (δ − γ)x1, obtenemos una cota infe-rior para la eficiencia de 0.5. La misma cota se obtuvo cuando seconsideró p(x1) = b0 + b1x1 + b2x

22.

4.4. Construcción Secuencial de diseñosD-óptimos MR

Se establece un diseño inicial, ξ(0)1 . A partir de este, se procede a

calcular el D−óptimo MR, ξ(0)MR.

Supongamos que se obtiene una nueva observación x(1)1 , por ejem-

plo un nuevo paciente que se suma al estudio. Por tanto, ξ(0)1 se

Page 137: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

120 D-Óptimos Secuenciales MR

convertiría en un nuevo diseño marginal ξ(1)1 . Para este “nuevo” di-

seño marginal, podemos calcular el diseño D−óptimo restringidoξ

(1)MR. Este diseño no tiene por qué basarse en el diseño anteriorξ

(0)MR. Calcularemos un diseño óptimo que conserve el diseño ξ(0)

MR, yelegimos el punto x(1)

2 , maximizando el determinante de la matrizde información, del siguiente modo (véase Fedorov [Fed72]):

x(1)2 = arg max

x2

d(x(1)1 , x2, ξ

(0)MR).

Lo anterior equivale a maximizar el determinante de la matriz deinformación.

Añadiendo el punto (x(1)1 , x

(1)2 ) se obtiene un nuevo diseño ξ(1). Con-

tinuando con este proceso, obtenemos un procedimiento secuencialpara diseñar el experimento en pasos sucesivos. Al mismo tiempo,de cada diseño marginal ξ(N)

1 , podemos calcular el diseño MR D-óptimo ξ

(N)MR. Este diseño no ha sido aplicado, pues el diseño que

se ha usado ha sido ξ(N−1), y estos no deben ser necesariamenteconsecuentes uno con otro. Esta situación se ilustra en la Figura4.1.

Lo ideal sería que ambos diseños fueran iguales, al menos de maneraasintótica. No obstante, no hay garantía de este resultado en gene-ral. Hablar de convergencia de este procedimiento no tiene sentido,estrictamente hablando, puesto que el diseño obtenido en cada pasoN , es el mejor para el diseño conjunto que se tiene en ese momentocomo resultado de incluir el nuevo punto x(N)

1 que acaba de apareceren el estudio. Sin embargo, se puede plantear la cuestión de cuálesson las condiciones bajo las que ξMR = ξ, (Figura 4.1), suponiendoque la secuencia de diseños marginales ξ(N)

1 converge a ξ1.

4.4.1. Un ejemplo real

Proponemos una modificación del ejemplo propuesto por Varelay otros [Var01], en el que un test de ejercicio podría ayudar enla evaluación del riesgo preoperativo en la cirugía de pulmón. La

Page 138: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.4. Construcción Secuencial de diseños D-óptimos MR 121

ξ(0)1

- ξ(0)MR

?

x(1)1

ZZ

ZZ

ZZZ~

XXXXXXXXXXXXXXXzξ

(1)1

- ξ(1)MR ξ(1)

?

x(2)1

?...

...

?

x(N)1

?

XXXXXXXXXXXXXXXzξ

(N)1

- ξ(N)MR ξ(N)

?

x(N+1)1

?

XXXXXXXXXXXXXXzξ

(N+1)1

- ξ(N+1)MR ξ(N+1)

?N → ∞

?N → ∞

ξ1 - ξMR ξ

Figura 4.1 : Construcción de diseños secuenciales

principales variables consideradas en este estudio son el “porcentajede máximo volumen expirado por el paciente” (x1) y el “tiempo deejercicio en minutos” (x2). La variable x2 está completamente bajoel control del experimentador, en el sentido de que el tiempo deejercicio para cada paciente podría ser determinado mediante esteprocedimiento. La variable x1 no está sujeta bajo control, pero susvalores son conocidos antes de realizar la prueba de ejercicio.

Llevaremos a cabo el experimento y obtenemos los resultados paraun grupo de pacientes. Supongamos ahora que nuevos pacientesacuden de manera secuencial. Para cada nuevo paciente, el “por-centaje de máximo volumen de aire expirado” podría ser medido.

Page 139: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

122 D-Óptimos Secuenciales MR

Ahora se necesitará tomar una decisión sobre el “tiempo de ejerci-cio” que debería ser seleccionado para este “nuevo” paciente especí-fico con el objeto de optimizar el diseño.

Un ejemplo simple ilustrará este procedimiento. Una vez mas, con-sideramos el modelo lineal:

E[y(x)

]= γ1x1 + γ2x2, χ1 = {0, 1} χ2 = {0, 1}.

Supongamos que en el paso N el diseño marginal es:

ξ(N)1 =

{0 1µn

n−µn

},

de modo que los diseños condicionales serán:

ξ(N)2|1 (·|0) =

{0 1µ−sµ

}, ξ

(N)2|1 (·|1) =

{0 1

n−µ−tn−µ

tn−µ

},

con n, µ, s, t ∈ Z .

Se construyen diseños óptimos secuenciales de acuerdo a los diseñosmarginales que se van obteniendo. Dependiendo del valor de x1,tendremos dos posibilidades para cada caso.

Se puede resumir el algoritmo de obtención de diseños óptimos MRsecuenciales como sigue:

1. Sea ξ(0)1 el diseño marginal inicial.

2. Calculamos ξ(0)MR bajo la restricción del diseño marginal ξ(0)

1 .

3. En el paso N + 1 se dan dos posibilidades para el nuevo pa-ciente que acude al hospital,

a) Si x(N+1)1 = 1, entonces

x(N+1)2 =

1 si ξ(N)2|1 (1 | 1) < 1

2

0 si ξ(N)2|1 (1 | 1) > 1

2

se aleatorizará {0, 1} si ξ(N)2|1 (1 | 1) = 1

2

Page 140: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.4. Construcción Secuencial de diseños D-óptimos MR 123

b) Si x(N+1)1 = 0, entonces

x(N+1)2 =

{1 si ξ(N)

1 (1) > 0

se aleatorizará {0, 1} si ξ(N)1 (1) = 0

Apliquemos el algoritmo al ejemplo para clarificar estas ideas. Seael diseño marginal inicial siguiente:

ξ(0)1 =

{0 112

12

}.

Después de algunos cálculos se obtiene el diseño óptimo MR:

ξ(0)MR =

{(0, 0) (0, 1) (1, 0) (1, 1)

0 12

0 12

}.

Supongamos que por estudios retrospectivos se sabe que a largoplazo el diseño marginal tiende a seguir una distribución binomialde parámetros n = 1 y θ = 1/5. Simulamos 8 observaciones parax1, por ejemplo, lanzando una moneda:

x1 = 0, 0, 0, 1, 0, 0, 0, 0.

Aplicando el algoritmo, obtenemos los resultados dados en la Tabla4.2. Se alcanza una eficiencia del 100% a partir del cuarto paciente,observando una convergencia rápida en este caso.

Page 141: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

124 D-Óptimos Secuenciales MR

N ξ(N)1 ξ

(N)MR ξ(1) Eff

1 2/3, 1/3 0, 2/3,1/6, 1/6 0, 2/3, 0, 1/3 88,8 %2 3/4, 1/4 0, 3/4, 1/8,1/8 0, 3/4, 0, 1/4 93,6 %3 4/5, 1/5 0, 4/5, 1/10, 1/10 0, 4/5, 0, 1/5 94,1 %4 4/6, 2/6 0, 4/6, 1/6,1/6 0, 4/6, 1/6, 1/6 100 %5 5/7, 2/7 0, 5/7, 1/7, 1/7 0, 5/7, 1/7, 1/7 100 %6 6/8, 2/8 0, 6/8, 1/8, 1/8 0, 6/8, 1/8, 1/8 100 %7 7/9, 2/9 0, 7/9, 1/9, 1/9 0, 7/9, 1/9, 1/9 100 %8 8/10, 2/10 0, 8/10, 1/10, 1/10 0, 8/10, 1/10, 1/10 100 %

Tabla: 4.2: Pesos del diseño secuencial en los puntos {0, 1} en la primeracolumna, y en los puntos {(0, 0), (0, 1), (1, 0), (1, 1)} para las segunda ytercera columnas. La última columna muestra las eficiencias del diseñosecuencial respecto del correspondiente D−óptimo MR.

4.5. Conclusiones

En este capítulo se han proporcionado diseños D-óptimos cuandouno de los factores no puede estar bajo el control del experimenta-dor, pero sus valores son conocidos antes de que el experimento seallevado a cabo, y otro factor está bajo el control del experimenta-dor. Los resultados de las secciones 4.2 y 4.3 pueden ser fácilmentegeneralizados cuando una nueva variable no controlable se observadurante el ejercicio.

El algoritmo secuencial propuesto fue motivado por el ejemplo queaparece en López-Fidalgo y Garcet-Rodríguez, [Lóp04a]. Ellos pro-porcionaron un diseño óptimo para predecir la morbimortalidadquirúrgica después de una resección pulmonar. Las principales va-riables consideradas fueron el “porcentaje de máximo volumen ex-pirado por el paciente”, “la desaturación de oxígeno durante la prue-ba” y el “tiempo de ejercicio en minutos”. Nosotros consideramos unproblema más simplificado teniendo en cuenta solamente la primeray tercera variables. Suponiendo que hemos calculado nuestro dise-ño, pero que un nuevo paciente llega, el diseño marginal cambia.Nuestro objetivo consiste en asignar un tiempo de ejercicio de for-

Page 142: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

4.5. Conclusiones 125

ma que el diseño conjunto sea óptimo. Los diseños secuenciales seconstruyen de tal modo que toda la información que se tiene enlas etapas previas, es usada para sugerir cómo calcular la siguienteiteración.

Page 143: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …
Page 144: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 5

D–óptimos MR conobservaciones correladas

El objetivo de este capítulo consiste en estudiar los diseños

para modelos en los que aparecen variables explicativas no

controlables, y a su vez que las respuestas puedan ser co-

rreladas. Además trataremos de comprobar que no sólo las

distintas estructuras de covarianza afectan al cálculo de los

diseños, sino también los parámetros que sean considerados

de interés.

Las principales contribuciones de este capítulo son: En el

apartado 5.3 se hace un estudio original sobre las funciones

de correlación triangular, obteniendo las restricciones sobre

el parámetro de modo que la matriz de covarianzas esté bi-

en definida. En el apartado 5.4 proporcionamos el cálculo

de distintos diseños marginalmente restringidos con distin-

tas estructuras de covarianza. En los apartados 5.5, 5.6 y

5.7 planteamos y resolvemos problemas reales, dentro de este

marco de diseños restringidos con observaciones correladas,

adaptando un algoritmo iterativo para resolver dichos proble-

mas. Finalmente, en el apartado 5.8 presentamos un análisis

de sensibilidad, analizando las “consecuencias” de considerar

distintas funciones de covarianza de las verdaderas y/o va-

127

Page 145: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

128 D–óptimos MR con observaciones correladas

lores de los parámetros erróneos.

5.1. Introducción

La gran mayoría de los trabajos de diseño óptimo suponen que loserrores son independientes y que es posible realizar réplicas. Es-tos resultados muestran que en vez de calcular un diseño exacto,podemos usar la llamada medida de diseño, que es proporcionalal número de réplicas independientes. La información obtenida delexperimento se expresa mediante la matriz de información, que co-mo hemos visto en el capítulo 1, es una función de la medida dediseño. Sin embargo, hay muchos problemas donde la modeliza-ción con observaciones correladas es más adecuada, por ejemplo enminería, oceanografía, meteorología, reacciones químicas... Desdela teoría de diseños óptimos esto es un gran desafío que no ha sidomuy tratado. Podemos encontrar referencias en Brimkulov y otros[Bri80], Abt y Welch [Abt98], Cressie [Cre93], Pázman [Paz04] oUncinski y Atkinson [Uci04].

Bajo la hipótesis de que las observaciones puedan ser correladas, elmarco teórico es muy distinto al expuesto en los primeros capítulos.Así, consideremos el modelo

y(x) =m∑

i=1

fi(x)θi + ε(x) = f t(x)θ + ε(x),

donde ε ∼ Nn(0,Σ), siendo la matriz de covarianzas Σ =(C(x, z)

)x,z

simétrica y definida positiva. El estimador mínimo cuadrático vienedado por

θ = (X tΣ−1X)−1X tΣ−1Y,

y su matriz de covarianzas

Cov (θ) = (X tΣ−1X)−1.

Page 146: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.2. Planteamiento del problema 129

La matrix de información correspondiente a un diseño exacto VNde N puntos es:

M(VN ) =∑

x∈χ

z∈χ

f(x)Σ−1x,zf(z).

Bajo estas condiciones no se permite la generalización de las medi-das de diseño según la teoría de Kiefer. Las matrices de informaciónno satisfacen las propiedades de convexidad, que se verifican en lasmatrices de información cuando las observaciones son incorreladas.Así no tendremos el teorema de equivalencia ni otras propiedadesbasadas en la convexidad de los conjuntos de las matrices de infor-mación.(Para una mayor discusión véase Nachtsheim [Nac89] pági-nas 74 – 75).

Análogamente, los estudios realizados sobre diseño óptimo con va-riables no controlables restringen su atención a observaciones in-correladas, siendo esta memoria, el primer trabajo (que conozca elautor) donde se tratan los dos aspectos al mismo tiempo, es decir,observaciones correladas con variables no controlables.

5.2. Planteamiento del problema

Consideremos el modelo E[y(x)] = η(s, t, θ1), donde (s, t) pertenecena algún compacto χ, siendo χ = χ1 × χ2 el espacio de diseño y seaΞ el conjunto de todos los diseños en este espacio producto. Comovimos en el capítulo 2, un diseño conjunto ξ, queda completamentedeterminado por un diseño marginal ξ1 sobre χ1 y los diseños condi-cionales ξ2|1(·|s) sobre χ2 dada s ∈ χ1.

Si los valores de la variable s son conocidos de antemano, estos de-terminan un diseño marginal específico ξ1. De este modo, el espacioΞR se restringe a aquellos diseños conjuntos que tienen a ξ1 comodiseño marginal.

Supongamos que las observaciones son correladas, de modo quecov(yi, yj) = C(|si−sj |, |ti− tj|, θ2) y que pueden ser obtenidas con

Page 147: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

130 D–óptimos MR con observaciones correladas

errores gaussianos con media cero y varianzas finitas, de este modoobservamos un proceso aleatorio estacionario gaussiano (ver Adlery Taylor [Adl05] para las condiciones de regularidad exigidas). Enun principio, podemos considerar dos conjuntos de parámetros deinterés: Los que describen la tendencia, θ1 y los que caracterizan a lafunción de covarianza, θ2. Para este último conjunto tenemos otrasdos enfoques para calcular el diseño, que son: considerar el conjuntode parámetros, θ2, como parámetros con un valor fijo, conocidos oconsiderarlos como parámetros de interés. Mediante algunos ejem-plos, mostraremos la diferencia entre las consideraciones anteriores.Para la primera aproximación, la inversa de la matriz de informa-ción de Fisher tiene el significado estándar, es decir, asintóticamentees proporcional a la matriz de covarianzas de los estimadores. Sinembargo, mediante el segundo enfoque la optimización basada enla matriz de información de Fisher puede no resultar conveniente.En cualquier caso, como decíamos en la introducción, la teoría delos diseños aproximados no puede usarse en este contexto, es poresto que debemos considerar diseños exactos. Debido a que bajoeste marco no existe un teorema de equivalencia para poder de-mostrar la convergencia de algoritmos, han sido desarrolladas otrasaproximaciones. Por ejemplo, el algoritmo dado por Brimkulov yotros [Bri80]. Aunque no hay una prueba de la convergencia paraeste algoritmo, su eficacia ha sido mostrada empíricamente (véaseUciński y Atkinson [Uci04]).

Supongamos que estamos interesados en estimar los parámetros dela media, θ1 = (θ

(1)1 , . . . , θ

(m)1 ). La matriz de información de Fisher

sería:

Mθ1= −E

∂2L

∂θ(1)2

1

. . . ∂2L

∂θ(1)1 ∂θ

(n)1

......

...∂2L

∂θ(n)1 ∂θ

(1)1

. . . ∂2L

∂θ(n)2

1

,

siendo L el log de la función de verosimilitud. Bajo condiciones denormalidad L = const. − 1

2ln det σ2Σ(θ2) − 1

2σ2 etΣ−1(θ2)e, donde

Σ(θ2) es la matriz de covarianzas correspondiente a la función decovarianza dada y e los residuos.

Page 148: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.3. Estructura de la covarianza 131

Suponiendo σ2 = 1 y X = {fj(si, ti)} = {∂η(si, ti, θ1)/∂θ(j)1 }, la

matriz de información será: M = X tΣ−1X, de modo que usando elcriterio de D−optimización, la función a maximizar es:

Inf1 = |X tΣ−1X|.

Si estamos interesados en estimar todos los parámetros, suponiendode nuevo que σ2 = 1 y X = {fj(si, ti)} = {∂η(si, ti, θ1)/∂θ(j)

1 }, lamatriz de información será:

M =1

2

(2XTΣ−1X 00 tr(Σ−1 ∂Σ

∂θ2Σ−1 ∂Σ

∂θ2)

),

y la función a maximizar:

Inf2 = |M | = |X tΣ−1X|tr(

Σ−1 ∂Σ

∂θ2Σ−1 ∂Σ

∂θ2

).

En la Sección 5.3 serán calculados diseños D–óptimos MR para unmodelo de regresión lineal y una estructura de covarianza exponen-cial/triangular. En las Secciones 5.4 y 5.5 resolveremos dos casosreales.

5.3. Estructura de la covarianza

El efecto de emplear una función de covarianza parametrizada uotra, juega un papel importante en el comportamiento del dise-ño. En este capítulo consideramos como funciones de covarianzasubclases de funciones Gaussianas y Exponenciales de la clase deMatérn (Matérn [Mat86]) y clases triangulares. Además, introduci-mos la función de covarianza potencial modificada que permite es-timar la influencia de la variable no controlable en la dependenciaespacio-tiempo, y una función de covarianza algo particular queencontramos en Stein [Ste05b].

Page 149: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

132 D–óptimos MR con observaciones correladas

La clase de Matérn viene motivada por el amplio rango de com-portamientos que cubre y la interpretabilidad de los parámetros.Existen distintas parametrizaciones de la familia de Matérn. Enesta memoria elegimos la dada por Handcock y Wallis [Han94],

cov(u, θ2, v, τ2) = τ 2δ(u) +

1

2v−1Γ(v)

(2u

√v

θ2

)vKv

(2u

√v

θ2

),

donde θ2 y v son los parámetros, u es una distancia, generalmen-te la distancia entre dos puntos experimentales, τ 2 es el llamadoefecto nugget, es decir, el efecto debido a la presencia de microvar-ianza (véase Cressie [Cre93]), δ(u) es la función de Kronecker yKv es la función de Bessel modificada de tercera clase y orden v(ver Abramowitz y Stegun [Abr65], sec. 9). El parámetro v contro-la la diferenciabilidad del proceso y θ2 mide la rapidez del descensode las correlaciones según la distancia (rango del parámetro en laliteratura de geoestadística). Esta familia incluye la clase exponen-cial exp(−θ2u) (como un caso especial cuando v =0.5) y la familiaGaussiana exp(−θ2u2) de funciones de correlación (como un casolímite cuando v → ∞).

Como se dijo, consideramos también las funciones potenciales des-critas en Currin y otros [Cur91], exp(−θ2|t − t′|p) para θ2 > 0 y0 < p ≤ 2. Gracias a la ya definida correlación producto, podemosdefinir la función de correlación sobre [0, 1]2:

exp(−θ21|s− s′|p − θ22|t− t′|p). (5.1)

También, trabajaremos con las funciones de correlación triangular,que introducimos a continuación.

Lema 5.1. Consideremos un modelo general con variables explica-tivas s y t en los intervalos χ1 y χ2 respectivamente, y las funcionesde covarianza:

1. cov(y, y′) = σ2(1 − θ2(|s− s′| + |t− t′|)),

2. cov(y, y′) = σ2(1 − θ2|s− s′|)(1 − θ2|t− t′|).

Page 150: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.3. Estructura de la covarianza 133

Esta estructura es coherente, es decir, la matriz de covarianzas esdefinida no negativa, si y solo si

1. 0 < θ2 < 2/(λ(χ1) + λ(χ2)),

2. 0 < θ2 < 2/max{λ(χ1), λ(χ2)}

siendo λ la longitud del intervalo.

Obtendremos una correlación positiva intercambiando el 2 por un 1en ambas cotas.

Demostración.

Sin pérdida de generalidad, supongamos que t1 < · · · < tn. SeaPn el conjunto de las permutaciones de {1, . . . , n}, y Σn la matrizde covarianzas. Supongamos que sψ(1) < · · · < sψ(n) para algunapermutación ψ ∈ Pn. Usando Fuzhen Zhang [Zha99] obtenemosla expresión |Σn| = fn(θ2)

∏1≤i<j≤n(xj − xi), donde x1 = 0, x2 =

t2,1 + sψ(2),ψ(1), . . . , xn = t2,1 + sψ(2),ψ(1) + · · ·+ tn,n−1 + sψ(n),ψ(n−1) ytj,i = tj−ti, sψ(j),ψ(i) = sψ(j)−sψ(i). La función fn(θ2) = gnθ

n−12 [2−

θ2(tn,1 + sψ(n),ψ(1))] solamente depende de sψ(i) con i ∈ {1, n} ygn > 0. De este modo, el determinante |Σn| es siempre positivo si ysólo si 0 < θ2 < 2/(λ(χ1) + λ(χ2)).

La demostración para el segundo caso es inmediata usando la reglade la correlación producto. 2

5.3.1. Función potencial modificada

En el marco de los diseños Marginalmente Restringidos trabajamoscon dos variables explicativas (s, t), siendo s la variable no con-trolable pero conocida y t la variable que esta bajo el control delexperimentador. Consideremos la función:

q(s, t) =

(1

θ2− 1

)|s|θ2 + |t|θ2, 0 < θ2 < 1.

Page 151: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

134 D–óptimos MR con observaciones correladas

Introducimos la covarianza potencial modificada:

σ2 exp[−q(s− s′, t− t′)].

El parámetro θ2 es la medida de la influencia de la variable no con-trolable en la correlación. Si θ2 es pequeño (próximo a 0), entonceshay una gran influencia de la variable no controlable. Por otro lado,si θ2 → 1 la influencia es muy pequeña.

5.3.2. D−optimización y correlación

En la literatura, podemos encontrar diversas aplicaciones de diseñoóptimo de experimentos con distintas funciones criterio para mode-los espaciales de segundo orden. En este capítulo, consideramos elcriterio de D−optimización que corresponde a la maximización deldeterminante de la matriz de información de Fisher.

Podemos encontrar justificaciones teóricas para usar la informaciónde Fisher cuando las varianzas de los errores son pequeñas (ver Páz-man [Paz04]). Además existen algunas justificaciones asintóticas,(Abt and Welch [Abt98]), donde se prueba tanto analíticamentecomo por simulación que la inversa de la matriz de información deFisher es una buena aproximación del error cuadrático medio dela matriz de covarianzas de los estimadores de los parámetros enalgunos casos especiales. Ellos suponen que y(t) son observadas enti = (i− 1)/(n− 1) para i = 1, .., n en χ = [0, 1], pero sus resulta-dos también se verifican si el conjunto de puntos {ti} es denso enχ cuando n → ∞. Suponen una matriz de covarianza de la formaσ2R, donde (R)i,j puede corresponder a la estructura triangular,exponencial o Gaussiana.

Asimismo, Zhu y Stein [Zhu04] usan simulaciones para estudiarcuándo la inversa de la matriz de información de Fisher es unaaproximación razonable de la matriz de covarianzas de los esti-madores máximo verosímiles. Observaron que la matriz de infor-mación de Fisher da una buena estimación de la varianza de los

Page 152: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.4. Regresión lineal con observaciones correladas 135

estimadores máximo verosímiles cuando el tamaño muestral es su-ficientemente grande.

Aunque algunas simulaciones y estudios teóricos muestran, que lainversa de la matriz de información de Fisher no es una buenaaproximación de la matriz de covarianzas de los estimadores máxi-mo verosímiles, puede usarse como criterio de diseño si la relaciónentre estos dos es monótona (véase Zhu y Stein [Zhu04]).

5.4. Regresión lineal con observaciones co-rreladas

Consideremos el modelo E[y(x)] = α + βs + γt, donde (s, t) ∈χ1 × χ2 = [0, 1] × [0, 1]. Suponiendo un diseño marginal ξ1 ={0.3, 0.5, 0.7}, nuestro objetivo consiste en buscar diseños de 3-puntos (0.3, t1), (0.5, t2), (0.7, t3) maximizando la función criterio.

En primer lugar, consideremos la función de covarianza triangular1.) del Lema 1 para diferentes valores nominales del parámetro θ2 =0.1, 0.2, . . . , 0.9 (θ2 ≤ 1 para que la covarianza sea no negativa) y lafunción de covarianza triangular separable 2.) con valores nominalesdel parámetro θ2 =0.1, 0.3, 0.5, 0.7, 1 (θ2 ≤ 2 para que la correlaciónsea no negativa). En ambos casos encontramos que el parámetro decovarianza tiene un diseño D-óptimo MR de la forma t1 = 0, t2 = 1y t3 = 0 tanto si los parámetros de la función de covarianza estánfijos como si son de interés.

Por otro lado, si la función de correlación es la Gaussiana separableexp[−θ2(|s−s′|2 + |t− t′|2)], (θ2 > 0 para una correlación positiva),obtenemos los diseños dados en la Tabla 5.1. Esta puede conside-rarse un caso particular de la función de correlación potencial (5.1).

Si la función de correlación es la exponencial separable, exp[−θ2(|s−s′|+ |t− t′|)] (θ2 > 0 para una correlación positiva), obtenemos losdiseños de la Tabla 5.2. Estos diseños se ven afectados cuando elparámetro θ2 sea o no considerado de interés. Observando los valores

Page 153: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

136 D–óptimos MR con observaciones correladas

j θ2 t1 t2 t3 Infj1 0.01 1 0 1 2529.0862 0.01 1 0.5 0.2 5.272 ×107

1 0.1 0 1 0 28.0232 0.1 0 0.8 0.1 5491.1231 0.5 0 1 0 1.7112 0.5 0 1 1 10.6751 1 0 1 0 0.6752 1 0 0 1 0.8511 5 0 1 0 0.2012 5 1 1 0 0.0041 10 0 1 0 0.1672 10 0 1 1 0.0011 50 0 1 0 0.1602 50 1 1 0 2.523 ×10−6

1 100 0 1 0 0.1602 100 1 1 0 4.299 ×10−8

Tabla: 5.1: Diseños D–Óptimos MR cuando los parámetros de interésson los de la tendencia (primera fila para cada valor de θ2, j = 1) y cuan-do además de los parámetros del modelo, los de la función de covarianzason también de interés (segunda fila para cada valor de θ2, j = 2) y lacorrespondiente información.

Page 154: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.4. Regresión lineal con observaciones correladas 137

j θ2 t1 t2 t3 Infj1 0.01 1 0 1 922.7262 0.01 0 1 0 1.830 ×107

1 0.1 0 1 0 10.5292 0.1 0 1 0 1941.0761 0.5 0 1 0 0.7232 0.5 0 1 0 4.0171 1 0 1 0 0.3262 1 0 1 0 0.3341 5 0 1 0 0.1632 5 0 1 0 0.0011 10 0 1 0 0.1602 10 1 0 0 6.309 ×10−5

1 50 1 0 1 0.1602 50 0 1 1 6.596 ×10−13

1 100 0 1 0 0.1602 100 1 1 0 1.359 ×10−20

Tabla: 5.2: Diseños D−óptimos MR cuando los parámetros de interésson los del modelo (primera fila para cada valor de θ2, j = 1) y cuandoambos parámetros los del modelo y los de la función de covarianza sonde interés (segunda fila para cada valor de θ2, j = 2) y la informacióncorrespondiente.

de la información en ambos casos, se observa que el parámetro θ2es muy sensible a valores extremos del parámetro.

Por otro lado, para valores del parámetro próximos a 1 y a 5 losdiseños son idénticos. Para valores distintos de θ2, los diseños sondistintos con algunos saltos notables en la información cuando θ2es de interés.

En los ejemplos, vemos que los diseños D−óptimos MR dependendel parámetro de correlación, θ2, cuando la correlación tiene unaestructura Gaussiana y/o exponencial.

Además cabe destacar que hasta el momento, no hemos incluido

Page 155: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

138 D–óptimos MR con observaciones correladas

observaciones repetidas en el diseño marginal, sin embargo existensituaciones en las que es razonable permitir medidas repetidas. Demodo que consideremos esta nueva situación para el modelo deregresión lineal. Debido a la posibilidad de falta de microvariaciónpara las funciones de covarianza, introduciremos en ellas el llamadoefecto nugget (ver Stehlík y otros [Ste05a]).

De modo que trataremos de encontrar diseños de 6 puntos (0.3, t(1)1 ),(0.3, t(2)1 ),(0.5, t(1)2 ),(0.5, t(2)2 ), (0.7, t(1)3 ),(0.7, t(2)3 ) con las siguientesestructuras de covarianza (con nugget effects):

1. Triangular 1.)

cov(y, y′) =

{σ2(1 − θ2(|s − s′| + |t − t′|)), si t 6= t′ o s 6= s′;σ2 + αs, si t = t′ y s = s′.

2. Triangular 2.)

cov(y, y′) =

{σ2(1 − θ2|s − s′|)(1 − θ2|t − t′|), si t 6= t′ o s 6= s′;σ2 + αs, si t = t′ y s = s′.

3. Gaussiana

cov(y, y′) =

{σ2exp

{− θ2

(|s − s′|2 + |t − t′|2

)}, si t 6= t′ o s 6= s′;

σ2 + αs, si t = t′ y s = s′.

4. Exponencial

cov(y, y′) =

{σ2exp

{− θ2

(|s − s′| + |t − t′|

)}, si t 6= t′ o s 6= s′;

σ2 + αs, si t = t′ y s = s′.

donde α0.3 = 0.1, α0.5 = 0.5, α0.7 = 1.

Estas estructuras son coherentes, es decir, las matrices de cova-rianzas son definidas no negativas si y sólo si 1.) 0 < θ2 < 1, 2.)0 < θ2 < 2, 3.) 0 < θ2 y 4.) 0 < θ2. Bajo este marco, los diseñosque obtenemos aparecen en las Tablas 5.3-5.6. Una vez más, obser-vamos cambios en los diseños, y saltos en la información. De nuevo,hay un rápido decrecimiento en la información con los valores delparámetro θ2 cuando ambos parámetros son de interés. Este decre-cimiento es más moderado para 1.).El cálculo de estos diseños lo hemos realizado discretizando el es-pacio de diseño χ2 = [0, 1] en intervalos de longitud 0.1, usando elsoftware Matlab 7.

Page 156: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.4. Regresión lineal con observaciones correladas 139

j θ2 t(1)1 t

(2)1 t

(1)2 t

(2)2 t

(1)3 t

(2)3 Infj

1 0.01 0 1 1 0 1 0 2.0832 0.01 0 1 1 0 1 0 286.3921 0.1 0 1 0 1 0 1 0.9152 0.1 0 1 0 1 1 0 32.7621 0.5 1 0 0 1 0 1 0.2282 0.5 1 0 0.5 0.5 0 1 1.2261 1 1 0 1 0 1 0 0.1542 1 1 0 1 0.4 0 1 0.715

Tabla: 5.3: Diseños D−óptimos MR para la estructura de covarianza1.) cuando los parámetros de interés son los del modelo(primera fila paracada valor de θ2, j = 1) y cuando ambos parámetros los del modelo y losde la función de covarianza son de interés (segunda fila para cada valorde θ2, j = 2) y la información correspondiente.

j θ2 t(1)1 t

(2)1 t

(1)2 t

(2)2 t

(1)3 t

(2)3 Infj

1 0.01 0 1 0 1 1 0 2.0832 0.01 0 1 0 1 1 0 285.2221 0.1 0 1 0 1 0 1 0.9262 0.1 0 1 0 1 0 1 31.8471 0.5 0 1 1 0 1 0 0.2672 0.5 0 1 0.7 0 1 0 1.1961 1 0 1 0 1 0 1 0.2162 1 0 1 0 1 0 1 0.641

Tabla: 5.4: Diseños D−óptimos MR para la estructura de covarianza2.) cuando los parámetros de interés son los del modelo(primera fila paracada valor de θ2, j = 1) y cuando ambos parámetros los del modelo y losde la función de covarianza son de interés (segunda fila para cada valorde θ2, j = 2) y la información correspondiente.

Page 157: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

140 D–óptimos MR con observaciones correladas

j θ2 t(1)1 t

(2)1 t

(1)2 t

(2)2 t

(1)3 t

(2)3 Infj

1 0.01 0 1 1 0 0 1 2.1092 0.01 0 1 1 0 0 1 275.4881 0.1 0 1 1 0 1 0 1.0482 0.1 0 1 1 0 1 0 29.4441 0.5 1 0 1 0 1 0 0.3832 0.5 0 1 0.5 0.5 1 0 0.7641 1 0 1 0 1 1 0 0.2682 1 1 0 0.5 0.5 0 1 0.169

Tabla: 5.5: Diseños D−óptimos MR para la estructura de covarianzaGaussiana cuando los parámetros de interés son los del modelo (primerafila para cada valor de θ2, j = 1) y cuando ambos parámetros los delmodelo y los de la función de covarianza son de interés (segunda fila paracada valor de θ2, j = 2) y la información correspondiente.

j θ2 t(1)1 t

(2)1 t

(1)2 t

(2)2 t

(1)3 t

(2)3 Infj

1 0.01 0 1 1 0 0 1 2.0842 0.01 0 1 1 0 0 1 280.1791 0.1 0 1 0 1 1 0 0.9532 0.1 0 1 0 1 0 1 28.5411 0.5 0 1 1 0 0 1 0.3062 0.5 1 0 0.5 0.5 0 1 0.8591 1 1 0 1 0 1 0 0.2172 1 1 0 0.8 0.3 1 0 0.189

Tabla: 5.6: Diseños D−óptimos MR para la estructura de covarianzaexponencial cuando los parámetros de interés son los del modelo (primerafila para cada valor de θ2, j = 1) y cuando ambos parámetros los delmodelo y los de la función de covarianza son de interés (segunda fila paracada valor de θ2, j = 2) y la información correspondiente.

Page 158: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.5. Retención radioactiva en el cuerpo humano 141

5.5. Retención radioactiva en el cuerpohumano

La función criterio más frecuente para modelos lineales y no linealeses la función de D−optimización. Este criterio maximiza el deter-minante de la matriz de información de los parámetros a estimar.Distintos ejemplos para modelos no lineales aparecen por ejemp-lo en Atkinson y Donev [Atk92]. En todos ellos se asumen erroresindependientes, sin embargo no siempre esta hipótesis es adecua-da. Consideremos el problema de la asignación óptima de muestraspara detectar el caso de una incorporación instantánea de sustan-cia radioactiva en los trabajadores de una fábrica. El modelo usadoes una suma de muchas exponenciales (ver López-Fidalgo y otros[Lóp04c]), aunque sabemos que un número menor de exponencialestienen un comportamiento similar. En nuestro ejemplo vamos aconsiderar una única exponencial para simplificar el problema. Lasvariables del modelo son el tamaño de la partícula, s, y el tiempo,t, en el que evaluamos la actividad biológica de la sustancia en elorganismo. Claramente podemos suponer en este caso que las obser-vaciones son correladas, puesto que son observaciones procedentesde un mismo trabajador en distintos tiempos. De modo que se pre-tende estimar la retención pulmonar de esa sustancia a tiempo t ytamaño s mediante el modelo:

η(γ, s, t) = γ e−αs−β t.

El tamaño de partícula s representa la Activity Median Aerody-namic Diameter (AMAD), que varía entre 1 y 10 unidades. En lapráctica, el tiempo para la evaluación no debería pasar de los 100días, y al menos debe pasar medio día desde que ocurrió el accidentepara poder hacer la primera evaluación, de modo que podemos con-siderar como espacio de diseño el espacio producto, χ =[0, 10] ×[0.5, 100].

Supongamos que ocurre un accidente y que hay tres tamaños departículas distribuidas en distintas zonas de la fábrica, de modo

Page 159: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

142 D–óptimos MR con observaciones correladas

que el diseño marginal es ξ1 = {2, 5, 10}. Supongamos además quehay tres trabajadores, cada uno de los cuales está en una de laszonas anteriores y que podemos obtener dos muestras de cada unode ellos en dos tiempos óptimos, como ya se apuntó más arriba.Las medidas que proceden del mismo trabajador se supone queserán correladas. Esto lo modelizaremos mediante una función decovarianza considerando un nugget effect, del siguiente modo:

Cov(y(t,s), y(t′,s′)) = σ2(1 − θ2|t− t′|) si s 6= s′ o t 6= t′

= σ2αs si s = s′ y t = t′.

Pueden obtenerse valores nominales para los parámetros de las es-timaciones de los datos: γ0 = 0,1450, α0 = 0,1697, β0 = 0,005783.En la Tabla 5.7 podemos ver los diseños óptimos obtenidos paradistintos valores de θ2 > 0, cuando los parámetros de interés seanlos del modelo y cuando además de estos, sean los de la función decovarianza.

El cálculo de este diseño lo hemos realizado discretizando el espaciode diseño χ2 = [0.5, 100] en intervalos de longitud 9.95.

5.6. Un procedimiento iterativo

En el contexto de las observaciones correladas, existen muy pocosresultados en relación al cálculo de diseños D−óptimos. Para ob-tener diseños óptimos exactos, proponemos en esta sección un pro-cedimiento iterativo heurístico, en el sentido de que en cada pasomejoramos el diseño. Sin embargo no se tiene una demostración dela convergencia. Este algoritmo es una adaptación del presentadopor Brimkulov, Krug y Savanov [Bri80] (en ruso). Una versión eninglés la encontramos en Ucinski y Atkinson, [Uci04]. Es un algorit-mo de “intercambio” que empieza a partir de un diseño inicial ξ(0)

y en cada iteración, un punto del soporte es reemplazado por otrodel espacio de diseño de modo que incremente el determinante dela matriz de información. Una adaptación del algoritmo a nuestrocaso, se podría resumir del siguiente modo:

Page 160: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.6. Un procedimiento iterativo 143

j θ2 t(1)1 t

(2)1 t

(1)2 t

(2)2 t

(1)3 t

(2)3 Infj

1 0.0001 0.5 100 0.5 0.5 0.5 0.5 14.2112 0.0001 0.5 100 0.5 0.5 0.5 0.5 1.701 ×107

1 0.005 0.5 100 0.5 0.5 0.5 100 3.3012 0.005 0.5 100 0.5 0.5 0.5 100 1.115 ×105

1 0.01 0.5 100 0.5 0.5 0.5 100 3.0312 0.01 0.5 100 0.5 0.5 100 0.5 5.157 ×104

1 0.1 0.5 20.4 20.4 0.5 20.4 0.5 3.4332 0.1 20.4 80.1 60.2 100 0.5 80.1 2.431 ×108

1 0.5 40.3 20.4 80.1 40.3 0.5 60.2 193.5332 0.5 40.3 20.4 80.1 40.3 100 60.2 2.225 ×1014

1 1 20.4 40.3 40.3 100 0.5 20.4 21.3682 1 20.4 40.3 40.3 100 0.5 20.4 6.768 ×1010

Tabla: 5.7: D–Óptimos MR cuando los parámetros de interés son losdel modelo (primera fila para cada valor de θ2, j = 1) y cuando son deinterés los parámetros del modelo y de la función de covarianza (segundafila para cada valor de θ2, j = 2) y la información correspondiente.

Page 161: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

144 D–óptimos MR con observaciones correladas

Sea ξ1 = {s1, . . . , sn} un diseño marginal. Como vimos en el capí-tulo 2, el objetivo es encontrar los diseños condicionales ξ2|1(·|si) ={ti}, i = 1, . . . , n de modo que maximicen el determinante de lamatriz de información del diseño conjunto. Supongamos que la es-tructura de covarianza es C(|si−sj |, |ti−tj |, θ2). El parámetro θ2 losupondremos conocido, es decir, no estamos interesados en estimar-lo. Por tanto, la matriz de información, cuyo determinante debemosmaximizar es, M = X ′Σ−1X. Los principales pasos del algoritmoson los siguientes:

1. Seleccionamos un diseño inicial, ξ(0)2|1(·|si) = t0i , i = 1, . . . , n con

|M | 6= 0.

2. Para I = {1, . . . , n} calculamos (i∗, t∗) = argmax(i,t)∈I×χ2∆(i, t),

donde

∆(i, t) ={|M(ξ

(l)ti⇆t)| − |M(ξ(l))|}|M(ξ(l))|

y ti ⇆ t significa que cambiamos el punto ti por t.

3. Paramos el algoritmo cuando ∆∗ ≤ δ, siendo δ una tolerancia

dada.

La demostración de la convergencia en los procedimientos iterativosen la teoría de diseños con observaciones incorreladas, se basaba enel teorema de equivalencia. Sin embargo, como se indicó al princi-pio de este capítulo, en este contexto no tenemos un teorema deequivalencia debido a que las propiedades de convexidad fallan.

Los detalles de la implementación del algoritmo que encontramosen Uciński y Atkinson [Uci04], son adaptados para nuestro caso dediseños restringidos. (Véase el apéndice A.2.).

5.6.1. Un ejemplo real

Calcularemos diseños para un ejemplo de la vida real consideradopor Stein [Ste05b]. Un modelo estadístico representa la velocidadmedia diaria del viento irlandés desde 1961 hasta 1978 en función de

Page 162: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.6. Un procedimiento iterativo 145

s 10 14 20 25 41 64 69 72 85 89 104t 14.0 7.0 25.0 3.5 30.0 20.8 1.0 27.8 7.0 25.0 14.0

Tabla: 5.8: Diseño óptimo conjunto para el modelo de viento irlandés

la localización de 11 estaciones meteorológicas en Irlanda. Usamoscomo diseño marginal las 11 situaciones distintas de las estaciones,obtenidas de Gneiting [Gne02]:

ξ1 = {10, 14, 20, 25, 41, 64, 69, 72, 85, 89, 104}.

La estructura de covarianza que consideran Gneiting [Gne02] yStein [Ste05b] es:

cov(y, y′)

=

{(0,901|t − t′|1,544 + 1)−1 if s = s′,

0,968(0,901|t− t′|1,544 + 1)−1 exp[− ,00134|s−s′|

(0,901|t−t′|1,544+1)θ2/2

]if s 6= s′.

Una estimación del parámetro de la covarianza es θ2 =0.61 queserá usada para los cálculos. La obtención de un diseño D−óptimoMR de modo directo en este ejemplo es computacionalmente muydifícil. De modo que usaremos el algoritmo anterior, con n = 11y considerando δ = 10−6 para parar el algoritmo. Usando el dise-ño inicial dado anteriormente, obtenemos un determinante para lamatriz de información de 1.5471×108. En 8 iteraciones obtuvimoslos siguientes valores para los determinantes de la matriz de infor-mación (divididos por 108): 2.1409, 2.5705, 2.8312, 3.0959, 3.1438,3.1674, 3.1674, 3.1675.

En la Tabla 5.8 se observa el diseño óptimo conjunto cuyo determi-nante para la matriz de información es |M | = 3.1675 ×108.

Nota: El algoritmo ha sido usado para diseños condicionales unipun-tuales. Para diseños condicionales con k puntos todo es similar. Ungrado de mayor complejidad aparece en el caso de diseños condi-

Page 163: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

146 D–óptimos MR con observaciones correladas

cionales no balanceados. En el caso particular de observaciones co-rreladas solamente para los mimos valores de s,

C(|si − sj|, |ti − tj|, θ2) =

{C(|ti − tj |, θ2) si si = sj0 si si 6= sj

la matriz de información es M = X ′1Σ

−11 X1+ · · ·+X ′

kΣ−1k Xk, donde

Xi es la matriz del diseño para el mismo valor de s = si y Σi es lacaja correspondiente de la matriz de covarianzas de los errores.

5.7. Procedimiento de densificación

Retomemos el ejemplo propuesto en el capítulo 3. Decíamos queel uso de las barras de uranio es frecuente como combustible encentrales nucleares. Las barras consisten en un tubo que contienepastillas hechas de uranio con una densidad específica. Una parteimportante de este procedimiento consiste en la sinterización de laspastillas. Estas deben tener una densidad y una porosidad especí-ficas. Además los poros tienen que retener la fisión de los gases du-rante el proceso de calentamiento en la central. Para este propósitose añaden unos aditivos a la mezcla inicial. Después de un tiempoen el horno los aditivos son quemados formando los poros en lasbarras.

Nuevamente, escribimos las variables que se consideraron:

1. “Densidad inicial” x1, cuyo rango va desde 94.9 % al 96.7 %.Esta variable no está sujeta al control del experimentador,pero sus valores son conocidos antes de que la prueba searealizada. Consideramos aquí una muestra de 392 medidasobtenidas de la fábrica de ENUSA.

2. “Porcentaje de aditivo U3O8”, que varía desde 0 a 20, en por-centajes estándar. Esta variable está completamente bajo elcontrol del experimentador.

Page 164: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.7. Procedimiento de densificación 147

La variable respuesta considerada fue la densidad final. El modeloutilizado fue un modelo de regresión cuadrática para las dos varia-bles explicativas, y = γ0 + γ1s + γ2t + γ12st + γ11s

2 + γ22t2 y la

estructura de la covarianza fue la potencial modificada:

cov(y, y′) = σ2exp[(1/θ2 − 1)|s− s′|θ2 + |t− t′|θ2

], 0 < θ2 < 1.

Para obtener una estimación del parámetro θ2 a partir de los datos,procedemos de la siguiente forma. Si se usan todos los datos, el de-terminante de la matriz de covarianzas estará próximo a cero. Paraevitar problemas con el cálculo, consideramos una submuestra co-mo describimos a continuación. Dividimos la muestra en clases cont constante. De este modo, obtenemos 18 clases tales que el númerode elementos en las clases son n1 = 78, n2 = n18 = 67 y ni = 12 enel resto de los casos. Entonces, representamos proporcionalmentelas clases mediante las siguiente aproximaciones de submuestrasrepresentativas m1 = 6, m2 = m18 = 5 y mi = 1, en el resto. Parami = 1 tomamos directamente la media aritmética de los valoresde la clase que representa.

Finalmente maximizamos el logaritmo de la función de verosimili-tud L(θ2, y), usando la función de tendencia:

−2079,25 + 44,84s− 2,095t+ 0,01st− 0,23s2 + 0,00005t2,

donde los coeficientes son estimados suponiendo las observacionesi.i.d. Después de una optimización numérica obtenemos que el esti-mador máximo-verosímil del parámetro θ2 es θ2 =0.93.

De nuevo, la obtención de un diseño D-óptimo MR es complicadadesde un punto de vista computacional. Como en la sección anteri-or, aplicamos una versión del algoritmo de Brimkulov para resolverel problema. El diseño óptimo conjunto fue calculado y el deter-minante de la matriz de información del diseño óptimo resultó ser|M | = 5.6834×1014. (El diseño conjunto aparece en el apéndiceA.3.)

Page 165: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

148 D–óptimos MR con observaciones correladas

θ(G)2 \θ(E)

2 0.01 0.1 0.5 1.0 5.00.01 1 1 0.881 0.881 0.8960.1 1 1 0.962 0.962 0.9610.5 0.965 0.965 1 1 0.9771.0 0.962 0.962 0.975 0.975 0.9995.0 1 1 0.639 0.639 0.823

Tabla: 5.9: D-eficiencias de diseños D−óptimos bajo la estructura decovarianza Gaussiana con valor nominal del parámetro θ

(G)2 , cuando la

verdadera estructura de covarianza es la exponencial con valor nominaldel parámetro θ

(E)2 .

5.8. Análisis de sensibilidad

En esta sección estudiamos la sensibilidad de los diseños D–óptimosante la selección de los valores nominales del parámetro θ2 y anteel cambio de la estructura de covarianza.

En particular, consideramos los diseños para el modelo lineal (Sec-ción 5.4). En la Tabla 5.9 se presentan las D-eficiencias de los dise-ños D−óptimos calculados, suponiendo la estructura de covarian-za Gaussiana para distintos valores nominales de θ

(G)2 cuando la

verdadera estructura de covarianza es la exponencial con valoresnominales del parámetro θ(E)

2 .

Obtenemos una eficiencia de 1 para todos los casos cuando los pa-rámetros de interés son solamente los de la tendencia, sin embargo,cuando los parámetros de interés son los de la tendencia y los de lacovarianza, entonces las eficiencias aparecen en la Tabla 5.9. Estasson altas, excepto para los valores extremos θ(G)

2 =5.0 y θ(E)2 =0.5

o 1 en una posición central.

A continuación estudiamos los cambios en la eficiencia cuando elvalor nominal de θ2 no es preciso. En la Tabla 5.10 aparecen lasD-eficiencias de diseños D−óptimos suponiendo que el valor delparámetro es θ2 cuando el verdadero valor es θ∗2 con la misma es-tructura de covarianza (exponencial y Gaussiana respectivamente)

Page 166: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.8. Análisis de sensibilidad 149

y cuando ambos parámetros los de la tendencia y de la covarianzason de interés.

Por último la Tabla 5.11 muestra las eficiencias para valores erró-neos de los valores nominales en el ejemplo de la retención radioacti-va del ejemplo de la sección 5.5. Todas ellas son muy altas, de modoque podríamos concluir diciendo que no deberíamos preocuparnospor las elecciones erróneas del parámetro θ2.

Page 167: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

150D

–óptim

os

MR

con

observacio

nes

correladas

θ2\θ∗2 0.01 0.1 0.5 1.0 5.0E G E G E G E G E G

0.01 1 1 1 1 0.881 0.863 0.908 0.863 1 0.8850.1 1 1 1 1 0.962 0.928 0.965 0.928 1 0.9410.5 0.965 0.992 0.965 0.992 1 1 0.995 1 0.966 0.9931.0 0.962 0.902 0.962 0.902 0.975 1 1 1 0.962 0.9585.0 1 0.787 1 0.787 0.642 0.919 0.845 0.919 1 1

Tabla: 5.10: D-eficiencias bajo la suposición de que el valor del parámetro es θ∗1 para las estructuras decovarianza exponencial (E) y Gaussiana (G) cuando ambos parámetros el de la tendencia y el de la covarianzason de interés

θ2\θ∗2 0.0001 0.005 0.01j 1 2 1 2 1 2

0.0001 1 1 0.982 0.999 0.982 0.9920.005 0.960 0.958 1 1 1 10.01 0.886 0.910 1 1 1 1

Tabla: 5.11: D-eficiencias para el ejemplo de la Sección 5.5 cuando solamente el parámetro de la tendenciaes de interés (j = 1) y cuando ambos el de la tendencia y el de la covarianza son de interés (j = 2) cuando elverdadero valor del parámetro es θ∗2 y el que fue usado para calcular el diseño óptimo fue θ2

Page 168: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

5.9. Conclusiones 151

5.9. Conclusiones

En este capítulo hemos considerado el problema de diseñar cuandolas observaciones son correladas y una de las variables explicativasno está bajo el control del experimentador. Un problema no sen-cillo, consiste en encontrar una estructura de covarianza apropiadapara un caso particular. Un estudio de distintas estructuras de co-varianza ha sido realizado para ayudar al experimentador a tomaruna decisión. Asimismo hemos realizado un análisis de sensibilidadfrente a selecciones erróneas de la estructura de la covarianza yvalores nominales de los parámetros.

Considerando el modelo de regresión lineal hemos estudiado dife-rentes estructuras de covarianza: Dos tipos de estructuras triangu-lares, una Gaussiana y una exponencial. También hemos empleadola función de covarianza triangular utilizada en un problema re-al de retención radioactiva. La estructura que aparece en Gneiting[Gne02] y Stein [Ste05b] ha sido también considerada para el cál-culo de diseños MR. Por último, hemos considerado una versiónmodificada de la estructura potencial, usada para la modelizaciónde un procedimiento de densificación en la construcción de com-bustible para una planta nuclear. En todos los casos, los resultadosson coherentes, pero difieren sustancialmente del caso en el que lasobservaciones son incorreladas, de este modo se muestra la impor-tancia de usar una estructura de covarianza apropiada. Del mismomodo, existen diferencias significativas entre los diseños obtenidoscuando θ1 era de interés y cuando los dos parámetros θ1 y θ2 teníanque ser estimados.

Para evitar que los diseños colapsen en un punto se introdujo elllamado efecto nugget.

Finalmente, para el cálculo de diseños D−óptimos MR con obser-vaciones correladas se ha adaptado un algoritmo iterativo que pro-porciona diseños casi óptimos. Sin embargo, este algoritmo debe serrevisado para mejorar la rapidez en la convergencia.

Page 169: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …
Page 170: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Capítulo 6

Conclusiones e investigaciónfutura

6.1. Conclusiones

En esta memoria, hemos considerado la construcción de diseños óp-timos para varios ejemplos reales que han ido añadiendo distintascomplicaciones a la teoría clásica de diseño óptimo. En especial, losdiseños en los que aparecen una variable controlable y otra no con-trolable con valores conocidos antes de que el experimento sea re-alizado. Son los llamados diseños marginalmente restringidos, MR,que han sido estudiados en diferentes contextos (capítulos 4 y 5).La mayor parte de estos resultados, se han presentado en congre-sos internacionales y nacionales, y se encuentran publicados en losproceedings de los mismos. (Véase Ballesteros et al. [Bal05], LópezFidalgo and Martín Martín [Lóp05] and [Lóp04b].)Aunque en cada capítulo hemos tratado de realizar conclusiones ala finalización de los mimos, es útil hacer un resumen de todo eltrabajo conjunto. A continuación, recordamos los principales obje-tivos de la investigación así como las contribuciones originales quehemos aportado:

153

Page 171: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

154 Conclusiones e investigación futura

1. En el capítulo 1 se proporciona una introducción a la teoríade diseño de experimentos: propiedades de la matriz de in-formación, distintos criterios y, por supuesto, los teoremas deequivalencia de Kiefer y Whittle. Como consecuencia de estosteoremas se consideran condiciones de optimalidad basadas enlas derivadas direccionales. Por último se comparan las cotaspara la D− eficiencia propuestas por Kiefer y Atwood.

2. Recopilación de los trabajos existentes en la literatura sobre eldiseño de experimentos cuando algunas variables del modelono están bajo el control del experimentador. En el capítu-lo 2 hemos repasado la teoría de los diseños marginalmenterestringidos, condicionalmente restringidos así como margi-nal y condicionalmente restringidos, resaltando los teoremasde equivalencia para cada uno de los casos, y los algoritmospropuestos para el cálculo de los mismos, pues en los proble-mas reales, el cálculo “directo” de los diseños óptimos podríaresultar muy laborioso. Por otro lado, las aportaciones en estecapítulo han sido: el análisis de las distintas funciones crite-rio para cada uno de los casos, indicando las distintas cotaspara la eficiencia y la aportación de “nuevas” cotas para laD− eficiencia de los diseños MR, CR y MCR, basadas en laque encontramos en Atwood [Atw69].

3. En el capítulo 3, se han proporcionado una serie de méto-dos, basados en los algoritmos multiplicativos propuestos porTorsney [Tor01],[Tor77] p(r+1)

j ∝ p(r)t f(dj), siendo dj = ∂Φ

∂pj

(véase (3.1) y (3.2)), para determinar diseños óptimos marginal-mente restringidos, así como los diseños marginal y condi-cionalmente restringidos.

Aunque no tenemos una prueba de la convergencia de es-tos algoritmos, estudios computacionales muestran una rápi-da convergencia, pero cerca del óptimo, la tasa de convergen-cia disminuye considerablemente (ver Tablas 3.1, 3.3, 3.7 y lasección final de 3.5.1).

Aunque la monotonicidad no garantiza la rapidez de conver-

Page 172: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.1. Conclusiones 155

gencia, una elección apropiada de la función f(d) proporcionadiseños casi óptimos en pocas iteraciones. Esto lo podemosobservar en la Tabla 3.1 donde vemos que para diseños D−,DA−, c− y LA−óptimos se obtiene F2j|1i ≥-0.1 en una o dositeraciones.

También podemos encontrar en este capítulo los Teoremas 3.1y 3.2, que muestran la equivalencia entre diseños D−óptimosMR o MCR y los diseños Ds–óptimos. Podemos ver en elEjemplo 1 de la sección 3.3.2 que los diseños c−óptimos yDθ2−óptimos son los mismos, ratificando de este modo el Teo-rema 3.1. Análogamente el Teorema 3.1 queda ilustrado por elejemplo de la sección 3.4.2 donde el diseño D−óptimo MCRpara todos los parámetros, es también el Dθ2−óptimo MCRcuando los parámetros de interés son los de la variable no con-trolable con valores desconocidos y el parámetro de la variablecontrolable.

Por último distintas aplicaciones al mundo de la industria yde la medicina se han presentado para el cálculo de los diseñosusando los algoritmos que se han desarrollado.

4. En el capítulo 4 se proporcionan algunos métodos para cal-cular diseños D−óptimos marginalmente restringidos cuandoel diseño marginal sigue una distribución discreta o continua.Los resultados de las secciones 4.2 y 4.3 pueden ser fácilmentegeneralizados cuando aparezca una nueva variable no contro-lable.

Se propone un algoritmo secuencial para el cálculo de diseñosD−óptimos MR. Suponiendo que hemos calculado nuestro di-seño, pero que una nueva observación aparece, el diseño mar-ginal cambia. Nuestro objetivo consiste en asignar un valora la variable controlable de forma que el diseño conjunto seaóptimo. Los diseños secuenciales se construyen de tal modoque toda la información que se tiene en las etapas previas, esusada para sugerir cómo calcular la siguiente iteración.

5. En el capítulo 5 estudiamos el problema de diseñar bajo la

Page 173: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

156 Conclusiones e investigación futura

posibilidad de que las observaciones sean correladas y una delas variables explicativas no está bajo el control del experi-mentador. Realizamos un estudio sobre distintas estructurasde covarianza para ayudar al experimentador a tomar unadecisión. Asimismo hemos hecho un análisis de sensibilidadfrente a selecciones erróneas de la estructura de la covarianzay valores nominales de los parámetros.

Considerando el modelo de regresión lineal hemos estudia-do diferentes estructuras de covarianza: Dos tipos de estruc-turas triangulares, una Gaussiana y una exponencial. Tam-bién hemos empleado la función de covarianza triangular uti-lizada en un problema real de retención de radioactividad. Laestructura que aparece en Gneiting [Gne02] y Stein [Ste05b]ha sido también considerada para el cálculo de diseños MR.Por último, hemos empleado una versión modificada de laestructura potencial, usada para la modelización de un pro-cedimiento de densificación en la construcción de combustiblepara una planta nuclear. En todos los casos, los resultados soncoherentes, pero difieren sustancialmente del caso en el quelas observaciones son incorreladas, de este modo se muestra laimportancia de usar una estructura de covarianza apropiada.Del mismo modo, existen diferencias significativas entre losdiseños obtenidos cuando θ1 era de interés y cuando los dosparámetros θ1 y θ2 tenían que ser estimados.

Para evitar que los diseños se colapsen en un punto se intro-dujo el llamado efecto nugget.

Finalmente, para el cálculo de diseños D−óptimos MR conobservaciones correladas se ha adaptado un algoritmo itera-tivo que proporciona diseños casi óptimos. Sin embargo, estealgoritmo debe ser revisado para mejorar la rapidez en la con-vergencia. El código fuente realizado en Matlab se puede con-sultar en el apéndice A.2.

Page 174: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 157

6.2. Líneas de investigación futuras

6.2.1. Modelos Lineales Generalizados

Los modelos lineales han sido ampliamente tratados en la teoríade diseño óptimo, entre otros motivos, debido a que la matriz deinformación para estos modelos es relativamente sencilla y no de-pende de los parámetros a estimar. Podemos pensar en los diseñosLineales Generalizados como una extensión del caso lineal. Por estemotivo, además de las aplicaciones de los diseños no lineales, enla mayoría de las situaciones reales, se han estudiado los diseñoslineales generalizados. Así Ford, Torsney y Wu [For92] construyendiseños c− y D−óptimos, usando propiedades geométricas, paramodelos lineales generalizados con una variable de diseño. Sitter yWu [Sit93] calculan diseños D− y A−óptimos para experimentoscon respuesta binaria y con una variable de diseño. Sitter y Torsney,[Sit95], tratan una situación más general considerando varias varia-bles en el diseño.Aunque no ha sido un objetivo de esta tesis el cálculo de diseñospara Modelos Lineales Generalizados, introducimos una serie deconceptos para enmarcar una posible línea de investigación futura.

Sea Y una variable aleatoria. Se dice que su distribución pertenecea la familia exponencial si podemos escribir:

f(y; θ) = s(y)t(θ) exp{a(y)b(θ)},

siendo a, b, s y t funciones conocidas. Podemos escribir la ecuaciónanterior como:

f(y; θ) = exp{a(y)b(θ) + c(θ) + d(y)}.

Si a(y) = y diremos que que la distribución anterior está escritaen la forma canónica. Muchas de las distribuciones más conocidas,pertenecen a la familia exponencial (Poisson, Normal, Binomial. . .).

Consideremos ahora Y1, . . . , Ym, variables aleatorias independientes,en donde cada una de ellas tiene una distribución que pertenece a la

Page 175: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

158 Conclusiones e investigación futura

familia exponencial. Se verifica que la distribución de probabilidadconjunta es:

f(y1, . . . , ym; θ1, . . . , θm) = exp[ m∑

i=1

yib(θi) +

m∑

i=1

c(θi) +

m∑

i=1

d(yi)].

Los modelos lineales generalizados, verifican que una combinaciónde los parámetros, es una función del valor esperado E[Yi] = µi, esdecir,

η(µi) = θtxi,

siendo xi un vector de variables explicativas, θ el vector de paráme-tros y η una función monótona y diferenciable, denominada funciónlink.

La matriz de información, viene dada por

Ii,j = −E[∂2L(θ; y)

∂θiθj

]

siendoL(θ; y) =

∑yib(θi) +

∑c(θi) +

∑d(yi),

E[Yi] = µi =−c′(θi)b′(θi)

y

V ar(Yi) =b′′(θi)c

′(θi) − c′′(θi)b′(θi)

[b′(θi)]3.

Por tanto, se puede probar que

Ii,j =m∑

l=1

xlixljw(µi),

donde

w(µi) =

(∂η∂µi

)2

var(Yi).

Para un mayor desarrollo de esta teoría véase Dobson [Dob83].

Page 176: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 159

Siguiendo la notación que aparece en Ford, Torsney y Wu [For92],el problema que consideramos es el siguiente:

E[y(x)] = η(θ, x),

siendo η una función no lineal en los parámetros de una funciónlineal en θ, es decir,

η = η(θts),

donde st = (1, xt). Por tanto, si χ es nuestro espacio de diseño, y ξes un diseño aproximado, la matriz de información será

M(ξ) =

χ

w(θts)sstξ(dx),

siendo

w(θts) =

(∂η

∂(θts)

)2

var(y | x

) .

En particular, consideremos el caso

η = η(θ1 + θ2x), θ = (θ1, θ2) s = (1, x)t.

Realizando la transformación s→ t = Bs, siendo B una matrix nosingular 2×2, el espacio de diseño χ se transforma en otro espacio Z.De este modo transformamos el problema de diseño no lineal en unolineal, es decir, el problema puede ser resuelto independientementede θ. Así, resolviendo nuestro problema para cualquier Z, quedaráresuelto para χ y cualquier θ. Aunque debemos resaltar que los úni-cos criterios que podemos utilizar son los que sean invariantes bajola transformación anterior (como D− y c− optimización). ElegimosB tal que t = (1, z)t, siendo

s −→ t = Bs =

(1 0θ1 θ2

)(1x

)=

(1

θ1 + θ2x

)=

(1z

)

Ford, Torsney y Wu [For92] utilizan criterios geométricos para laconstrucción de los diseños, basándose en el resultado de Silvey

Page 177: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

160 Conclusiones e investigación futura

[Sil80] que establece que el soporte de los diseños óptimos dependede la geometría del espacio definido por:

G = {g ∈ Rm : g =

√w(tm)t, t = (1, zt)t, z ∈ Z},

en nuestro caso

G = {g(z) = (g1, g2)t / g1 =

√w(z), g2 = zg1, z ∈ Z}.

Los pasos a seguir para encontrar los diseños D−óptimos son lossiguientes:

1. Tomar una decisión sobre el número de puntos del soporte.

2. Maximizar el determinante de la matriz de información cono-cido el número de puntos del diseño óptimo.

Según encontramos en Silvey [Sil80], los puntos del soporte del óp-timo, son los puntos de contacto entre el conjunto G y el menorelipsoide centrado en el origen que contiene a G.

Considerando el modelo

E[y(x1, x2)] = η(θ1x1 + θ2x2),

donde x1 es una variable no controlable, pero con valores conocidosantes de realizar el experimento. Nos planteamos la aplicación dela teoría de los modelos lineales generalizados al estudio del cálculode diseños óptimos MR.

Realizando el cambio:

s −→ t = Bs =

(θ1 θ20 1

)(x1

x2

)=

(θ1x1 + θ2x2

x1

)=

(z1z2

),

lo que buscamos como vimos en el capítulo 2 son los diseños condi-cionales ξ2|1, para cada x1 (y por tanto z2) fijo.

Page 178: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 161

En este caso:

G = {g(z) = (g1, g2)t / g1 =

√w(z1)z1, g2 =

√w(z1)z2, z ∈ Z = Z1×Z2}.

Si encontramos valores óptimos z∗1 dado z2, podemos encontrar x∗2 =z∗1−θ1x1

θ2.

Algunos problemas abiertos serían los siguientes:

1. Caracterización geométrica de los diseños condicionalesD−óptimos.

2. Cálculo de diseños para modelos lineales generalizados cuandouna de las variables en el modelo sea no controlable.

6.2.2. Diseños con observaciones correladas

En el capítulo 5 hemos calculado diseños D−óptimos MR cuandolas observaciones son correladas con una función de varianza dada.En algunos casos, vimos que para el cálculo de estos diseños erannecesarios algoritmos debido a la complejidad de los cálculos. Unode ellos fue el propuesto por Brimkulov y otros [Bri80]. Desafortu-nadamente, la convergencia de este algoritmo al diseño óptimo noestá garantizada. Müller y Pázman [Mü99], proponen un algoritmodistinto para el cálculo de estos diseños, basado en una nueva in-terpretación de las medidas de diseño propuesta por ambos autores[Paz98]. Este algoritmo es también un algoritmo de intercambiode un punto, y está basado en la derivada direccional. La únicarestricción con esta nuevo interpretación de las medidas de diseñoes que no se permiten réplicas. Un nuevo problema consistiría enadaptar este tipo de algoritmos al caso de los diseños MR, y haceruna comparación entre ambos algoritmos.

Cuando las observaciones son incorreladas, una forma para “medir”la bondad de un diseño es mediante su eficiencia, y como ya diji-mos, para poder calcularla necesitamos conocer quién es el diseño

Page 179: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

162 Conclusiones e investigación futura

óptimo. Por este motivo, introducíamos cotas inferiores para la efi-ciencia. Bajo el marco de las observaciones correladas, no se conoceninguna medida de la cota de la eficiencia para un diseño. Solamen-te Bischoff [Bis95] proporciona una cota pero cuando las matricesde covarianza son simétricas regulares circulares (es decir cada filase obtiene desplazando cíclicamente una posición la fila anterior).Una línea de investigación abierta sería buscar alguna medida deesta cota para casos más generales.

Aunque en las secciones anteriores hemos planteado las líneas deinvestigación más relevantes, otras posibles cuestiones serían:

Aplicación de la teoría bayesiana al cálculo de diseños MR.

Elaboración de nuevas teorías cuando nuevas restriccionesaparezcan en el modelo desarrollando nuevos algoritmos parasu resolución.

Búsqueda de condiciones suficientes para garantizar la con-vergencia del algoritmo secuencial propuesto en el capítulo4.

Page 180: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Conclusions and Future Work

Conclusions

In this thesis, the construction of optimal designs with constrainson the variables of the model, has been considered. Through realexamples, different situations have been presented. One of the mostimportant appears when in the model there are two variables: onevariable is controlled and the other is uncontrolled but its valuesare known before the experiment is carried out. These designs arecalled marginally restricted designs(MR). Not only have we com-puted MR optimal designs (Chapter 3) but we have also studiedthese designs under several frameworks (sequentially designs anddesigns for correlated observations in Chapter 4 and 5, respective-ly).

Most of this work has been presented at international and nationalcongress and they have been published in the proceeding of them.(See [Bal05], [Lóp05] y [Lóp04b]).

The principal targets and contributions of this thesis are summa-rized in the following:

1. An introduction to the theory of optimal design (propertiesof the information matrix, several criteria and the equivalencetheorems) is provided in Chapter 1. Also we discussed opti-mality conditions based on directional derivatives, and twolower bound for the efficiency are considered. One of them

163

Page 181: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

164 Conclusiones e investigación futura

is proposed by Kiefer [Kie59a] and the other one is proposedby Atwood [Atw69]. We proved that this last bound is betterthan Kiefer’s bound.

2. A review of the works on optimal designs with constrains ismade in Chapter 2. The properties of optimum experimentaldesigns when the information matrix depends upon uncon-trolled variables are described. Three cases ares diferenciat-ed (marginally restricted (MR), conditionally restricted (CR)and marginally conditionally restricted (MCR) designs) andtheir equivalence theorems are given. We go into detail aboutdifferent criteria. We highlight the algorithms derived fromequivalence theorems presented in López Fidalgo and GarcetRodríguez [Lóp04a]. Finally, the bound for the efficiency pro-posed by Atwood is generalized to MR, CR and MCR. Thisbound is higher than the bound proposed by López Fidalgoand Garcet Rodríguez [Lóp04a]. Examples are given.

3. The purpose of Chapter 3 is to address the question of con-structing optimal designs when some of the factors are knownin advance. We have proposed methods for computing suchdesigns, in particular, a class of multiplicative algorithms isconsidered in Chapter 3 in order to compute MR and MCRoptimal designs. These algorithms are based on the itera-tion proposed by Torsney [Tor77] p(r+1)

j ∝ p(r)t f(dj), where

dj = ∂Φ∂pj

(see (3.1) and (3.2)). Although monotonicity doesnot guarantee fast convergence, an appropriate choice of func-tion f(d) produces almost optimal designs in a few iterations.

Finally, it is important to mention a related issue that de-serves further attention. Theorems 3.1. and 3.2. show theequivalence between D−optimal MR or MCR designs andthe appropriate Ds−optimality.

4. In Chapter 4 MR D−optimal designs have been provided.The results in Sections 4.2 and 4.3 can be easily generalizedwhen a non controlled new variable is observed. The sequen-

Page 182: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 165

tial algorithm proposed in this paper was motivated by the ex-ample which appears in López-Fidalgo and Garcet-Rodríguez[Lóp04a]. They proposed an optimal experimental design forpredicting morbidity after lung resection. The main variablesconsidered in this paper were the “percentage of maximumvolume of expired air”, the “oxygen desaturation during thetest” and the “exercise time in minutes”. We consider a moresimplified problem only taking into account the first and thethird variables. Assuming that we have calculated our design,but a new patient arrives, then the marginal design changes.We want to assign an exercise time in such a way that thejoint design is optimal. The sequential designs are construct-ed in such a way that all of the information in the previousruns can be used efficiently in suggesting how the next runshould be conducted.

5. In Chapter 5 we have considered the problem with correlatedobservations when one of the explanatory variables is not un-der the control of the experimenter (MR designs). A nontriv-ial problem is to find the appropriate covariance structure fora particular case. A study of covariance structures has beenmade in order to help the experimenter make the decision. Asensitive analysis against bad choices of the covariance struc-ture and the nominal values of the parameters was performed.Considering linear regression for the mean, four different co-variance structures have been studied: Two types of triangularstructures, a Gaussian and an exponential structure. A trian-gular structure was also used in a real radiation retentionproblem. The structure considered by Gneiting [Gne02] andStein [Ste05b] was also investigated for MR designs. Finally, amodified version of the powered structure has been used for adensification procedure in the construction of fuel for nuclearplants. In all cases the results are coherent, but differ fromthe results for the uncorrelated case, showing the importanceof using an appropriate covariance structure. In the same waythere are significant differences between the designs obtained

Page 183: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

166 Conclusiones e investigación futura

when θ1 (parameters of the trend) was of interest and whenboth θ1 and θ2 (parameters of the covariance structure) wereto be estimated. They are also coherent with the experience ofthe practitioners for the real problems considered. A nuggeteffect was needed to prevent the designs from collapsing atone point. An algorithm was adapted to this situation andproved to be efficient. Nevertheless some more work on thismay be done to improve the rates of convergence.

Future Work

Generalized Linear Models

Reviewing the literature on the optimal designs of experiments, wecan see that the majority of the researches on this topic remainsfocussed on linear models. The literature on optimal design for nonlinear models has been relatively sparse due to the dependence onparameter values. There have been several papers on optimal designfor the efficient estimation of parameters in generalized linear mod-els (GLMs), but the literature in this area tends to be even moresparse than in the area of nonlinear models, due to the increasedtheoretical and computational challenges associated with GLMs.GLMs are commonly used in experiments in such areas as chem-istry, pharmacology and engineering, so optimal design for thesemodels warrants further consideration. The work of Ford, Torsneyand Wu [For92] is of special interest, since they used a canoni-cal form to express design problems and were able to find D− andc−optimal designs for one predictor. Sitter and Wu [Sit93] computeD− and A−optimal designs for experiments with binary responseand one predictor. Sitter and Torsney [Sit95] compute D−optimaldesigns for multiple predictors.

Page 184: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 167

Even though the computation of designs for GLMs is not the focusof this thesis, we are going to introduce a series of concepts (seeFord, Wu and Torsney [For92]) that may form the bases of futurelines of investigations.

GLMs encompass a large class of models, from simple linear regres-sion models to models for quantal responses to models for survivaldate. They can be studied as a single class.

In experimental design with non-linear models the scalar responsevariable y has distribution belonging to the exponential family:

E[y(x)] = η(θts).

η is a non-linear function of a linear function of θ, and st = (1, xt).Thus, if χ is the design space and ξ is a measure, the Fisher infor-mation matrix for this design will be:

M(ξ) =

χ

w(θts)sstξ(dx),

where

w(θts) =( ∂η∂θts

)2/var(y | x

).

In particular, we consider

η = η(θ1 + θ2x), θ = (θ1, θ2) s = (1, x)t.

Carrying out the transformation s→ t = Bs, where B is a nonsin-gular 2× 2 matrix, the design space χ is transformed into a designspace Z. This way, we convert our non-linear problem in a linearproblem. Then the problem can be solved independently of θ. Notethat the only criteria that we can use are those that are invariantunder the previous transformation (such as D− and c−optimality).B is chosen such as t = (1, z)t, where

s −→ t = Bs =

(1 0θ1 θ2

)(1x

)=

(1

θ1 + θ2x

)=

(1z

)

Page 185: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

168 Conclusiones e investigación futura

Ford, Torsney and Wu used geometric criteria to construct designs.They are based on the result of Sylvey (1980) who established thatthe support of the optimal designs depends on the geometry of thespace defined by:

G = {g ∈ Rm : g =

√w(tm)t, t = (1, zt)t, z ∈ Z},

in our case

G = {g(z) = (g1, g2)t / g1 =

√w(z), g2 = zg1, z ∈ Z}.

The steps for finding D−optimal designs are the following:

1. Make a decision about the number of the support points.

2. Maximize the determinant of the Fisher information matrix.

Sylvey proposes that the support points are those that are in con-tact with the set G and the minimum ellipsoid centering on theorigen containing G.

We consider the model

E[y(x1, x2)] = η(θ1x1 + θ2x2),

where x1 is an uncontrolled variable whose values are known beforethe experiment is carried out and x2 is a controlled variable. Wecan adopt the previos ideas to compute MR D−optimal designs:

s −→ t = Bs =

(θ1 θ20 1

)(x1

x2

)=

(θ1x1 + θ2x2

x1

)=

(z1z2

).

For each x1 (and then for each z2) fixed, we are looking for condi-tional designs ξ2|1, which are performed in practice.

Under the above transformation:

G = {g(z) = (g1, g2)t / g1 =

√w(z1)z1, g2 =

√w(z1)z2, z ∈ Z = Z1×Z2}.

If we find optimal z∗1 values given z2, we can find x∗2 =z∗1−θ1x1

θ2.

This raises the following issues:

Page 186: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

6.2. Líneas de investigación futuras 169

1. Geometrical characterizations of D−optimal conditional de-signs.

2. Computation of optimal design for GLMs when some of thevariables in the model are not under control of the experi-menter.

Optimal Designs for correlated observations

Marginally restricted D−optimal designs for correlated observa-tions have been calculated in Chapter 5, when a covariance functionis given. In some cases directly obtaining a MR D−optimal designcould be computationally impossible. There exist several algorithmsfor the calculation of optimum designs in the regression case undercorrelated observations with a given covariance function. One ofthem was proposed by Brimkulov et al. [Bri80], and has been adopt-ed in Chapter 5 for MR designs. Unfortunately, the convergence ofsuch an algorithm with the true optimum is not guaranteed. Müllerand Pázman [Mü99] proposed an alternative algorithm based ona new interpretation of design measures [Paz98]. The restriction inthis new interpretation is that replications are not allowed. We maybe able to adopt that algorithm to MR designs and performing acomparison.

Another important issue is the measurement of how “optimal” a de-sign is. This is measured by the efficiency but, as we saw, we needto know what the optimal design is in order to compute the efficien-cy; for this reason, we computed lower bounds. A lower bound ofthe efficiency has been proposed for covariance matrices which aresymmetric, circular and nonsingular. (See Bischoff [Bis95]). Fromthis arises a new issue. Could another bound be found for moregeneral covariance matrix structure?

Finally other interesting issues might be:

Page 187: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

170 Conclusiones e investigación futura

Application of the Bayesian theory for computing MR optimaldesigns.

Elaboration of theories when new restrictions appear in themodel and development of algorithms for solving them.

Looking for conditions under which the sequential algorithmproposed in Chapter 4 converges.

Page 188: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Apéndice A

Apéndice

A.1. Cálculo de las derivadas locales dealgunas funciones criterio

D–optimización

Sea

ΦD(ξ) ≡ ΦD[M(ξ)] = − log det{M(ξ)},

donde

M(ξ) = M(ξ2|1 · ξ1) =I∑

i=1

ni∑

j=1

ξ2j|1i[ξ1iη(xi, xj)η

t(xi, xj)].

Como se vio en el capítulo 1

∂ΦD

∂pj= GΨ

[M(ξ), η(xj)η

t(xj)]

= −tr[M−1(ξ)η(xj)ηt(xj)]

= −ηt(xj)M−1(ξ)η(xj).

171

Page 189: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

172 Apéndice

Escribiendo la matriz de información para los diseños marginal-mente restringidos, como se hizo en el capítulo 3

M(ξ) =∑

i

j

ξ1iξ2j|1iη(xi, xj)ηt(xi, xj)

=∑

i

j

ξijη(xi, xj)ηt(xi, xj),

se tiene que:

∂ΦD

∂ξ2j|1i=∂ΦD

∂ξij

∂ξij∂ξ2j|1i

= ξ1i∂ΦD

∂ξij= −ξ1iηt(xi, xj)M−1(ξ)η(xi, xj).

c–optimización

SeaΦc(ξ) ≡ Φc[M(ξ)] = ctM−1(ξ)c,

en este caso

∂Φc

∂pj= −tr[(M−1cctM−1η(xj)η

t(xj)]

= −[ηt(xj)M

−1c]2,

de donde resulta

∂Φc

∂ξ2j|1i=∂Φc

∂ξij

∂ξij∂ξ2j|1i

= ξ1i∂Φc

∂ξij= −ξ1i

[ηt(xi, xj)M

−1c]2.

DA–optimización

En este caso, la función criterio es

ΦDA(ξ) = ΦDA

[M(ξ)] = log det{AM−1(ξ)At},

Page 190: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.1. Cálculo de las derivadas locales de algunas

funciones criterio 173

donde A es una matriz k ×m de rango k < m. De modo que

∂ΦDA

∂pj= −tr[(AM−1At)−1(−AM−1η(xj)η

t(xj)M−1At)]

= −ηt(xj)M−1At(AM−1At)−1AM−1η(xj).

Por tanto

∂ΦDA

∂ξ2j|1i=

∂ΦDA

∂ξij

∂ξij

∂ξ2j|1i= ξ1i

∂ΦDA

∂ξij

= −ξ1iηt(x

(i)1 , x

(j)2 )M−1(ξ)At

[AM−1(ξ)M t

]−1AM−1(ξ)η(x

(i)1 , x

(j)2 )

LA–optimización

La función criterio es

ΦLA(ξ) = ΦLA

[M(ξ)] = tr[AM−1(ξ)At],

donde A es una matriz k ×m de rango k < m, de modo que

∂ΦLA

∂ξj= −ηt(xj)M−1AAtM−1η(xj).

Por tanto

∂ΦLA

∂ξ2j|1i=

∂ΦLA

∂ξij

∂ξij

∂ξ2j|1i= ξ1i

∂ΦLA

∂ξij

= −ξ1iηt(x

(i)1 , x

(j)2 )M−1(ξ)AtAM−1(ξ)η(x

(i)1 , x

(j)2 )

De manera análoga, calculamos d3k|1i, teniendo en cuenta que:

∂Φ

∂ξ3|1= ξ1

x2

ξ2|1,3∂Φ

∂ξ1,2,3

Page 191: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

174 Apéndice

A.2. Código fuente para el cálculo de di-seños D−óptimos MR con observa-ciones correladas

En el capítulo 5 hemos visto que cuando las observaciones son co-rreladas, el cálculo de diseños óptimos marginalmente restringidospuede resultar computacionalmente muy complejo. En ese capítulorealizamos la adaptación del algoritmo de Brimkulov y otros parael cálculo de diseños D−óptimos. En este apéndice escribimos losarchivos (M-files) en MATLAB que han sido implementados paraencontrar los diseños óptimos marginalmente restringidos de la sec-ción 5.6. Nos basamos en los archivos proporcionados por [Uci04],que los podemos encontrar en:http://www.bepress.com/snde/vol8/iss2/art13/

Modificando parte del código proporcionado para el caso de diseñosmarginales:

principal.m Esta es a la que se llama y desde la cuál se vaa ir ejecutando el resto de funciones. Esta función no tomavalores de entrada. Lo único que queda fijo en esta funciónes el diseño marginal y el valor de δ que determina la paradadel algoritmo. Además creamos una red de puntos de valorespara los diseños condicionales.

n=11

xi=diseñoinicial(n,0,30);

independiente=[1 1 1 1 1 1 1 1 1 1 1];

s1=[41 14 64 20 72 85 104 69 89 10 25];

grid=1:1:30;

opciones = optimset(’Display’, ’notify’);

deltagrid=zeros(size(grid));

K=covstein(s1,xi);

Kinv=inv(K);

F=funcionbase(independiente,s1,xi);

M=F’*Kinv*F;

detM=det(M);

disp(detM) D=inv(M);

Page 192: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.2. Código fuente para el cálculo de diseños D−óptimos

MR con observaciones correladas 175

iter=0;

iptworst=1;

while 1

deltabest = -inf;

for irmvpt = 1: n

% Eliminacion del i-ésimo punto del diseño previo

[xirmv, s1rmv, independientermv, Frmv, Krmv, Kinvrmv, frmvstar]

= eliminar(irmvpt, xi, s1, independiente, F, K, Kinv);

for loop = 1: ptosred

deltagrid(loop) = -inclusion(grid(loop), xirmv, s1rmv,

independientermv, Frmv, Kinvrmv, D, frmvstar,s1,irmvpt);

end

[deltagridmax, imax] = max(deltagrid);

imax = max(min(imax, ngridpts - 1), 2);

[xnew, ndelta, exitflag] = fminbnd(@inclusion, grid(imax - 1),

grid(imax + 1), opciones, xirmv, s1rmv, independientermv, Frmv,

Kinvrmv, D, frmvstar,s1,irmvpt);

delta = -ndelta;

if delta >deltabest

deltabest = delta;

iptworst = irmvpt;

xaddbest = xnew;

end

end

if deltabest <epsi

disp(’Se ha encontrado una solución óptima...’)

disp([s1’ xi’])

disp(’det(M−1):’)disp(1 / detM)

xi = sort(xi);

save xi.txt xi -ascii

save det.txt detM -ascii

break

end

[xirmv, s1rmv, independientermv,Frmv, Krmv, Kinvrmv, frmvstar]

= eliminar(iptworst, xi, s1, independiente, F, K, Kinv);

[xiadd, s1add, Fadd, Kadd, Kinvadd, Madd, detMadd, Dadd] =

adaptacion(xaddbest, xirmv,s1, s1rmv, Frmv, Krmv, Kinvrmv, M,

Page 193: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

176 Apéndice

detM, D, frmvstar, iptworst);

xi = xiadd;

s1= s1add;

F = Fadd;

K = Kadd;

Kinv = Kinvadd;

M = Madd;

detM = detMadd;

D = Dadd;

iter = iter + 1;

disp([’iteration ’, num2str(iter), ’, det(M) = ’, num2str(detM)])

end

diseñoinicial.m En esta función se establece de manera aleato-ria un diseño condicional inicial. Toma como parámetros deentrada el número de puntos del diseño marginal y los ex-tremos del intervalo del espacio de diseño de la variable con-trolable.

function xi = diseñoinicial(n, t0, tn)

xi = t0 + ceil(tn * rand(1, n));

covstein.m Esta función es la encargada de construir la ma-triz de covarianzas, de acuerdo con la estructura, que en elejemplo del viento irlandés encontramos en [Ste05b]. Comoparámetros de entrada utiliza el diseño marginal y los puntoscreados en la función del diseño inicial.

function K=covstein(s1,x) for i=1:length(x)

for j=1:length(s1)

if s1(i)==s1(j)

K(i, j) = (0,901 ∗ abs(x(i) − x(j))1,544 + 1)−1;

else

K(i, j) = 0,968 ∗ ((0,901 ∗ abs(x(i)−x(j))1,544 +1))−1 ∗ exp(−(0,00134 ∗abs(s1(i) − s1(j))) ∗ ((0,901 ∗ abs(x(i) − x(j))1,544 + 1)0,61/2)−1);

end

Page 194: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.2. Código fuente para el cálculo de diseños D−óptimos

MR con observaciones correladas 177

end

end

funcionbase.m En esta función se determina la matrix deldiseño, X.

function F = funcionbase(independiente,s1,x)

F = [independiente’,s1’ x’];

eliminar.m Esta función elimina el punto que será intercam-biado por otro que haga mayor el determinante de la matrizde información.function [xinew, s1new, independientenew, Fnew, Knew, Kinvnew,

fxnstar] = eliminar(ipt, xi, s1, independiente, F, K, Kinv)

% Eliminación de un punto. Por simplicidad, el punto eliminado

se intercambia con el último punto del diseño

n = length(xi);

ind = 1: n - 1;

if ipt <n,

ind(ipt) = n;

end

xinew = xi(ind);

s1new = s1(ind);

independientenew = independiente(ind);

Fnew = F(ind, :);

Knew = K(ind, ind);

A = Kinv(ind, ind);

u = Kinv(ind, ipt);

r = Kinv(ipt, ipt);

Kinvnew = A - u * u’ / r;

fxnstar = sqrt(r) * F(ipt, :)’ + Fnew’ * u / sqrt(r);

inclusion.m Esta función trata de añadir un nuevo punto aldiseño. Y entre todos ellos se elige el que maximiza △(i, t).function negDelta = inclusion(x, xi, s1n, independiente, F, Kinv,

D, frmvstar, s1, irmvpt)

Page 195: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

178 Apéndice

% Añadimos un nuevo punto al diseño

knx = covstein4(s1n,s1(irmvpt),xi,x)’;

alpha = 1 - knx’ * Kinv * knx;

if abs(alpha) <eps

fxstar = zeros(size(frmvstar));

else

fxstar = ([1 s1(irmvpt) x]’ - F’ * Kinv * knx) / sqrt(alpha);

end

dxstar = fxstar’ * D * fxstar;

drmvstar = frmvstar’ * D * frmvstar;

dxrmvstar = fxstar’ * D * frmvstar;

negDelta = -(dxstar - drmvstar - drmvstar * dxstar + dxrmvstar

* dxrmvstar);

covstein4.m Esta función nos proporciona la matriz de co-varianzas añadiendo el nuevo punto.

function K=covstein4(s,l,x,y)

for i=1:length(s)

K(i) = 0,968 ∗ ((0,901 ∗ abs(x(i) − y)(1,544)+1)−1)∗

exp(−(0,00134∗abs(s(i)−l))∗((0,901∗abs(x(i)−y)(1,544)+1)(0,61/2))−1);

end

adaptacion.m Una vez seleccionado el punto a añadir, me-diante esta función construimos la “nueva” matriz de infor-mación, matriz de covarianzas, y la inversa de la matriz deinformación.

function [xinew, s1new, Fnew, Knew, Kinvnew, Mnew, detMnew, Dnew]

= adaptacion(x, xi, s1, s1n, F, K, Kinv, M, detM, D, frmvstar,

iptworst)

xinew = [xi, x];

s1new= [s1n, s1(iptworst)];

Fnew = [F; 1, s1(iptworst),x];

kxx = 1;

Page 196: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.2. Código fuente para el cálculo de diseños D−óptimos

MR con observaciones correladas 179

knx = covstein4(s1n, s1(iptworst),xi, x)’;

Knew = [K, knx; knx’, kxx];

b = Kinv * knx; alpha = kxx - knx’ * b;

fxstar = ([1 s1(iptworst) x]’ - F’ * b) / sqrt(alpha);

Kinvnew = zeros(size(Knew));

Kinvnew(1: end - 1, 1: end - 1) = Kinv + b * b’ / alpha;

Kinvnew(1: end - 1, end) = -b / alpha;

Kinvnew(end, 1: end - 1) = Kinvnew(1: end - 1, end)’;

Kinvnew(end, end) = 1 / alpha;

dxstar = fxstar’ * D * fxstar;

drmvstar = frmvstar’ * D * frmvstar;

dxrmvstar = fxstar’ * D * frmvstar;

delta = dxstar - drmvstar - drmvstar * dxstar

+ dxrmvstar * dxrmvstar;

Mnew = M + fxstar * fxstar’ - frmvstar * frmvstar’;

detMnew = (1 + delta) * detM;

Dnew = D - D * (-(1 + dxstar) * frmvstar * frmvstar’ + ...

dxrmvstar * (frmvstar * fxstar’ + fxstar * frmvstar’) + ...

(1 - drmvstar) * fxstar * fxstar’) * D / (1 + delta);

Page 197: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

180 Apéndice

A.3. Diseño óptimo del problema de den-sificación en el caso correlado

Las Tablas A.1 – A.3 muestran el diseño óptimo conjunto para elproblema de densificación cuando existe correlación entre las obser-vaciones. (Véase sección 5.7.)

El valor del determinante de la matriz de información que se obtuvofue |M | = 5.6834 × 1014.

Page 198: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.3. Diseño óptimo del problema de densificación en el

caso correlado 181

s t s t s t s t94.89 19.80 95.29 8.50 95.33 3.32 95.37 7.3095.07 7.41 95.29 19.03 95.33 4.95 95.39 17.1695.11 2.80 95.29 12.17 95.33 12.42 95.39 19.1395.11 0.39 95.29 0.54 95.33 18.71 95.39 8.1995.15 16.92 95.29 5.84 95.33 8.37 95.39 9.7295.15 6.09 95.29 9.03 95.33 0.39 95.39 7.0695.15 12.33 95.29 9.81 95.33 8.58 95.39 6.2595.17 4.62 95.29 1.19 95.33 10.83 95.39 2.2795.20 0.00 95.31 4.06 95.33 17.07 95.39 9.5695.21 11.50 95.31 18.64 95.33 16.36 95.39 6.7295.22 15.82 95.31 10.06 95.33 12.14 95.39 2.9495.22 16.59 95.31 19.80 95.33 1.07 95.39 9.2795.23 11.25 95.31 20.00 95.33 5.43 95.40 8.0095.23 11.92 95.31 1.84 95.34 12.14 95.41 15.3995.23 15.24 95.31 12.41 95.34 1.16 95.41 14.7695.23 0.20 95.31 6.29 95.35 17.40 95.41 14.9495.24 15.09 95.32 5.46 95.35 12.22 95.41 16.7695.24 3.23 95.32 16.24 95.35 7.59 95.41 6.0695.25 9.32 95.32 12.33 95.35 13.96 95.41 12.9095.25 14.19 95.32 6.58 95.36 15.84 95.41 12.8295.25 17.20 95.32 16.30 95.36 3.98 95.41 3.4295.25 0.26 95.32 19.12 95.36 13.63 95.42 4.6295.28 10.74 95.32 16.92 95.36 3.02 95.42 17.8795.28 0.88 95.32 10.50 95.36 13.20 95.43 17.8395.28 13.60 95.32 3.79 95.36 8.69 95.43 18.4495.28 1.78 95.32 9.03 95.36 18.18 95.43 16.2695.28 17.97 95.33 9.97 95.37 4.02 95.43 0.3195.28 11.94 95.33 9.48 95.37 0.58 95.43 3.4895.28 13.40 95.33 7.13 95.37 12.31 95.43 12.5295.28 11.91 95.33 8.18 95.37 5.44 95.43 12.20

Tabla: A.1 : Diseño D–óptimo MR para el ejemplo de densificación

Page 199: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

182 Apéndice

s t s t s t s t95.43 14.03 95.53 9.09 95.64 18.17 95.74 12.4295.43 8.88 95.53 16.66 95.64 5.95 95.74 19.2595.43 1.42 95.53 7.05 95.64 9.70 95.75 11.3695.44 4.05 95.53 4.92 95.65 16.38 95.75 15.7895.44 3.87 95.54 3.53 95.66 5.79 95.75 8.8095.44 18.00 95.54 8.90 95.66 14.35 95.75 14.5595.45 11.75 95.54 12.25 95.66 16.89 95.75 5.1095.45 16.77 95.54 1.57 95.66 19.99 95.75 19.8995.45 3.76 95.55 0.32 95.67 17.86 95.75 2.7495.46 19.00 95.56 16.88 95.67 1.18 95.76 14.5495.46 8.21 95.56 6.80 95.68 0.20 95.76 0.1195.46 16.64 95.57 1.68 95.68 17.81 95.77 10.4595.47 8.11 95.58 9.02 95.69 3.80 95.77 11.6695.47 13.44 95.58 2.80 95.70 8.24 95.77 6.8295.47 13.64 95.59 7.86 95.70 7.21 95.77 13.3095.47 16.43 95.59 11.05 95.71 16.77 95.77 18.4095.47 12.60 95.60 14.05 95.71 1.86 95.77 16.4695.48 8.80 95.60 19.66 95.71 9.57 95.77 5.0595.49 7.51 95.61 6.84 95.72 10.68 95.77 4.5295.49 12.80 95.61 1.00 95.72 11.10 95.78 13.5195.49 3.50 95.61 3.82 95.72 8.45 95.78 13.7595.49 16.43 95.62 3.82 95.72 9.81 95.78 9.1595.49 3.97 95.62 3.32 95.72 6.70 95.78 12.5095.50 8.89 95.62 11.42 95.72 13.48 95.79 7.4195.50 12.08 95.63 0.33 95.73 8.90 95.79 16.0695.50 7.35 95.63 2.42 95.73 7.84 95.80 3.0795.51 18.34 95.63 10.98 95.73 13.30 95.80 6.2895.52 1.15 95.63 19.23 95.73 5.24 95.80 9.2295.52 2.29 95.64 0.71 95.74 17.31 95.81 3.1195.53 12.17 95.64 12.63 95.74 9.01 95.81 17.12

Tabla: A.2: Diseño D–óptimo MR para el ejemplo de densificación(cont.)

Page 200: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

A.3. Diseño óptimo del problema de densificación en el

caso correlado 183

s t s t s t s t s t95.83 11.34 95.93 14.32 96.03 4.28 96.09 2.39 96.26 17.4095.83 11.95 95.93 4.79 96.03 4.25 96.09 18.68 96.27 6.1995.83 8.64 95.93 6.92 96.03 17.88 96.09 15.53 96.27 12.5595.84 0.20 95.93 11.07 96.03 4.18 96.10 14.75 96.27 14.6595.84 12.69 95.95 13.00 96.03 1.01 96.10 15.21 96.28 14.6395.85 11.36 95.96 2.73 96.03 12.87 96.11 6.10 96.28 10.2795.85 13.85 95.96 10.60 96.03 16.78 96.11 19.20 96.28 1.4495.85 13.98 95.96 17.41 96.04 9.22 96.11 2.68 96.31 11.3195.85 14.80 95.96 13.98 96.04 19.80 96.11 14.70 96.32 18.1095.86 10.93 95.96 14.01 96.04 5.36 96.11 8.40 96.32 17.4795.86 15.88 95.98 17.46 96.05 3.98 96.12 5.43 96.35 20.0095.86 0.99 95.98 3.88 96.05 8.27 96.12 8.66 96.37 9.7995.87 15.07 95.98 12.04 96.05 14.07 96.12 0.24 96.37 5.0795.87 18.63 95.99 7.36 96.06 8.84 96.12 0.00 96.38 19.2595.87 14.02 96.00 19.65 96.06 17.60 96.12 3.46 96.40 16.6495.88 7.07 96.01 3.98 96.06 8.47 96.12 10.31 96.40 1.6895.88 13.86 96.01 7.60 96.07 15.88 96.13 16.10 96.44 4.6495.88 7.31 96.01 0.30 96.07 8.77 96.14 12.92 96.44 17.8195.90 1.18 96.01 17.49 96.07 18.67 96.15 5.29 96.46 11.8995.90 9.97 96.01 14.53 96.07 5.97 96.15 15.01 96.48 8.4495.90 13.67 96.01 11.83 96.07 8.31 96.16 11.38 96.57 6.9295.90 10.97 96.02 7.43 96.07 6.40 96.16 19.23 96.60 13.8995.91 15.90 96.03 19.59 96.07 12.58 96.17 13.23 96.60 15.7895.91 1.30 96.03 6.68 96.08 7.94 96.18 15.67 96.66 3.21

96.69 0.0096.73 20.00

Tabla: A.3: Diseño D–óptimo MR para el ejemplo de densificación(cont.)

Page 201: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

184 Apéndice

Page 202: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

Bibliografía

[Abr65] M. Abramowitz and I. A. Stegun. Handbook of Mathemat-ical Functions. Dover, New York, 1965.

[Abt98] M. Abt and W. J. Welch. Fisher information andmaximum-likelihood estimation of covariance parametersin gaussian stochastic processes. The Canadian Journal ofStatistics, 26(1):127–137, 1998.

[Adl05] R. J. Adler and J. E. Taylor. Random Fields and Geome-try. Birkhäuser, Boston (forthcoming), 2005.

[Ard92] R. Ardanuy and J. López Fidalgo. Optimal design withconstraint support. Revista de Matematica e Estatística,10:193–205, 1992.

[Atk92] A. C. Atkinson and A. N. Donev. Optimum ExperimentalDesigns. New York: Oxford Science Publications, 1992.

[Atw69] C. L. Atwood. Optimal and efficent designs of experiments.The Annals of Mathematical Statistics, 40(5):1570–1602,1969.

[Atw76] C. L. Atwood. Convergent design sequences, for sufficientlyregular optimality criteria. Annals of Statistics, 4:1124–1138, 1976.

[Atw80] C. L. Atwood. Convergent design sequences, for sufficientlyregular optimality criteria, II: singular case. Annals ofStatistics, 8:894–912, 1980.

185

Page 203: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

186 BIBLIOGRAFÍA

[Bal05] I. Ballesteros, J. López Fidalgo, R. Martín Martín, andB. Torsney. Construction of marginally and conditionallyrestricted designs in uranium production. Proceedings ofthe 5th Annual ENBIS Conference, Newcastle, 2005.

[Bis95] W. Bischoff. Lower bounds for the efficiency of designswith respect to the D-criterion when the observations arecorrelated. Statistics, 27:27–44, 1995.

[Bri80] U.N. Brimkulov, G.K. Krug, and V.L. Savanov. Numer-ical construction of exact experimental designs when themeasurements are correlated (in russian). Zavodskaya Lab-oratoria (Industrial Laboratory), 36:435–442, 1980.

[Cal83] H. I. Calvete. Diseño óptimo de experimentos: Diseñosmarginalmente restringidos. Tesis doctoral, Faculdad deCiencias, Universidad de Zaragoza, 1983.

[Che53] H. Chernoff. Locally optimal designs for estimating param-eters. The Annals of Mathematical Statistics, 24:586–602,1953.

[Coo80] R. D. Cook and L. A. Thibodeau. Marginally restrictedD–optimal designs. Journal of the American StatisticalAssociation, 75:366–371, 1980.

[Coo95] D. Cook and V. Fedorov. Constrained optimization ofexperimental design. Statistics, 26:129–178, 1995.

[Cre93] N. Cressie. Statistics for Spatial Data. Revised edition.Wiley, New York., 1993.

[Cur91] C. Currin, T.J. Mitchell, M.D. Morris, and K. Ylvisak-er. Bayesian prediction of deterministic functions, withapplications to the design and analysis of computer exper-iments. J. Amer. Statist. Ass., 86:953–963, 1991.

[Dem77] A.P. Dempster, N.M. Laird, and D.B. Rubin. Maximumlikelihood from incomplete data via the EM algorithm.

Page 204: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

BIBLIOGRAFÍA 187

Journal of the Royal Statistical Socitety, Ser B, 39:1–38,1977.

[Dob83] A.J. Dobson. An Introduction to Statistical Modelling.Chapman and Hall, London, 1983.

[Elf52] G. Elfving. Optimum allocation in linear regression theory.The Annals of Mathematical Statistics, 23:255–262, 1952.

[Fed72] V. V. Fedorov. Theory of optimal experiments. New York:Academic Press, 1972.

[Fed88] V. V. Fedorov and A. Atkinson. The optimum design ofexperiments in the presence of uncontrolled variability andprior information. Dodge Y., Fedorov V. V. y Wynn H.P. (eds.), Optimal Designs and Analysis of Experiments,Amsterdam: North–Holland, 1988.

[Fed97] V. V. Fedorov and P. Hackl. Model-Oriented Design of Ex-periments. Lect. Notes in Statistics: Springer-Verlag NewYork, Inc., 1997.

[Fed04] V. V. Fedorov and S. Leonov. Optimal designs for regres-sion models with forced measurements at baseline. MODA7 – Advances in model-oriented design and analysis. Con-trib. Statist., Physica, Heidelberg, páginas 61–69, 2004.

[Fel74] J. Fellman. On the allocation of linear observations.Commentationes Physico–Matematicae, Helsinki, 44:27–78, 1974.

[For92] I. Ford, B. Torsney, and C. F. J. Wu. The use of canonicalform in the construction of locally optimal designs for non-linear problems. J. Roy. Satist. Soc. Ser., B54:569–583,1992.

[Gar02] S. Garcet Rodríguez. Diseño óptimo de experimentos convariables no controlables. Tesis doctoral, Facultad de Cien-cias, Universidad de Salamanca, 2002.

Page 205: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

188 BIBLIOGRAFÍA

[Gne02] T. Gneiting. Nonseparable, stationary covariance func-tions for space–time data. J. Amer. Statist. Ass., 97:590–600, 2002.

[Gup85] R. Gupta and R. Richards. Testing optimality of experi-mental desings for a regression model with random varia-bles. Journal of Statistical Planning and Inference, 11:75–80, 1985.

[Hac95] P. Hackl. Optimal designs for experiments with potentiallyfailing trials. MODA 4: Advances in Model-Oriented Da-ta Analysis.Physica Verlag, Heidelberg., páginas 117–124,1995.

[Han94] M. S. Handcock and J. R. Wallis. An approach to statisti-cal spatial-temporal modeling of meteorological fields. J.Amer. Statist. Ass., 89:368–378, 1994.

[Har74] D. A. Harville. Nearly optimal allocation of experimen-tal units using observed covariate values. Technometrics,16:589–599, 1974.

[Her76] A. M. Herzberg and D. F. Andrews. Some considerationsin the optimal design of experiments in non-optimal situ-ations. J. Roy. Statist. Soc. Ser. B, 38:284–289, 1976.

[Hoe58] P. G. Hoel. Efficiency problems in polynomial estimation.The Annals of Mathematicl Statistics, 35:1553–1560, 1958.

[Hua93] M. N. L. Huang and M. C. Hsu. Marginally restrictedlinear–optimal designs. Journal of Statistical Planning andInference, 35:251–266, 1993.

[Hua95] M. N. L. Huang and M. N. Chang. Marginally restrictedconstrained optimal designs. Sankhyà: The Indian Journalof Statistics, B57(1):128–145, 1995.

[Imh01] L. Imhof, J. Lopez Fidalgo, and W. K. Wong. Efficienciesof optimal approximate designs for small samples. Statis-tica Neerlandica, 55:301–318, 2001.

Page 206: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

BIBLIOGRAFÍA 189

[Kar66] S. Karlin and W. Studden. Optimal experimental designs.The Annals of Mathematical Statistics, 37:783–810, 1966.

[Kie59a] J. Kiefer. Optimum experimental designs. Journal RoyalStatistical Society, Ser.B(21):272–319, 1959.

[Kie59b] J. Kiefer and J. Wolfowitz. Optimum design in regressionproblems. The Annals of Mathematical Statistics, 30:271–294, 1959.

[Kie60] J. Kiefer. Optimum experimental designs V, with appli-cations to systematic and rotatable designs. Proc. FourthBerkeley Symp. Math. Statisti. Prob., 1:381–405, 1960.

[Kie61] J. Kiefer. Optimum designs in regression problems, II. TheAnnals of Mathematical Statistics, 32:298–325, 1961.

[Kie74] J. Kiefer. General equivalence theory for optimum designs(aproximate theory). The Annals of Statistics, 2:848–879,1974.

[Kie76] J. Kiefer and W. J. Studden. Optimal design for largedegree polynomial regression. The Annals of Statistics,4(6):1113–1123, 1976.

[Lóp98] J. López Fidalgo and J. M. Rodríguez Díaz. Characteristicpolynomial criteria in optimal experimental design. MO-DA 5 Advanced in Model-Oriented Data Analysis and Ex-perimental Design.,Physica-Verlag, páginas 31–38, 1998.

[Lóp04a] J. López Fidalgo and S. Garcet Rodríguez. Optimal ex-perimental designs when some independent variables arenot subject to control. J. American Statistical Association,99(468):1190–1199, 2004.

[Lóp04b] J. López Fidalgo and R. Martín Martín. Diseños D-óptimos marginalmente restringidos en modelos de regre-sión lineal. Actas del XXVIII Congreso Nacional de Es-tadística, Investigación Operativa, Cádiz, 2004.

Page 207: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

190 BIBLIOGRAFÍA

[Lóp04c] J. López Fidalgo, J. M. Rodríguez Díaz, G. Sánchez, andM. T. Santos Martín. Optimal design for compartmentalmodels with correlated observations. Journal of AppliedStatistics (in press), 2004.

[Lóp04d] J. López Fidalgo and J.M. Rodríguez Díaz. Elfvingmethod for computing c-optimal designs in more than twodimensions. Metrika, 59:235–244, 2004.

[Lóp05] J. López Fidalgo and R. Martín Martín. Marginally re-stricted D-optimal designs for linear regression models.Proceedings of the 25th European Meeting of Statisticians,Oslo, 2005.

[Mü99] W.G. Müller and A. Pázman. An algorithm for the compu-tation of opitmum designs under a given covariance struc-ture. Comput. Statistics, 14, 1999.

[Mü03] W.G. Müller and A. Pazman. Measures for designs in ex-periments with correlated errors. Biometrika, 90(2), 2003.

[Mü04] W.G. Müller and M. Stehlík. An example of D-optimaldesigns in the case of correlated errors. COMPSTAT2004Proceedings, Springer, páginas 1519–1526, 2004.

[Man00] S. Mandal and B. Torsney. Algorithms for the con-struction of optimizing distributions. Communications inStatistics - Theory and Methods, 29:1219–1231, 2000.

[Man06] S. Mandal and B. Torsney. Construction of optimal de-signs using a clustering approach. J. Stat. Planning andInference, 136(3):1120–1134, 2006.

[Mat86] B. Matérn. Spatial Variation. 2nd edition. Springer,Berlin, 1986.

[Nac89] C. J. Nachtsheim. On the design of experiments in thepresence of fix covariates. Journal of Statistical Planningand Inference, 22:203–212, 1989.

Page 208: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

BIBLIOGRAFÍA 191

[Paz86] A. Pazman. Foundations of optimum experimental design.D. Reidel publishing company, Dordrecht, 1986.

[Paz98] A. Pazman and W.G. Müller. A new interpretation ofdesign measures. MODA5, Physica Verlag, páginas 239–246, 1998.

[Paz04] A. Pazman. Correlated optimum design with parametrizedcovariance function: Justification of the use of the Fisherinformation matrix and of the method of virtual noise. Re-port #5 of the Research Report Series of the Department ofStatistics and Mathematics, Wirtschaftsuniversität Wien,Austria, 2004.

[Pro02] L. Pronzato. Information matrices with random regressors.application to experimental design. Journal of StatisticalPlanning and Inference, 108:189–200, 2002.

[Puk93] F. Pukelsheim. Optimal Design of Experiments. John Wi-ley and Sons, New York, 1993.

[Roc72] R. T. Rockafellar. Convex analysis. New Jersey: PrincetonUniversity Press., 1972.

[Rod99] C. Rodríguez and I. M. Torreblanca. Diseño óptimo deexperimentos para modelos de regresión. Universidad deAlmería, Servicio de publicaciones, Almería, 1999.

[Rod00] J. M. Rodríguez Díaz. Criterios Característicos en Dise-ño Óptimo de Experimentos. Tesis doctoral, Facultad deCiencias, Universidad de Salamanca, 2000.

[Sah00] M. Sahm and R. Schwabe. A note on optimal boundeddesigns. Atkinson, A., Bogacka, B. y Zhigljavsky A. (eds.),Optimun Design 2000, Dordrecht: Kluwer, páginas 131–140, 2000.

[Sch96] R. Schwabe. Optimun Design for Multi–Factor Models.New York: Springer–Verlag, 1996.

Page 209: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

192 BIBLIOGRAFÍA

[Sch04] R. Schwabe and W.K. Wong. A relationship betweenefficiencies of Marginal Designs and the product design.Metrika, 45(3):253–257, 2004.

[Sil78] S. D. Silvey, D. M. Titterington, and B. Torsney. An algo-rithm for optimal designs on a finite design space. Com-munications in Statistics, A, 14:1379–1389, 1778.

[Sil73] S. D. Silvey and D. M. Titterington. A geometric aproachto optimal design theory. Biometrika, 60(1):21–32, 1973.

[Sil80] S. D. Silvey. Optimal Design. London: Chapman and Hall,1980.

[Sit93] R.R. Sitter and C.F.J. Wu. Optimal designs for binaryresponse experiments: Fieller, D and A criteria. Scand. J.Statisti., 20:329–341, 1993.

[Sit95] R.R. Sitter and B. Torsney. D-optimal designs for general-ized lineal models. Proceedings of MODA4-Model OrientedData Analysis, páginas 87–102, 1995.

[Sme99] G.W. Smetana. Preoperative pulmonary evaluation. En-gineering Journal of Medicine, 140:937–944, 1999.

[Smi18] K. Smith. On the standard deviations of adjusted andinterpolated values of an observed polynomial function andits constants and the guidance they give towards a propercoice of the distribution observations. Biometrika, 12:1–85,1918.

[Ste04] M. Stehlík. Further aspects on an example of D-optimaldesigns in the case of correlated errors. Research Re-port Series / Department of Statistics and Mathematics,Nr.1, University of Economics and Business Administra-tion Viena, 2004.

[Ste05a] M. Stehlík, J. M. Rodríguez Díaz, W.G. Müller, andJ. López Fidalgo. Optimal allocation of bioasseys in the

Page 210: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

BIBLIOGRAFÍA 193

case of parametrized covariance functions: an applicationto lung’s retention of radioactive particles. Test (in press),2005.

[Ste05b] M. L. Stein. Space–time covariance functions. J. Amer.Statist. Ass., 100:310–321, 2005.

[Sze39] G. Szego. Orthogonal Polynomials. American Mathemat-ical Society providence, Rhoe Island, 1939.

[Tit76] D. M. Titterington. Algorithms for computing D-optimaldesigns on a finite design space. Conference on Informa-tion Sciencies and Systems, Dept. Elect. Eng., Johns Hop-kins Univ. Baltimore, MD:213–216, 1976.

[Tor77] B. Torsney. Contribution to discussion of “maximum like-lihood estimation via the EM algorithm” by Dempster etal. J. Roy. Statist. Soc., B, 39:26–27, 1977.

[Tor83] B. Torsney. A moment inequality and monotonicity of analgorithm. Proc. of the Internat. Symp. on SemiInfiniteProg. and Appl. (Edited by Kortanek, K.O. and Fiacco,A. V.) at the Univ. of Texas, Asutin. Lecture Notes inEcon. and Math. Sys., 215:249–260, 1983.

[Tor88] B. Torsney. Computing optimizing distributions with ap-plications in designs estimation and image processing. Op-timal Design and Analysis of Experiments. Editors: Y.Dodge, V.V. Fedorov and H.P. Wynn. North Holland,páginas 361–370, 1988.

[Tor92] B. Torsney and A.M. Alahmadi. Further development ofalgorithms for constructing optimizing distributions. Mod-el oriented data analysis, Proc. 2nd IIASA Workshop in St.Kyrik, Bulgaria, Physica-Verlag, páginas 121–129, 1992.

[Tor93] B. Torsney and A.K. Musrati. On the construction ofoptimal designs with aplications to binary response and to

Page 211: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

194 BIBLIOGRAFÍA

weighted regression models. Proceedings of the 3rd ModelOriented Data Analysis Workshop in Petrodvorets, Russia,páginas 37–52, 1993.

[Tor01] B. Torsney and S. Mandal. Construction of constrainedoptimal designs. Atkinson, A. and Bogacka, B. and Zhigl-javsky A. (eds.), Optimun Design 2000, Dordrecht: Kluw-er, páginas 141–152, 2001.

[Tus81] A. V. Tuskanov. On test of optimality of experimental de-signs for a regression model with random variables. TheoryProb. Applications, 26:173–177, 1981.

[Uci04] D. Uciński and A. C. Atkinson. Experimental design fortime-dependent models with correlated observations. Stud-ies in Nonlinear Dynamics & Econometrics, 8(2):13, 2004.

[Var01] G. Varela, R. Cordovilla, M. F. Jiménez, and N.Ñovoa.Utility of standarized exercise oximetry to predict car-diopulmonary morbidity after lung resection. EuropeanJournal of Cardio–thoracic Surgery, 19:351–354, 2001.

[Whi71] P. Whittle. Optimization under Constraints. Wiley, Lon-don, 1971.

[Whi73a] L. V. White. An extension of the general equivalencetheorem to non linear models. Biometrika, 60(2):345–348,1973.

[Whi73b] P. Whittle. Some general points in the theory of optimalexperimental design. Journal Royal Statistical Society, Ser.B, 1:123–130, 1973.

[Won95] W. K. Wong. On the equivalence of D- and G-optimal de-signs in heteroscedatisc models. Statistics and ProbabilityLetters, 25:317–321, 1995.

[Wu78] C. F. J. Wu and H. P. Wynn. The convergence of generalstep-length algorithms for regular optimum design criteria.Annals of Statistics, 6:1273–1285, 1978.

Page 212: CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS PARA MODELOS CON …

BIBLIOGRAFÍA 195

[Wyn70] H. P. Wynn. The sequential generation of D-optimumexperimental designs. The Annals of Statistics, 6(6):1273–1285, 1970.

[Wyn72] H. P. Wynn. Results in the theory and construction of D-optimum experimental design. Journal Royal StatisticalSociety, Ser. B., 34:133–147, 1972.

[Wyn75] H. P. Wynn. Simple condicions for optimum design algo-rithms. J.N. Srivastava, ed., A Survey of Statistical De-sign and Linear Models, North-Holand Publishing Compa-ny, páginas 571–579, 1975.

[Zha99] F. Zhang. Matrix Theory: Basic Results and Techniques.Springer-Verlag, New York, 1999.

[Zha04] H. Zhang. Inconsistent estimation and asymptotitcal-ly equivalent interpolations in model-based geostatistics.Journal of the American Statistical Association, (99):250–261, 2004.

[Zhu04] Z. Zhu and M. L. Stein. Spatial sampling design for pa-rameter estimation of the covariance function. (In press),2004.