memoria elvira delgado
Post on 18-Dec-2014
75 Views
Preview:
DESCRIPTION
TRANSCRIPT
Trabajo de investigación:
ANÁLISIS ESTADÍSTICO MEDIANTE
MODELOS DE EFECTOS MIXTOS
FUNCIONALES
Máster Oficial en Estadística Aplicada
Departamento de Estadística e Investigación Operativa
Universidad de Granada
Alumna: Elvira Delgado Márquez
Tutora: Dra. Dña. Mª Dolores Ruiz Medina
Curso: 2011 – 2012
Máster Oficial en Estadística Aplicada
Análisis Estadístico mediante
Modelos de Efectos Mixtos Funcionales
Trabajo de Investigación realizado por Elvira Delgado Márquez y
dirigido por la Profesora Dña. Mª Dolores Ruiz Medina
Vº Bº
Dra. Dña. Mª Dolores Ruiz Medina
Departamento de Estadística e Investigación Operativa
Universidad de Granada
Curso 2011 – 2012
Agradecimientos
Deseo comenzar la redacción de esta Memoria manifestando mi más sincero
agradecimiento a todas aquellas personas que me han apoyado en todo momento con su ánimo,
estímulo y continuo apoyo.
En primer lugar, quiero manifestar mi más profundo agradecimiento a la Dra. Dª María
Dolores Ruiz Medina, tutora del presente trabajo, por su imprescindible ayuda plasmada en cada
una de las sesiones de trabajo, y por su infatigable labor de mejora continua.
Al director de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad
de Castilla – La Mancha en Ciudad Real, el Dr. D. Jesús F. López Fidalgo, por poner a mi
disposición todos los recursos necesarios para poder llevar a cabo este proyecto y sobre todo por
creer en mí y en este proyecto.
A mis amigos y amigas del Área de Estadística e Investigación Operativa de la
Universidad de Castilla – La Mancha ya que he contado con su apoyo, tanto moral como
profesional, en todo momento y a mis vecinos de despacho Iván, Carlos y Ángela.
No puedo olvidarme de todos mis amigos y amigas, que por suerte son muchos, porque
siempre han mostrado interés por este proyecto y siempre me han animado a seguir adelante, en
especial, Irene y Antonio Jesús.
Por último, pero no por ello menos importante, a mi familia.
Índice
Introducción General __________________________________________________ 7
Capítulo 1: Bibliografía reciente sobre análisis FANOVA y modelos de efectos
mixtos con correlación temporal
1. Análisis de datos funcionales y Análisis de Componentes Principales
Funcional y Análisis Funcional de la Varianza _________________________
13
2. Análisis a partir de bases de wavelets: Estimación no paramétrica y Contraste
de significación e interacción _______________________________________
19
3. Modelos de regresión espacial heterogéneos funcionales _________________ 40
Capítulo 2: Análisis de Componentes Principales Funcional de modelos de efectos
mixtos para curvas de percepción.
1. Introducción ____________________________________________________ 47
2. Generación de curvas _____________________________________________ 50
3. Cálculo de los autovalores y autovectores empíricos _____________________ 52
4. Planteamiento del modelo funcional de efectos mixtos en términos de
proyecciones y estimación de los efectos fijos y varianza asintótica del
estimador de proyección del efecto fijo _______________________________
55
5. Análisis empírico de la sensibilidad de la metodología propuesta al orden de
truncamiento ____________________________________________________
66
Capítulo 3: Líneas abiertas
1. Diseños D – óptimos en el contexto de modelos lineales Hilbert – valuados __ 89
2. Diseño experimental D – óptimo en un contexto funcional ________________ 91
Apéndices
1. Introducción a wavelets ___________________________________________ 95
2. Espacios de Besov _______________________________________________ 100
3. Espacios de Sobolev ______________________________________________ 102
Referencias bibliográficas _______________________________________________ 105
INTRODUCCION GENERAL
En el presente trabajo se realiza un analisis estadıstico considerando modelos de efectos mixtos
funcionales. Este tipo de modelos aparecen en numerosas disciplinas de la ciencia como la medicina,
la geoestadıstica, la meteorologıa, etc, aunque la principal aplicacion se puede encontrar en la
medicina. Se han realizado numerosos estudios a partir de informacion muestral funcional haciendo
uso de modelos de efectos mixtos pudiendo destacar los trabajos desarrollados por Abramovich y
Angelini (2006), Angelini, De Canditiis y Leblanc (2003), Ruiz Medina y Salmeron (2009 y 2010),
Ruiz Medina y Espejo (2012), Ruiz Medina (2011), Ramsay y Silverman (2002, 2005), Ferraty y
Vieu (2006), etc.
En el primer capıtulo se realiza una revision sobre la bibliografıa mas relevante en relacion
con los modelos FANOVA, contemplando el caso de modelos mixtos con correlacion temporal y/o
espacial. En particular, en la primera seccion, se introduce el concepto de dato funcional y se hace
referencia a la bibliografıa base mas destacada, mencionando las referencias clasicas de Ramsay
y Silverman ([31] y [32]), Ferraty y Vieu ([24]) y Ramsay, Hooker y Graves ([30]. Debido, princi-
palmente, a 3 caracterısticas de los datos funcionales: La dimension, la correlacion y los espacios
de funciones involucrados en los valores de las variables aleatorias Hilbert-valuadas subyacentes,
hacen que los metodos clasicos estadısticaos tradicionales no puedan ser aplicados o se queden cor-
tos. Una de las tecnicas mas utilizadas en el analisis de este tipo de datos ha sido el Analisis de
Componentes Principales. En esta misma seccion, en un segundo apartado, se realiza una revision
del trabajo de Benco, Hardle y Kneip [10] en el que se desarrolla de forma detallada la aplicacion
7
de la tecnica de Componentes Principales cuando se tiene informacion muestral funcional, es decir,
cuando la muestra esta constituida por la observaciones de funciones aleatorias independientes e
identicamente distribuidas. El desarrollo de Karhunen - Loeve para procesos estocasticos propor-
ciona una herramienta optima para la descripcion de las propiedades de segundo orden de dichos
procesos. En un ultimo apartado de esta primera seccion, se justifica la necesidad de adaptar la
tecnica del Analisis de la Varianza (ANOVA) para el caso de disponer de datos funcionales dando
lugar al Analisis de la Varianza Funcional (FANOVA).
En la segunda seccion primero nos vamos a centrar en la descripcion del modelo de efectos fijos
funcionales (con parametros funcionales en el tiempo) y el ANOVA funcional para contrastes lineales
de significacion. Se establecera la metodologıa aplicada en el capıtulo 2 para el analisis estadıstico
del modelo de efectos mixtos funcional considerado en la seccion 2.2, como una alternativa a la
metodologıa de desarrollada en la seccion 2.3. En este caso partiremos del modelo de efectos fijos
funcional definido por Zoglat [44]
Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1].
Donde Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n × 1.
Yi, Yj (i 6= j) son independientes e identicamente distribuidas. β = (β1, . . . , βp)′ ∈ Lp
2 vector de
funciones cuadrado-integrables (parametros funcionales del modelo). X = (xij) es una matriz n×pcuyos elementos son numeros reales, ǫ = (ǫ1, . . . , ǫn)
′ ∈ Ln2 con ǫi, ǫj (i 6= j) son independientes
e identicamente distribuidas con operador de auto-covarianza Rǫ = E[ǫ ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j =
1, . . . , n.
En este caso, se analizara la estimacion de β ∈ L2p a traves de los dos metodos de estimacion
habituales: El Metodo de Mınimos cuadrados y el Metodo de Maxima verosimilitud.
A continuacion nos centraremos en el modelo de efecto mixtos funcional (con parametros deter-
minısticos y aleatorios funcionales en el tiempo, informacion completa, curvas), donde se estiman
los parametros del modelo y se contrasta la significacion de los efectos fijos funcionales mediante
integracion en el tiempo y suma en los tratamientos de los efectos aleatorios. Se proporciona el
contexto general teorico para el desarrollo del ejemplo analizado en el capıtulo 2 sobre curvas de
percepcion tactil.
8
En este caso estudiaremos el modelo definido por Abramovich y Angelini [2]
dYi,l(t) = mi(t)dt+ Vl(t)dt+ εWi,l(t) i = 1, . . . , r ; l = 1, . . . ,m ; t ∈ [0, 1].
Donde mi(t) son funciones de efectos fijos. Vl(t) son funciones de efectos aleatorios modeladas
como realizaciones independientes de un proceso estocastico de media cero V (t). Wi,l(t) son reali-
zaciones independientes de un proceso de Wiener clasico. Vl(t) y Wi,l(t) son independientes entre
sı.
En el ultimo apartado de esta seccion nos centraremos en el enfoque no parametrico penalizado
para cuando se tiene obsevacion parcial de las curvas o datos funcionales, aunque se conoce, por
informacion previa, la naturaleza funcional de la respuesta, o bien, que se tiene una mejor repre-
sentacion en terminos de funciones por la naturaleza del fenomeno estudiado o experimento. Se
obtiene ası una reconstruccion o estimacion de los efectos fijos y aleatorios funcionales, mediante
minimizacion del error cuadratico medio integrado. Aunque, como en la implementacion de la me-
todologıa para el calculo del estimador no parametrico se proyecta en una base de wavelets que
genera un espacio del nucleo reproductor (en el modelo de efectos mixtos coincide con el RKHS del
efecto aleatorio), se reduce el problema a la estimacion finito - dimensional, en terminos de proyec-
ciones, de los efectos fijos y aleatorios funcionales, que serıa como un enfoque pseudoparametrico.
Se tendren observaciones correlacionadas en el tiempo y heterogeneas.
Se analizara el problema de regresion no parametrico clasico con ruido aditivo considerado por
Angelini, De Canditiis y Leblanc [5]:
(ti, Yi) Yi = f(ti) + σεi donde E[εi] = 0 E[ε2i ] = 1.
Donde las εi son variables aleatorias incorreladas y (ti) es un diseno determinıstico (no necesa-
riamente regular). El valor de σ puede ser conocido o no.
El objetivo principal es estimar la funcion desconocida f en un entorno no parametrico. Este
problema se ha estudiado bajo dos conjuntos diferentes de presunciones sobre la funcion f :
1. Modelo de efectos fijos: f es considerado como una funcion determinıstica y la clase F es una
bola en un espacio de Sobolev de regularidad s.
Las observaciones, Y = (Y1, . . . , Yn)′, son independientes.
9
2. Modelo de efectos mixtos: f es de la forma
f(t) = µ(t) +√bz(t),
donde µ es una funcion determinıstica y z es un proceso estocastico. Ademas, de acuerdo a la
estructura de covarianza elegida para el proceso estocastico z, f se encontrara en un espacio
mas grande que el espacio de Sobolev considerado en el caso anterior. Las observaciones,
Y = (Y1, . . . , Yn)′, son variables correladas ya que son observaciones perturbadas de puntos
de discretizacion del proceso f .
En la ultima seccion de este capıtulo, se describe el modelo de efectos mixtos espacial, introduci-
do en Cressie y Johannesson [15], donde se considera el predictor kriging de rango fijo de proyeccion,
basado en bases ortonormales generales. Es una version espacial del modelo de la seccion 2.3, en el
caso del efecto aleatorio. En cambio, en el efecto fijo, se modeliza mediante una matriz del diseno
con un numero finito de columnas infinito - dimensionales, definidas por las localizaciones posibles
de observacion o candidatos. (Conjunto finito de covariables observables en infinitas localizaciones
espaciales). Las observaciones se consideran espacialmente correladas, bajo un modelo heterogeneo
de funcion de covarianza.
En el segundo capıtulo se va a desarrollar un estudio de simulacion, inspirado en el expe-
rimento desarrollado en el ao 2003 [37] por los profesores Essick y Spitzner de la Universidad de
Carolina del Norte, para investigar la influencia del nivel de truncamiento y del sistema ortonormal
de funciones sobre las estimaciones de proyeccion, derivadas mediante implementacion de una ver-
sion funcional del enfoque empırico bayesiano desarrollado en por M. Dolores Ugarte et al [40]. En
el experimento referido, cada uno de los 32 individuos fue expuesto de forma repetida al movimiento
de un suave, pequeno y altamente controlado pincel movido en una lınea recta sobre su cara. El
sistema de coordenadas fue cuidadosamente calibrado para que los datos de diferentes individuos
puedan ser comparados de forma directa. El pincel se movio a una velocidad constante. Tras la
exposicion ciega al estımulo, al individuo se le proporciono una imagen a tamano real de su cara
sobre la que dibujo el camino del estımulo que habıa percibido. Un lapiz digital se utilizo para
almacenar las coordenadas (x, y) de su dibujo en un intervalo de tiempo uniformemente espaciado.
Para poder obtener una representacion lo mas proxima posible a los datos que se obtuvieron en
el experimento, se han generado las curvas de las respuestas de los individuos siguiendo el siguiente
10
modelo parametrico:
X(t) = A sin(Bπt) + F sin(Gπt) +Ht
Y (t) = a+ bt
donde
A ∼ N(0,1 + 0,01 ∗Nivel; 0,01)
B ∼ N(3 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])
F ∼ N(0,1 + 0,01 ∗Nivel; 0,01)
G ∼ N(4 + 0,01 ∗Nivel; 0,01)
H ∼ N(0,2 + 0,01 ∗Nivel; 0,01)
a ∼ N(0,03 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])
b ∼ N(1 + 0,02 ∗Nivel; 0,02)
Para realizar la descomposicion en Componentes Principales Funcionales para obtener el orden
de truncamiento T para una proporcion de variabilidad explicada del 95% se utilizo la metodologıa
desarrollada en el trabajo de Benco, Hardle y Kneip [10].
Se define el modelo de efectos mixtos adecuado a la simulacion realizada y al experimento como:
(Zp)672×T = (aj,3,1, . . . , aj,3,T )′+ (m3,1, . . . m3,T )
′
= (DF )672×3(ξp)3×T + (DR)672×96(ζp)96×T + (εp)672×T
p = 1, . . . , 672.
Ası, de los datos (Zp), p = 1, . . . , 672, siguiendo la metodologıa desarrollada por Ugarte, Goicoa
y Militino [40], podemos ajustar el modelo de efectos mixtos por maxima verosimilitud restringida,
obteniendo los estimadores ξp, σζ,p, y σε,p, respectivamente de los T primeros coeficientes de Fourier
de la curva de efectos fijos, con respecto a la base de autofunciones empırica, de las curvas que
definen los efectos aleatorios para los 32 individuos analizados y de las varianzas asintoticas de los
estimadores de proyeccion de las curvas de efectos fijos, ambos con respecto a la misma base de
autofunciones empırica truncada.
En el tercer capıtulo se formularan diferentes lıneas de investigacion en el contexto de los
11
modelos lineales de efectos mixtos Hilbert - valuados. Especıficamente, la investigacion que se plan-
tea se centra especialmente en la derivacion de modelos funcionales para el analisis experimental
a partir de infinitos candidatos potencialmente observables, ası como en el problema del analisis
estadıstico de infinito posibles tratamientos, a partir de las tecnicas de diseo experimental optimo,
combinadas con la proyeccion en bases ortogonales apropiadas. En particular, se abordara la exten-
sion del planteamiento de las tecnicas de Diseo D-optimos al contexto de los modelos de efectos fijos
funcionales, formulados en terminos de curvas de efectos fijos cuyas observaciones se encuentran
correlacionadas para diferentes tratamientos.
12
CAPITULO 1: BIBLIOGRAFIA RECIENTE SOBRE ANALISIS
FANOVA Y MODELOS DE EFECTOS MIXTOS CON CORRE-
LACION TEMPORAL
1. Analisis de Datos Funcionales y Analisis de Componentes Prin-
cipales Funcional
1.1. Analisis de datos funcionales (ADF)
En los ultimos anos, los avances en la tecnologıa informatica, los modernos equipos de recolec-
cion y almacenamiento datos y los avances en los diferentes campos de la ciencia ha permitido a los
investigadores recoger y disponer de datos de alta resolucion digitalizados que representan objetos
complejos como curvas, superficies o cualquier elemento que varıa sobre un continuo (tiempo, es-
pacio, longitud de onda, probabilidad, etc.). Ejemplos de este tipo de datos son los datos recogidos
por sismografos, datos referentes a explosiones nucleares, datos sobre temperatura precipitaciones,
datos medicos (electroencefalogramas, electrocardiogramas), datos financieros, etc.
El Analisis de Datos Funcional (ADF) es la rama de la estadıstica que analiza los datos que
proporcionan informacion sobre las curvas, superficies o cualquier otra forma que cambia en un
continuo. El ADF, a pesar de ser una disciplina temprana, inicio sus pasos en la decada de los
60 del siglo XX, es una de las que mas ha avanzado en el campo de la estadıstica con multitud
13
de publicaciones y estudios. De entre toda la literatura referente a datos funcionales, es necesario
destacar como referencias basicas, los libros de Ramsay y Silverman [30] y [31] y Ferraty y Vieu [24]
tratando muchos de los problemas basicos de la estadıstica funcional. El primer libro publicado por
Ramsay y Silverman [31] tiene un caracter mas aplicado en el que se estudian soluciones a problemas
sobre conjuntos de datos concretos. Desde el punto de vista computacional hay que destacar el libro
publicado por Ramsay, Hooker y Graves [30] centrandose en los aspectos computacionales en R y
MATLAB.
En internet podemos encontrar gran cantidad de informacion referente a datos funcionales,
destacando las paginas webs mantenida por Ramsay http://www.functionaldata.org y la del grupo
de Ferrat y Vieu, http://www.lsp.ups-tls.fr/staph.
En el ADF, la unidad basica de informacion es la funcion o variable funcional. En general,
cualquier observacion que varıe en un contınuo se puede considerar como un dato funcional. Por
ejemplo, un conjunto de imagenes de alta resolucion es un ejemplo de datos funcionales en un
dominio de dos dimensiones. En la practica, estos sucesos son recogidos por maquinas que toman
muestras de una determinada variable en distintos puntos del contınuo o de los contınuos que se
consideran. En el contexto multivariante los datos provienen de la observacion de la familia aleatoria
X(tj)j=1,...,J . En analisis funcional se asume que las muestras son observaciones de una familia
continua χ = X(t); t ∈ T. El caso mas sencillo es el de una curva unidimensional, T = R pero
tambien puede ser T = R2 en imagenes, u otras expresiones para casos mas complejos.
Del libro de Ferraty y Vieu [24] extraemos la definicion de dato funcional :
Definicion 1 Una variable aleatoria χ se llama variable funcional si toma valores en un espacio
infinito dimensional (espacio funcional). Una observacion χ de χ se llama un dato funcional.
Utilizar datos funcionales conlleva unas particularidades que hacen que los metodos tradicionales
no sirvan o queden cortos. Torrecilla Noguerales [39] definio las tres caracterısticas principales que
hacen que la mayorıa de los metodos clasicos no sean adecuados al trabajar con datos funcionales:
La dimension
La dimension complica de forma considerable la obtencion de informacion ya que no podemos
trabajar con objetos infinitos. El primer problema se encuentra en la propia captura de datos ya
14
que no es posible capturar la curva integra. En este sentido los avances tecnicos palıan esta perdida
de informacion con rejillas cada vez mas finas, si bien muchas veces son necesarias tecnicas de
interpolacion, suavizado u otras para completar los datos, teniendo siempre presente que pueden
introducir mas error.
Una vez capturado el dato, ademas del procesado propio de cualquier problema (imperfeccio-
nes, outliers, etc.), la altısima dimensionalidad en la practica, e infinita en la teorıa, hacen que
haya que elegir una representacion adecuada para trabajar. El problema de la representacion es
muy importante en FDA. Una vez representado el dato se mitiga en parte el inconveniente de la
dimensionalidad, aunque al reducirla estamos perdiendo informacion y saber que informacion es la
importante (en este caso para clasificar) es un punto de discusion interesante.
La correlacion
Si la dimension genera problemas en la captura y manipulacion de los datos provocando perdidas
de informacion, la correlacion genera importantes problemas en los algoritmos clasicos a la hora
de extraer la informacion. En el caso de datos funcionales los distintos puntos de la curva estan
altısimamente correlacionados. Esta correlacion indica que habra muchos puntos muy parecidos, con
lo que introducimos redundancia al sistema. Dicha redundancia puede empeorar los resultados de un
algoritmo haciendo que no se consideren otros puntos, sobreajustando, e incluso anularlo provocando
matrices singulares, como ocurre con el discriminante lineal. Por tanto, el ADF necesitara nuevos
metodos o cambios sustanciales en algunos antiguos para poder trabajar con el problema de la alta
correlacion.
Trabajar en espacios funcionales
La propia naturaleza de los datos plantea otra dificultad. Dependiendo del espacio en el que
vivan las funciones puede que no tengamos ni siquiera una metrica, pero aun teniendola no es trivial
definir el concepto de cercanıa o de similitud entre dos funciones, incluso puede que dependiendo del
problema nos interese mas un criterio u otro. Por todo esto, tienen una gran relevancia en el ADF
la eleccion de la metrica, o semi-metrica. Ademas, en esta misma lınea, es complicado establecer
cual es el elemento central de un conjunto de funciones, o que observaciones estan en el extremo.
15
1.2. Analisis de Componentes Principales Funcional (ACPF)
El principal objetivo del Analisis de Componentes Principales Funcional (ACPF) es el mismo
que el del Analisis en Componentes Principales clasico (ACP):
Dar una representacion de los datos mediante el criterio de conservacion de la maxima varianza
en una dimension menor de forma que se pongan de manifiesto caracterısticas latentes de los datos
en crudo.
Esta representacion puede utilizarse unicamente para la visualizacion o estudio preliminar de
los datos, pero a menudo es una herramienta para otros procesos posteriores como la clasificacion
o la deteccion de outliers. Por estos motivos, el analisis de componentes principales fue uno de los
primeros metodos adaptados en el ADF, habiendo gran numero de trabajos desde la decada de los
50 estudiando sus propiedades y extendiendo sus aplicaciones.
Ramsay y Sylverman [31] dedican un capıtulo ıntegro al ACPF. Mas recientemente, Benco,
Hardle y Kneip [10] hacen un buen resumen de la tecnica de Analisis de Componentes Principales
Funcional:
Los datos provienen de observaciones de fenomenos contınuos y se puede asumir para repre-
sentar una muestra de funciones aleatorias independientes e identicamente distribuidas X1(t), . . . ,
Xn(t) ∈ L2[0, 1]. El desarrollo de Karhunen - Loeve proporciona una herramienta basica para des-
cribir la distribucion de las funciones aleatorias Xi y puede ser visto como la base teorica del ACPF.
Para v, w ∈ L2[0, 1], ası 〈v,w〉 =∫ 10 v(t)w(t)dt y ası ||.|| = 〈., .〉2 indica la usual norma L2. Con
λ1 ≥ λ2 ≥ . . . y γ1, γ2, . . . senalando los autovalores y las correspondientes autofunciones orto-
normales del operador de covarianza Γ de Xi. Se obtiene Xi = µ+∑∞
r=1 βriγr i = 1, . . . , n donde
µ = E(Xi) es la funcion media y βri = 〈Xi − µ, γr〉 son factores de carga ( factor loadings) con
E(β2ri) = λr. La estructura y dinamica de las funciones aleatorias se puede evaluar analizando las
componentes principales funcionales γr ası como la distribucion de los factores de carga ( factor
loadings). Para una muestra funcional dada, las caracterısticas desconocidas λr, γr son estimadas
por los autovalores y autofunciones del operador de covarianza empırico Γn de X1, . . . , Xn. Des-
tacar que una autofuncion γr solo si el correspondiente autovector λr tiene multiplicidad 1. Esto,
ademas, establece una condicion necesaria para cualquier inferencia basada en una componente
principal funcional estimada γr en ACPF.
16
En algunas aplicaciones importantes, un pequeno numero de componentes principales sera su-
ficiente para aproximar las funciones Xi con un alto grado de precision. De hecho, el ACPF juega
un rol mas importante en el ADF que su bien conocido analogo en analisis multivariante. Hay 2
razones principales. Primero, las distribuciones en espacio de funciones son objetos complejos y
el desarrollo de Karhunen - Loeve parece ser la unica forma factible de acceder a su estructura.
Segundo, en analisis multivariante una interpretacion considerable de componentes principales es a
menudo difıcil y tiene que estar basada en argumentos vagos concernientes a la correlacion de las
componentes principales con las variables originales. Tal problema no existe en el contexto funcio-
nal, donde γ1(t), γ2(t), . . . son funciones que representan la principal forma de variacion de Xi(t)
sobre t.
1.3. Analisis Funcional de la Varianza (FANOVA)
En los ultimos anos, la mayorıa de los progresos han sido realizados en el desarrollo de tecnicas
estadısticas para trabajar con datos funcionales. Uno de los desafıos estadısticos que surge en analisis
de datos funcionales es la comparacion entre curvas o conjuntos de curvas. Este tipo problemas
esta considerado dentro del marco del Analisis Funcional de la Varianza (FANOVA). Existe una
gran cantidad de publicaciones sobre varios ajustes de modelos FANOVA y estimacion de sus
componentes. Sin embargo, se ha prestado mucha menos atencion a la inferencia o al contraste de
hipotesis funcional.
Un enfoque algo sencillo para el contraste de modelos FANOVA realizando un conjunto de
contrastes ANOVA univariante clasico para comparar un conjunto de curvas en cada momento
especıfico provoca un serio problema de multiplicidad debido a la alto numero de contrastes si-
multaneos. Ignorando el problema de multiplicidad se llega a un error de tipo I global no controlado
mientras, por ejemplo, el conocido procedimiento de Bonferroni se obtiene una potencia muy baja.
Otro enfoque para contraste FANOVA maneja los datos funcionales como vectores multivariantes y
aplica tecnicas ANOVA tradicionales combinadas con varios procedimientos de reduccion inicial de
dimensionalidad. Sin embargo, la maldicion de la dimensionalidad hace estos intentos tambien pro-
blematicos. Fan y Li [23] propusieron un potente contraste para el contraste de hipotesis funcional
basado en los procedimientos thresholding adaptativso Neyman y wavelet de Fan [22] aplicados a
coeficientes empıricos de Fourier y wavelet de los datos. Es bien conocido que una gran variedad de
diferentes funciones tienen una amplia representacion en el dominio de Fourier y especialmente en
17
dominios wavelet que permiten reducciones significativas de la dimensionalidad de los datos funcio-
nales. Sin embargo, estos trabajos no investigan la optimalidad de los procedimientos propuestos.
Abramovich et al. [1] aplicaron asintoticamente el contraste de hipotesis funcional minimax defi-
nido por Ingster en 1982 para contraste en FANOVA de efectos fijos. En particular, adaptaron el
correspondiente procedimiento de contraste basado en wavelet de Spokoini (1996) para contrastar
una senal cero en un modelo senal + ruido blanco y mostraron su optimalidad asintotica para el
contraste en el modelo FANOVA de efectos fijos para una amplia clase de alternativas.
En varias aplicaciones los datos sobre individuos son a menudo agrupados de acuerdo a algun
factor en el que reside el interes en las diferencias entre grupos antes que entre individuos en
particular. Los individuos son tratados como efectos aleatorios asociados con una muestra dibujada
aleatoriamente de la poblacion. Esto tambien permite modelar correlaciones entre observaciones
sobre el mismo individuo, esta situacion es muy tıpica en datos longitudinales y medidas repetidas.
18
2. Analisis a partir de bases de wavelets: Estimacion no parametri-
ca y Contraste de significacion e interaccion.
2.1. Modelo de Efectos Fijos Funcional
Zoglat [44] parte del modelo de efectos fijos funcional que tiene su origen en la teorıa clasica
del Analisis de la Varianza. Las observaciones son funciones del tiempo y la ecuacion para una
observacion puede escribirse como
Y (t) = x′
β(t)+ σǫ , t ∈ [0, 1]. (1)
Donde:
x = (x1, . . . , xp)′ ∈ R
p son los pesos de la combinacion lineal de las funciones βi, i = 1, . . . , p,
que define la media
β = (β1, . . . , βp)′ ∈ Lp
2 vector de funciones cuadrado - integrables (parametros funcionales del
modelo)
ǫ error funcional.
m la funcion valor medio.
σ un escalar desconocido positivo.
Suponer que se observan n observaciones independientes de una funcion aleatoria Y de (1). En
notacion vectorial, el modelo serıa:
Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1]. (2)
Donde
Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n× 1.
Yi, Yj (i 6= j) son independientes e identicamente distribuidas.
β = (β1, . . . , βp)′ ∈ Lp
2 vector de funciones cuadrado - integrables (parametros funcionales del
modelo).
X = (xij) es una matriz n× p cuyos elementos son numeros reales.
19
β = (β1, . . . , βp)′ ∈ Lp
2 vector de funciones cuadrado - integrables (parametros funcionales del
modelo)
ǫ = (ǫ1, . . . , ǫn)′ ∈ Ln
2 donde ǫi, ǫj (i 6= j) son independientes e identicamente distribuidas con
operador de auto-covarianza Rǫ = E[ǫ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j = 1, . . . , n.
De Zoglat [44] se extrae el siguiente teorema:
Teorema 1 Sea X una variable aleatoria Gaussiana con media cero cuyos valores estan L2(S, µ),
existe una secuencia (Xk) de variables aleatorias normales independientes e identicamente distri-
buidas tales que
Xk =1√λk
〈X,ϕk〉 y X =∑
k≥1
√λkXkϕk
siendo κ el operador de covarianza de ǫ y (λk, ϕk), k ≥ 1 la secuencia de pares de autovalores -
autofunciones del operador de covarianza Tκ.
Entonces, la secuencia (ϕk)k≥1 nos permite reducir el modelo (1) a un sistema de modelos
clasicos. En particular, si ǫ es Gaussiano, esta reduccion preserva la independencia a traves de las
proyecciones de las realizaciones. Ademas, nos permite identificar las reglas de algunos estadısti-
cos.[44]
Por simplicidad en la notacion, T sera denotado como Tκ y HT denotara el cierre en L2 del
subespacio generado por (ϕk)k≥1:
HT = f ∈ L2 ; f =∑
k≥1
〈f, ϕk〉ϕk
En otras palabras, HT es el espacio de Hilbert con nucleo reproductor asociado con κ. En el
caso de un error Gaussiano, se supondra, sin perdida de generalidad, que la funcion valor media
m pertenece a HT . De hecho, cada observacion, Y es la suma de sus proyecciones en HT , YHTy
Y(HT )⊥ = Y − YHT. El error estara con seguridad en HT . Ademas, m(HT )⊥ = Y(HT )⊥ , ası, solo
sera necesario hacer inferencias sobre m(HT )⊥
2.2. Estimacion
Siguiendo la metodologıa de Zoglat [44], nos centraremos en los dos metodos utilizados de forma
mas habitual en la teorıa de estimacion:
20
1. El Metodo de Mınimos cuadrados.
2. El Metodo de Maxima verosimilitud.
El objetivo sera obtener un estimador de la funcion vectorial β ∈ Lp2, que, en particular, coincida,
para cada t ∈ [0, 1], con el estimador clasico de (β1(t), . . . , βp(t)), ası como la obtencion de contrastes
lineales sobre los parametros del modelo H0 : Kβ = C
Estimacion puntual:
Mınimos cuadrados
Maxima verosimilitud
2.2.1. Metodo de mınimos cuadrados
El metodo de mınimos cuadrados se basa en minimizar la norma cuadrada del error. En el
espacio Euclıdeo, esto se puede conseguir calculando derivadas e igualando a cero. En el caso
infinito dimensional no hay equivalencia para este procedimiento. Sin embargo, en un espacio de
Hilbert es posible aplicar el procedimiento de mınimos cuadrados.
El metodo de mınimos cuadrados consiste en encontrar β que minimice el error cuadratico
funcional en la geometrıa de Rǫ
e(β) = (Y1 − (Xβ)1, . . . , Y1 − (Xβ)n)′ .
Donde se puede observar que σ no depende de β.
Si suponemos que σ = 1, lo que hay que minimizar es
n∑
i=1
‖ei(β)‖2Rǫ=
n∑
i=1
∑
k≥1
λ2k(Y(k) −Xβ(k))′(Y(k) −Xβ(k)) =
∑
k≥1
‖e(k)(β(k))‖2n.
En caso contrario, σ 6= 1, bastarıa con dividir e(β) por σ.
Se puede demostrar que ‖ei(β)‖2Rǫse puede minimizar si y solo si, para cada k ≥ 1, la norma
Euclıdea de e(k)(β) es mınimo. Para cada k ≥ 1 fijo, la norma de e(k)(β), visto como funcion de
β(k) se minimiza como
β(k) = (X′X)−1X′Y(k).
De forma mas general, Zoglat [44] define el siguiente teorema:
21
Teorema 2 El estimador de β que minimiza ||Y − Xb||Rǫ cuando b es visto como funcion, se
define como
β = (X′X)−1X′Y
2.2.2. Metodo de maxima verosimilitud
El metodo de maxima verosimilitud es mas restrictivo que el metodo de mınimos cuadrados.
Requiere una densidad de distribucion con respecto a una medida. La medida de Lebesgue es la mas
frecuentemente usada en el modelo lineal clasico, y es eficiente bajo la suposicion de normalidad.
En el caso funcional no hay equivalencia para la medida de Lebebesgue e incluso, bajo la suposicion
de normalidad, puede no existir una densidad de distribucion.
Suponer que ǫ del modelo (2), es Gaussiano, y denotar la matriz (Xβ) de orden n × 1 por
m = (m1, . . . ,mn)′. Sean L(Y1) = ν y L(σǫ1) = µ las distribuciones de probabilidad de Y1 y σǫ1
respectivamente. Estas son 2 medidas de probabilidad Gaussianas sobre (L2,BL2).
Por lo que, segun Zoglat [44], la funcion de verosimilitud quedarıa definida como
l(m,y) = exp
−1
2
∑
j≥1
n∑
i=1
[m∗i(j)]
2 +∑
j≥1
n∑
i=1
m∗i(j)y
∗i(j)
=∏
j≥1
exp
(−σ
2λj2
[m′
(j)m(j) − 2m(j)y(j)
])
=∏
j≥1
exp
(−σ
2λj2
[β′(j)X
′Xβ(j) − 2β′(j)X
′y(j)
]).
Resaltar que para cada j ≥ 1,
β′(j)X
′Xβ(j) − 2β′(j)X
′y(j) = (y(j) −Xβ(j))′(y(j) −Xβ(j))− y′
(j)y(j).
De lo que se obtiene el siguiente teorema, extraıdo de Zoglat [44], como resultado.
Teorema 3 Vistos como una funcion de β, l(m,y), se maximiza para
β = (X′X)−1X′Y.
Es importante senalar que los dos metodos de estimacion expuestos, al igual que en el caso finito
dimensional conducen al mismo estimador de β. Sin embargo, mientras que el metodo de mınimos
cuadrados siempre es aplicable, no ocurre lo mismo con el metodo de maxima versimilitud [44]:
22
1. Al igual que en el caso finito dimensional, el metodo de mınimos cuadrados no requiere
normalidad. Ademas, no requiere que se tenga ningun tipo de conocimiento sobre la estructura
de covarianza.
2. A diferencia del caso finito dimensional, en el caso de espacios inifitos dimensionales no existe
un equivalente al la medida de Lebesgue en Rn. Sin embargo, si el error es Gaussiano esta
dificultad puede evitarse dejando que la derivada de Radon - Nikodym juegue el rol de funcion
de verosimilitud. Si el error no es Gaussiano, no es facil evitar esta dificultad.
2.3. Descomposicion de la variabilidad
Se define la suma de cuadrados del error residual como
SSE = 〈Y − Y,Y − Y〉Rǫ = 〈Y ,MY 〉Rǫ .
Donde
Y = Xβ.
〈Y ,MY 〉Rǫ puede definirse como
〈Y ,MY 〉Rǫ =
n∑
i=1
n∑
j=1
∑
k≥1
λk〈Yi, ϕk〉mij〈Yj, ϕ〉
=∑
k≥1
n∑
i=1
n∑
j=1
λk〈Yi, ϕk〉mij〈Yj, ϕ〉
=∑
k≥1
λkY′(k)MY (k).
Se define la suma de cuadrados total se puede definir como
SST = 〈Y,Y〉Rǫ
y la que la suma de cuadrados de la regresion como
SSR = SST− SSE = 〈Y,BY〉Rǫ ,
donde B = X(X′X)−1X′ es B es simetrica, idempotente y ortogonal a M.
23
Teorema 4 Suponiendo que el error ǫ es Gaussiano, se tiene que
1. Existe una secuencia ηk, k ≥ 1 de variables aleatorias independientes con distribucion χ2(r(M))
tal que σ2∑
k≥1 λ2kηk converge casi seguramente a SSE
2. Existe una secuencia de variables aleatorias ξk ∼ χ2,′(r(B), (2σ2λk)
−1µ′(k)Bµ(k)
), k ≥ 1
tales que σ2∑
k≥1 λ2kξk converge casi seguramente a SSR
3. SSE y SSR son independientes
4. El estadısticoSSE
r(M)∑
k λ2k
es un estimador insesgado y consistente de σ2
2.4. Contraste de Hipotesis lineal
Considerar la contraste de hipotesis general
H0 : Kβ = C
H1 : Kβ 6= C
Donde K es una matriz m × p y C es un vector m× 1 de funciones dadas. Suponer que K es
de rango completo, es decir rank(K) = m. Para contrastes de este tipo de hipotesis se necesita
calcular un estimador de β bajo H0. Se observa que el metodo de mınimos cuadrados restringido
proporciona el estimador β.
El metodo de mınimos cuadrados restringido se obtiene minimizando ||e(β)||2Rǫbajo la condicion
Kβ = C que equivale a
Kβ(k) −C(k) = 0 ∀k ≥ 1. (3)
Para minimizar ||e(β)||2Rǫsujeto a (3) es suficiente minimizar para cada k ≥ 1:
(Y(k) −Xβ(k))′(Y(k) −Xβ(k))
sujeto a la condicion K(k)β = C(k) = 0.
Haciendo uso de los multiplicadores de Lagrange,
β = β − (X′X)−1)K′[K(X′X)−1)K′]−1(Kβ −C). (4)
24
Senalar que rank(K) = m ≤ p = rank(X′X)−1 y rank(K(X′X)−1K′) = m.
De (4) y haciendo los mismos calculos que en el analisis de la varianza clasico, se obtiene
X(β − β) = D(Y −C∗)
donde
D = X(X′X)−1K′[K(X′X)−1K′]−1K(X′X)−1X′
C∗ = XK′(KK′)−1C.
Por lo que se definirıa el estadıstico Q = ‖X(β − β)‖2Rǫdel que se establecen las siguientes
propiedades [44]:
Teorema 5 Suponiendo que el error ǫ es Gaussiano, se tiene que
1. Existe una secuencia de variables aleatorias ξk ∼ χ2′(r(D), δk)
2. δk = (2σ2λk)−1(E(Y(k))−C∗
(k))′D(E(Y(k))−C∗
(k))
3. La serie σ2∑
k≥1 λ2kξk converge casi seguramente al estadıstico Q
4. Las variables aleatorias SSE y Q son independientes
Teorema 6 Para el contraste de H0 : Kβ = C frente H1 : Kβ 6= C a nivel α existe un test ψ que
viene dado por
ψ =
1 si SH0(Y) > C(H0, α)
0 en otro caso
1. SH0(Y) =
SSRH0− SSR si σ es conocido
(SSRH0− SSR)/SSE en otro caso
2. P SH0(Y) > C(H0, α), Kβ = C = α
25
2.5. Contraste de significacion e interaccion en modelos FANOVA de efectos
mixtos
2.5.1. Modelo FANOVA de efectos mixtos.
En esta seccion consideraremos el modelo FANOVA de efectos mixtos definido por Abramovich
y Angelini [2] y desarrollaremos la metodologıa utilizada.
El modelo que se considerara es:
dYi,l(t) = mi(t)dt+ Vl(t)dt+ εWi,l(t) i = 1, . . . , r ; l = 1, . . . ,m ; t ∈ [0, 1]. (5)
Donde
mi(t) son funciones de efectos fijos.
Vl(t) son funciones de efectos aleatorios modeladas como realizaciones independientes de un
proceso estocastico de media cero V (t).
Wi,l(t) son realizaciones independientes de un proceso de Wiener clasico.
Vl(t) y Wi,l(t) son independientes entre sı.
Siguiendo el desarrollo descrito en Antonianis [7] y [8], cada mi(t), i = 1, . . . , r en (5) admite la
siguiente descomposicion unica:
mi(t) = m0 + µ(t) + ai + γi(t) i = 1, . . . , r ; t ∈ [0, 1], (6)
donde m0 es una constante (la media global), µ(t) es cero o una funcion de t no constante (el
principal efecto fijo de t), ai es cero o una funcion de i no constante (el principal efecto mixto de
i) y γi(t) es cero o una funcion que no puede descomponerse como una suma de una funcion de i
y una funcion de t. Las componentes de la funcion (6) satisfacen las siguientes condiciones:∫ 1
0µ(t)dt = 0 ;
r∑
i=1
ai = 0
r∑
i=1
γi(t) = 0 ;
∫ 1
0γi(t)dt = 0 (7)
∀i = 1, . . . , r ; t ∈ [0, 1]
Definimos el Modelo de efectos mixtos funcional:
Xi,l(t) =dYi,l(t)
dt= mi(t) + Vl(t) + ǫ(t), i = 1, . . . r, l = 1, . . . ,m.
26
2.5.2. Contraste de Hipotesis a partir del modelo de efectos mixtos
El contraste de hipotesis de los efectos principales y las interacciones es equivalente a contrastar
las siguientes hipotesis:
H0 : µ(t) = 0 , t ∈ [0, 1] (sin tendencia global). (8)
H0 : ai = 0 , ∀i = 1, . . . , r (sin diferencias en nivel). (9)
H0 : γi = 0 , ∀i = 1, . . . , r (sin diferencias en forma). (10)
Integrando el modelo (5) con respecto a t y usando las condiciones (7) se obtiene
Y ∗i,l = m0 + ai + Vl + εξi,l , i = 1, . . . , r , l = 1, . . . ,m ,
r∑
i=1
ai = 0,
donde
Y ∗i,l =
∫ 10 dYi,l(t)
Vl =∫ 10 Vl(t)dt
ξi,l son variables aleatorias independientes N(0, 1)
Este es el modelo ANOVA de efectos mixtos clasico y contrastando (9) se puede resolver por
varias tecnicas.
Si consideramos ahora contrastar las hipotesis funcionales (8) y (10). Promediando (5)-(6) con
respecto a i y l y explotando las condiciones (7) se llega al siguiente modelos FANOVA de efectos
aleatorios
dY (t) = (m0 + µ(t))dt+ V (t)dt+ εdW (t), (11)
donde V (t) es el proceso medio de V1(t), . . . , Vm(t) y W (t) es la media de r×m procesos de Wiener
independientes clasicos.
Si definimos Yi.(t) =1
m
∑ml=1 Yi,l(t) y Wi.(t) =
1
m
∑ml=1Wi,l(t), (11) se podrıa expresar como
d(Yi.(t)− Y (t)) = (ai + γi(t))dt + εd(Wi.(t)− W (t)). (12)
Esta ultima ecuacion no involucra componentes de efectos aleatorios y para contrastar (10) se
puede hacer uso del procedimiento desarrollado por Abramovich et al. en 2004 [1] para los modelos
FANOVA de efectos fijos.
27
El conjunto alternativo
Reescribiendo el modelo FANOVA de efectos aleatorios (11) en la forma equivalente
dY (t) = (m0 + µ(t))dt+ V (t)dt+ ηdW (t), (13)
donde η =ε√rm
y W (t) es un proceso de Wiener clasico.
Se quiere comprobar la hipotesis nula (8) contra una clase de alternativas tan grande como
posible y sin especificar ninguna estructura parametrica para el conjunto alternativo. En su lugar,
solo se asume que µ(.) posee alguna propiedad de suavizado. En particular, se supone que µ(.)
pertenece a alguna bola Besov Bsp,q(M) de radio M > 0 en el intervalo unidad, donde 1 ≤ p,
q ≤ ∞, sp > 1, estrictamente hablando, el parametro s indica el numero de derivadas de la funcion,
donde su existencia se requiere en un sentido Lp mientras que el parametro adicional q proporcional
una graduacion mas final.
Por otro lado, para ser capaz de distinguir entre las dos hipotesis, µ(.) deber estar alejado del cero
en la norma L2, ||µ||2 ≥ ρ(η). Esto es una forma tıpica de restricciones en un conjunto alternativo en
el contraste no parametrico. La restriccion de suavizado limita el conjunto de alternativas mientras
que las restricciones de la norma L2 lo elimina demasiado proximo a cero.
Ası, dados los datos en (12), el contraste de hipotesis que se quiere realizar es
H0 : µ(t) = 0
H1 : µ ∈ F(ρ(η)) (14)
donde F(ρ(η)) = µ : µ ∈ Bsp,q(M),
∫µ(t) = 0 , ||µ||2 ≥ ρ(η)
2.5.3. El modelo para los efectos aleatorios
Para completar (13) es necesario especificar la distribucion del proceso estocastico V (t) que
esta definido de forma completa por la distribucion de V (t) en el modelo de efectos mixtos original
(5). En lugar de definir la distribucion de V (t) directamente, se establece la distribucion sobre los
coeficientes de su desarrollo wavelet.
Por simplicidad, Abramovich y Angenine [2] consideraron bases wavelet periodicas ortonormales
en L2[0, 1], aunque en la practica se comporten mal en las fronteras en el caso de funciones no
28
parametricas. Se elige una wavelet madre ψ de regularidad v > s y haciendo la transformada
wavelet periodica sobre (13):
Yjk = µjk + Vjk + ηξjk j ≥ −1 k = 0, . . . , 2j − 1, (15)
donde
Yjk =∫ 10 ψjk(t)dY (t)
µjk =∫ 10 mu(t)ψjk(t)dt
Vjk =∫ 10 V (t)ψjk(t)dt
ξjk son variables normales independientes N(0, 1)
Para simplificar la notacion, denotamos las funciones de escala φ(t) y ψ−10(t).
Por otro lado, el proceso, V (t) es una media de m realizaciones independientes de V (t) y en el
dominio wavelet Vjk =1
m
∑ml=1 Vjk,l donde Vjk,l =
∫ 10 Vl(t)ψjk(t)dt, l = 1, . . . ,m
Es natural suponer que a diferencia del ruido blanco completamente irregular, las realizaciones
de V (t) poseen algunas propiedades de suavizado, por ejemplo que caigan con toda seguridad dentro
de una bola de Besov. Varias funciones procedentes de espacios de Besov tiene una amplia repre-
sentacion en series wavelet y para capturar esta caracterıstica de las funciones wavelets, suponer la
siguiente distribucion sobre Vjk,l:
Vjk,l ∼ πjN(0, τ2j ) + (1− πj)δ(0) j ≥ 0 k = 0, . . . , 2j − 1 (16)
son independientes, donde 0 ≤ πj ≤ 1, δ(0) es una masa puntual en 0. Para completar el modelo
hacer uso de distribuciones imprecisas para los coeficientes de escala V−10,l, l = 1, . . . ,m. Ademas,
suponer que Vjk,l y ξjk son independientes.
De acuerdo con (16), cada Vjk,l es 0 con probabilidad 1−πj o con probabilidad πj esta distribuido
de forma normal con media 0 y varianza τ2j . La probabilidad πj es una medida de la proporcion de
coeficientes wavelet no nulos en el nivel de resolucion j mientras que la varianza τj es una medida
de sus magnitudes. Los parametros πj y τ2j son los mismos para todos los coeficientes en un nivel
de resolucion j.
Ası κ2j =rτ2jε2
=τ2jmη2
y tambien supone que lim supjk2j ≥ C < ∞ para asegurar que las
varianzas de ambas componentes aleatorias en (13) son del mismo orden.
29
De Abramovich y Angenine [2] extraemos la siguiente proposicoon:
Proposicion 1 Si los coeficientes del desarrollo wavelet de Vl(t), l = 1, . . . ,m tienen distribucion
(16). Entonces, Vl(t), l = 1, . . . ,m son realizaciones de un proceso estocastico de media cero no
estacionario (no Gaussiano) V (t) con funcion de covarianza
R(s, t) =∑
j≥0
πjτ2j
2j−1∑
k=0
ψjk(s)ψjk(t).
Se puede demostrar que la serie wavelet ψjk(t) son las autofunciones de la funcion de covarianza
R(s, t) con sus correspondientes autovalores√πj τj. En particular, si τ2j y πj decrecen de forma
exponencial, esto es τ2j = c12−aj y πj = min(1, c22
−bj), j ≥ 0 donde a, b ≥ 0 y c1, c2 > 0, el numero
esperado de coeficientes wavelet distintos de 0 sobre el j-esimo nivel es c22j(b−1).
2.5.4. Principales resultados
Un contraste φ es una funcion medible de los datos con los dos valores 0 y 1 que corresponden a
aceptar y rechazar la hipotesis nula respectivamente. Como es usual, la calidad del test φ es medible
por el error de Tipo I (Rechazar H0 cuando es cierta) y por el error de Tipo II (Aceptar H0 cuando
es falsa). La probabilidad del error de Tipo I se define como α(φ) = Pµ=0(φ = 1). Mientras que la
probabilidad del error de Tipo II para H1 no parametrica se define como
β(φ, ρ(η)) = supµ∈F(ρ(η))Pµ(φ = 0)
Para las probabilidades de error definidas de ambos tipos, la tasa de decaimiento de ρ(η) cuando
η → 0 es una medida estandar de la bondad asintotica del contraste.
De Abramovich y Angenine [2] extraemos la definicion de tasa minimax :
Definicion 2 Una secuencia ρ(η) se llama tasa minimax de contraste si ρ(η) → 0 cuando η → 0
y se cumplen las dos siguientes condiciones:
1. Para cualquier ρ′(η) = on(ρ(η)), tiene
infφn[α(φn + β(ρ
′(φn, η))] = 1− on(1)
donde on(1) es una secuencia que tiende a cero cuando η → 0
30
2. Para cualquier α > 0 y β > 0 existe una constante c > 0 y un test φ∗η tal que
α(φ∗η) ≤ α+ on(1).
β(φ∗η, cρ(η)) ≤ β + on(1).
La primera condicion establece que contrastar con una tasa mas rapida que ρ(η) es imposible
mientras que la segunda condicion garantiza que para la tasa ρ(η) existe un contraste ρ(η)∗
Contraste minimax
De Abramovich y Angenine [2] extraemos el siguiente teorema:
Teorema 7 Denotemos por ψ(t) la wavelet madre, cuya regularidad es v > s, y cuyo parametro
θ = (s, p, q,M) caracterizando la bola de espacio de Besov Bsp,q(M) es conocido, donde 1 ≤ p,
q ≤ ∞, sp > 1 y s > 1/4 para p ≥ 2. Considerar el contraste de hipotesis
H0 : µ = 0
H1 : µ ∈ F(ρ(η)) =
µ ∈ Bs
p,q(M) ,
∫µ(t)dt = 0 , ||µ||2 ≥ ρ(η)
en el modelo de efectos mixtos (21) y (24). Entonces, dado un nivel de significacion fijo α ∈(0, 1), cuando η → 0, la tasa ρ(η) del contraste
φ∗ = 1
T (Jθ) +Q(Jθ)√v20(Jθ) + ω2
0(Jθ)>z1−α
,
es ρ(η) = η4s′′/(4s′′+1)
donde
T (Jθ) =
Jθ−1∑
j=0
Sj,
Sj =2j−1∑
k=0
(Y 2jk − η2(1 + πjκ
2j )),
T (Qθ) =
Jη−1∑
j=Jθ
Sj(λi),
Sj(λj) =
2j−1∑
k=0
(Y 2jk1|Yjk| > ηλ − η2bj(λ)),
bj(λ) = E[ζ2j 1|ζj | > λ].
31
Contraste adaptativo
De Abramovich y Angenine [2] extraemos el siguiente teorema:
Teorema 8 Cuando η → 0, la tasa ρ(η) del test
φa = 1
maxjmin≤Jθ≤jmax
T (Jθ) +Q(Jθ)√v20(Jθ) + ω2
0(Jθ)
>√
2lnlnη−2
para el contraste (14) es
ρ(η) = η4s′′/(4s′′+1)(lnlnη−2)s
′/(4s′′+1).
Ademas, existe una constante c tal que α(ψa) = oη(1) y supT β(ψa, cρn) = oη(1)
2.6. Estimacion no parametrica
Se considera el problema de regresion no parametrico clasico con ruido aditivo considerado por
Angelini, De Canditiis y Leblanc [5]:
(ti, Yi) Yi = f(ti) + σεi donde E[εi] = 0 E[ε2i ] = 1. (17)
Donde las εi son variables aleatorias incorreladas y (ti) es un diseno determinıstico (no necesaria-
mente regular). El valor de σ puede ser conocido o no.
El objetivo principal es estimar la funcion desconocida f en un entorno no parametrico. Por lo
que f se supondra que pertenece a alguna clase de suavidad F . El problema (17) se ha estudiado
bajo dos conjuntos diferentes de presunciones sobre la funcion f :
1. Modelo de efectos fijos: f es considerado como una funcion determinıstica y la clase F es una
bola en un espacio de Sobolev de regularidad s. Las observaciones, Y = (Y1, . . . , Yn)′, son
independientes.
2. Modelo de efectos mixtos: f es de la forma
f(t) = µ(t) +√bz(t), (18)
donde µ es una funcion determinıstica y z es un proceso estocastico. Ademas, de acuerdo a la
estructura de covarianza elegida para el proceso estocastico z, f se encontrara en un espacio
mas grande que el espacio de Sobolev considerado en el caso anterior. Las observaciones,
32
Y = (Y1, . . . , Yn)′, son variables correladas ya que son observaciones perturbadas de puntos
de discretizacion del proceso f .
Algunos metodos basados en kernel, proyecciones ortogonales, polinomios locales, wavelet o
estimadores spline se pueden encontrar en [3, 7, 8, 20, 22, 28, 41]. Todos estos estimadores dependen
de un parametro de suavizado desconocido.
Asumiendo que f es determinıstica, Angelini, De Canditiis y Leblanc [5] proponen un estimador
lineal de f como solucion de un problema de minimizacion definido en el dominio wavelet. se
demuestra que este estimador es el mejor predictor lineal insesgado para una funcion de regresion
de efectos mixtos f dada en (18). Debido a que el coste computacional para el calculo de este
estimador es muy alto (O(n2)) y que realmente no se aprovecha de la transformada discreta wavelet
rapida, se propone un segundo estimador que es mas facil y rapido de implementar. Este nuevo
estimador sera una fina aproximacion del primero.
Cuando F es el espacio de Sobolev clasisco Hs2 [0, 1], donde s es un entero estrictamente positivo,
puede definirse como un espacio de Hilbert con nucleo reproductor.
En el trabajo de Angelini, De Canditiis y Leblanc [5] se ha imitado la aproximacion spline para
generalizar el problema de estimacion sobre un espacio de Sobolev con ındices no enteros. Cuando s
es un numero real mayor que 1/2 se establece que Hs2 [0, 1] es aun un espacio de Hilbert con nucleo
reproductor H = H0⊕H1 con un nucleo reproductor construido con bases wavelet. A continuacion
se estima f con la solucion fλ del problema de minimizacion:
mınf∈H
1
n
n∑
i=1
(Yi − f(ti))2 + λ||P1f ||2H, (19)
donde P1 es el proyector ortogonal sobre el subespacio H1
Para el problema de optimizacion, cuando λ = 0, la solucion interpolara los puntos (ti, Yi)
por una funcion de Hs con una gran norma en el espacio de Sobolev. Mientras que si se toma
λ = ∞ se llega a una solucion con una pequena norma en Hs pero aproximando muy mal la
funcion desconocida f . De esta forma, el termino λ||P1f ||2H que penaliza los detalles en el desarrollo
wavelet permite establecer un compromiso entre buena aproximacion y suavizado del estimador no
parametrico resultante.
La solucion de (19) esta dada por el siguiente teorema obtenido de Angelini, De Canditiis y
Leblanc [5]:
33
Teorema 9 Sea Φ la matriz n × 2J definida por Φi,j = ϕJ,k(ti) para cualquier i = 1, . . . , n y
k = 0, . . . , 2J−1 y Φt la matriz fila 1×2J definida por Φ1,k = ϕJ,k(t) para cualquier k = 0, . . . , 2J−1
y cualquier t ∈ [0, 1]. Ademas, Σ sera la matriz n× n definida por Σi,j = K1(ti, tj) para cualquier
i = 1, . . . , n y j = 1, . . . , n y Σt la matriz 1 × n definida por Σt,j = K1(t, tj) para cualquier
j = 1, . . . , n y cualquier t ∈ [0, 1].
El minimizador del problema (19) viene dado por:
fλ(t) =
2J−1∑
k=0
αJ,kϕJ,k(t) +
n∑
i=1
diK1ti(t)
= Φtα+Σtd,
donde
α = (αJ,0, . . . , αJ,2J−1)′ = (Φ′Σ−1Φ)−1Φ′Σ−1Y ,
d = (d1, . . . , dn)′ = Σ−1(In − Σ(Φ′Σ−1Φ)−1)Φ′Σ−1)Y ,
Σ = Σ + nλIn Y = (Y1, . . . , Yn)′.
Cabe destacar que fλ(t) se puede escribir en terminos de un desarrollo wavelet:
fλ(t) =
2J−1∑
k=0
αJ,kϕJ,k(t) +∑
j≥J
2j−1∑
k=0
βj,kψj,k(t)
βj,k =
n∑
i=1
λj diψj,k(ti)
2.6.1. Wavelets y espacios de Besov
Angelini, De Canditiis y Leblanc [5] utilizan wavelets con soporte compacto tales como wavelets
ortogonales de Daubechies.
Para la construccion de bases wavelets ortonormales de soporte compacto para L2(R), se empieza
con una pareja especial de soporte compacto conocidas como la funcion de escala, ϕ y la wavelet
ψ. El conjunto de funciones ψj,k(x) = 2j/2ψ(2jx − k), j, k ∈ Z, constituye una base ortonormal
para L2(R). Para j ∈ Z fijo, ϕj,k(x) = 2j/2ϕ(2jx − k), k ∈ Z son una base ortonormal para
un subespacio Vj ⊂ L2(R). Los espacios Vj construyen un analisis multiresolucion. Denotamos
Pif =∑
k∈Z〈f, ϕj,k〉ϕj,k la proyeccion ortogonal de f sobre el Vj .
Los wavelet de mayor suavizado no solo proporcionan bases ortonormales para L2(R), tambien
bases no condicionales para varios espacios de funciones, incluyendo espacio de Besov. Ası conside-
34
raremos bases wavelet ortonormales en el intervalo [0, 1]. Adaptar las wavelets a intervalos finitos
requiere algunas modificaciones como las descritas en [14].
De forma resumida, para J tal que 2J ≥ 2r, la construccion [14] proporciona un conjunto
finito de 2J funciones de escala, ϕJ,k y para cada j ≥ J , 2j funciones ψj,k tal que la coleccion de
estas forma un sistema ortonormal completo de L2[0, 1]. Con esta notacion, la reconstruccion de la
formula de L2[0, 1] es
f(t) =2J−1∑
k=0
αJ,kϕJ,k(t) +∑
j≥J
2j−1∑
k=0
βj,kψj,k(t), (20)
donde αJ,k =∫[0,1] f(t)ϕJ,k(t)dt, βj,k =
∫[0,1] f(t)ψj,k(t)dt y ||f ||2 =
∫[0,1] f
2(t)dt
2.6.2. Enfoque Modelos Mixtos
Los predictores lineales de los efectos mixtos desconocidos, basados en observaciones perturba-
das Y = (Y1, . . . , Yn)′ de f en los puntos del diseno t1, . . . , tn son considerados en un gran numero
de aplicaciones por su simplicidad y potencia. Ademas, algunos ejemplos son estudiados bajo la
hipotesis de modelo mixto y el modelo de regresion clasico. La comparacion de estos enfoques
muestra claramente por que los modelos mixtos son buenos en ciertas situaciones.
Aquı se estudiara el modelo (17) desde el punto de vista de los modelos mixtos. Senalar que los
datos Y son observaciones discretizadas de la trayectoria de un proceso estocastico Y (t) dado por
Yi = f(ti) + σεi t ∈ [0, 1],
donde f es de la forma (18) y ε(t), t ∈ [0, 1] es un proceso Gaussiano de media 0 con
Cov(ε(s), ε(t)) = δst.
Ademas, suponemos que µ(t) =∑2J−1
k=0 αJ,kψJ,k(t) y √b z(t), t ∈ [0, 1] es un proceso Gaus-
siano centrado con funcion de covarianza E(z(s)z(t)) = K1(s, t). Ya que∫ ∫
[0,1]2 K1(s, t)dsdt < +∞
admite el desarrollo de Karhunen - Loeve y por tanto, la siguiente representacion en media cuadrati-
ca es correcta:√b z(t) =
∑
j≥J
2j−1∑
k=0
βj,kψj,k(t), (21)
donde βj,k son independientes βj,k ∼ N(0; λj). Bajo las suposiciones hechas por (18) y (21), las
trayectorias de los procesos z(t) y f(t) pertenecen a un espacio de funciones regular.
35
Angelini, De Canditiis y Leblanc [5] demuestran que la regularidad del espacio depende de la
eleccion de la secuencia λj a traves del siguiente teorema:
Teorema 10 Sea s > 1/2 y suponer que el sistema wavelet ψjkj,k es fijo y es [s] + 1− regular.
Considerar las series estocasticas,
S(t) =∑
j geqJ
2j−1∑
k=0
βjkψjk(t)
donde βjk variables normales aleatorias independientes centradas tales que V ar[βjk] = λj. Enton-
ces, las siguientes propiedades son equivalentes:
1. Cada muestra de la serie estocastica S(t) pertenece a Bs−1/22,∞ [0, 1] casi seguramente(a.s.)
2. λj = O(2−2js)
En el enfoque por regularizacion se asume que, para la eleccion de λj = 22−2js
, la funcion f
desconocida pertenece al espacio de Sobolev Hs. En el enfoque de modelos mixtos la f desconocida
se supone que sera una muestra que pertenece casi seguramente a un gran espacio, Bs−1/22,∞ . En [14] se
demuestra que el predictor Bayesiano es exactamente fλ(t), la solucion del enfoque de regularizacion
y se encuentra en el espacio mas pequeno Hs.
A continuacion, de Angelini, De Canditiis y Leblanc [5] extraemos la definicion de BLUP (Best
Linear Unbiased Predictor), ft, para f(t) usando solo los datos observados Y . La siguiente definicion
de BLUP para una funcion f es una extension natural del caso parametrico:
Definicion 3 Un predictor f(t), basado en observaciones perturbadas (datos) Y dado en (1), es
el BLUP para f(t) el el modelo (18) si y solo si se cumplen las siguientes propiedades:
∀t ∃Lt = (l1(t), . . . , ln(t)) tal que f(t) = LtY
∀t E[ft] = µ(t)
∀t y g tal que g(t) = LtY y E[g(t)] = E[f(t)], E[f(t)− f(t)]2 ≤ E[g − f(t)]2
De los mismos autores, [5], extraemos el siguiente teorema:
Teorema 11 El BLUP para la prediccion de f(t) en el modelo (18), basado en los datos Y esta da-
do por
ft = L∗tY , (22)
36
donde el vector 1× n, L∗t toma la forma
L∗t = Φt(Φ
′M−1Φ)−1 +ΣtM−1(In − Φ(Φ′M−1Φ)−1Φ′M−1)
Φ, Φt, Σ y σt se han definido en el Teorema 11 y M = (Σ + (σ2/2)In). Ademas, con nλ = σ2/b
la siguiente identidad se mantiene
∀t ∈ [0, 1] f(t) = fλ(t) donde fλ(t) esta definido en el Teorema 11
El predictor en (22) se puede expresar de forma equivalente como
fλ(t) = Φtα+√bz(t)
donde α = (Φ′M−1Φ)−1Φ′M−1Y es el predictor mınimo cuadratico ponderado para el modelo
Y (t) = Φtα+ ε′(t) con ε
′(t) =
√bz(t) + σε(t) y
√bz(t) = ΣtM
−1(I −Φ(ΦM−1Φ)−1Φ′M−1)Y es el
predictor del efecto Gausiano centrado.
2.6.3. Solucion Wavelet aproximada
Para desarrollar el estimador aproximado fλ consideramos que f pertenece a Hs y que n = 2N .
Ademas, suponemos que existe una funcion h(t) ∈ Hs−1 y dos constantes positivas h1 y h2 tales
que 0 < h1 ≤ h(t) ≤ h2 <∞ y∫ ti+1
tih(t)dt = 1/n para cualquier i. Se define la funcion
H(t) =
∫ 1
0h(t)dt (Por definicion),
donde
H(0) = 0, H(1) = 1 y H(ti) = i/n
H(t) = t en el caso equiespaciado.
Como h es estrictamente positiva, H es invertible.
De las 3 condiciones anteriores, cuando f ∈ Hs tenemos que f H−1 ∈ Hs ( indica la
composicion de dos funciones).
h(t) esta acotada superior e inferiormente por lo que se tiene la siguiente equivalencia:
||f ||L2 ≈ ||f H||2. (23)
37
Para cualquier f ∈ L2[0, 1] el proyector ortogonal en VN es
PNf =
2N−1∑
k=0
αN,kϕN,k =
=
2J−1∑
k=0
αJ,kϕJ,k +
N−1∑
j=J
2j−1∑
k=0
βj,kψj,k(t). (24)
El proyector ortogonal empırico en VN se define para una funcion f conocida sobre un diseno
general, 0 ≤ t1 ≤ · · · ≤ tn ≤ 1 como
ΠNf =
2N−1∑
i=0
2N−1∑
k=0
f(tk+1)√n
〉ϕN,k H, ϕN,i〉
ϕN,i =
=
2N−1∑
i=0
αfN,iϕN,i =
2J−1∑
k=0
αfJ,iϕJ,i +
N−1∑
j=J
2j−1∑
k=0
βfj,kψj,k. (25)
La expresion de ΠN se simplifica cuando se aplica a una funcion conocida f sobre un diseno
equiespaciado. En este caso particular lo denotamos por ΠN y tenemos
ΠNf =
2N−1∑
i=0
f((i+ 1)/n)√n
ϕN,k.
Con esta notacion se tiene que ΠNf = PN (ΠN (f H−1) H). Bajo las condiciones usualmente
establecidas en la definicion de un analisis multiresolucion, se tienen los siguientes resultados sobre
aproximaciones finito - dimensionales en la norma L2:
||f − PNf ||2L2≤ C||f ||Hs2−2sN . (26)
||ΠNf − PNf ||2L2≤ C2−2sN . (27)
||ΠNf − PNf ||2L2≤ C2−2sN . (28)
Debido a la ortonormalidad de los sistemas wavelets, usando la expresion de H − norm en
terminos de coeficientes wavelets y la aproximacion resultante (26), (27) y (28), el problema de
minimizacion exacta (19) se puede aproximar a un termino de orden O(2−2sN ) a partir de la
siguiente ecuacion:
||ΠNY − PNf ||2L2[0,1]+ λ
∑
j,k
β2j,kλj
. (29)
38
A continuacion, usando el desarrollo PNf y ΠNY en terminos de coeficientes wavelet, minimizar
la expresion (29) con respecto a f ∈ H equivale a minimizar la expresion siguiente con respecto a
los coeficientes (αJ,k)k y (βj,k)j,k:
2J−1∑
k=0
(αJ,k + cJ,k)2 +
N−1∑
j=J
2j−1∑
k=0
[(βj,k − dj,k)
2 + λβ2j,kλj
]+ λ
∞∑
j=N
2j−1∑
k=0
β2j,kλj
,
tal expresion es mınima para los coeficientes (αJ,k)k y (βj,k) definidos por
αJ,k = cJ,k k = 0, . . . , 2J − 1,
βj,k =λj
λj + λdj,k J ≤ j ≤ N − 1 ; k = 0, . . . , 2j − 1,
βj,k = 0 j ≥ N ; k = 0, . . . , 2j − 1,
y la solucion aproximada, denotada como fλ se define como:
fλ =2J−1∑
k=0
αJ,kϕj,k +N−1∑
j=J
2j−1∑
k=0
βj,kψj,k
De Angelini, De Canditiis y Leblanc [5] extraemos el siguiente teorema:
Teorema 12 Bajo la suposicion de regularidad sobre la base wavelet, para f ∈ Hs con s > 1/2
tenemos
MISE(fλ) = E[||fλ − f ||] ≤ O(2−2Ns + λ+ 2J−N + 2−Nλ1/2s)
ademas, cuando tomamos λ = O(n(−2s)/(2s+1)
), se tiene
MISE(fλ) = O(n(−2s)/(2s+1)
).
39
3. Modelos de regresion espacial heterogeneos funcionales
3.1. Estimacion
3.1.1. Kriging: Prediccion lineal optima espacial
El predictor kriging o mejor prediccion lineal insesgada espacial (BLUP) ha sido ampliamente
aplicado en las ciencias de la tierra y del medioambiente, donde se conoce como interpolacion
optima. Dadas sus buenas propiedades en relacion con el procesamiento de la variabilidad espacial
presentada por los datos usualmente analizados en estas ciencias, la metodologıa kriging puede
producir mapas de prediccion optima a partir de datos incompletos y perturbados. En algunas
ocasiones, los datos espaciales son difıciles de obtener, en tales casos, donde la muestra es pequena,
el kriging puede aplicarse, obteniendose resultados aceptables.
Cressie y Johannesson [15] parten de un proceso real - valuado Y (s) : s ∈ D ⊂ Rd. Se
esta interesado en hacer inferencias sobre el proceso Y sobre la base de que los datos tiene medidas
de error incorporadas, es decir, son observaciones perturbadas. Por lo tanto, se considerara el
proceso Z(·) de las observaciones actuales y potenciales,
Z(s) ≡ Y (s) + ε(s), (30)
donde ε(s) : s ∈ D es un proceso espacial de ruido blanco con media 0, var[ε(s)] = σ2v(s) ∈(0,∞), s ∈ D, para σ2 > 0 y v(·) conocido.
Del proceso Z(·) solo se conocen un numero finito de localizaciones espaciales s1, . . . , sn; porlo que se define el vector de datos disponible como
Z ≡ (Z(s1), . . . , Z(sn)), (31)
Se supone que el proceso Y (·) tiene una estructura lineal media,
Y (s) = t(s)′α+ ν(s) s ∈ D, (32)
donde
t(·) ≡ (t1(·), . . . , tp(·))′ representa un proceso vector de covariables conocidas.
α ≡ (α1, . . . , αp)′ son desconocidos.
40
ν(·) es un proceso que tiene media 0 y 0 < var[ν(s)] <∞, para todo s ∈ D.
Funcion de covarianza espacial generalmente no estacionaria. Se considera que la funcion de
covarianza espacial es no homogenea:
cov[ν(u), ν(v)] ≡ C(u,v) u,v ∈ D. (33)
Definiendo ε, Y y ν de forma analoga a Z, entonces, las expresiones (30)-(33) implican el modelo
mixto lineal general,
Z = Tα+ δ δ = ν + ε, (34)
donde T es una matriz n× n de covariables (t(s1), . . . , t(sn)).
Del modelo mixto lineal general definido hay que destacar que el termino error δ esta compuesto
de dos componentes independientes de media cero, por lo que
E[δ] = 0
var[δ] = Σ ≡ (σij) =
C(sj , sj) + σ2v(sj) si i = j
C(si, sj) si i 6= j
Si definimos las variables C ≡ (C(si, sj)) y V ≡ diag(v(s1), . . . , v(sn)) entonces podemos definir
Σ como
Σ = C+ σ2V. (35)
3.1.2. Funcion de covarianza espacial
En general, la funcion de covarianza C(u,v) definida en (33) debe ser definida positiva sobre
Rd×R
d. A menudo, C(u,v) se modela como estacionaria, en tal caso debe ser una funcion definida
no negativa de u− v.
Cressie y Johannesson [15] toman un enfoque diferente y se tratara de capturar las escalas de
las dependencias espaciales a traves de un conjunto de r funciones base,
S(u) = (S1(u), . . . , Sr(u))′ u ∈ R
d, (36)
donde r es fijo.
Para cualquier matriz Kr×r definida positiva, se modelara cov[Y (u), Y (v)] de acuerdo a
C(u,v) = S(u)′KS(v) u,v ∈ Rd, (37)
41
que puede verse como una funcion definida no negativa y ası una funcion de covarianza valida.
La expresion (37) es consecuencia de escribir ν(s) = S(s)′η, s ∈ D donde η es un vector r-
dimensional con var[η] = K. Considerando que ν(·) representa el efecto aleatorio, a partir de la ecua-cion (32), se puede formular el siguiente modelo de efectos mixtos espacial: Y (s) = t(s)′β +S(s)′η,
s ∈ D que sera un modelo lineal de efectos mixtos que llamaremosmodelo de efectos mixtos espacial .
3.1.3. Kriging de rango fijo
A partir de la ecuacion (36) se puede escribir la matriz de varianzas - covarianzas teorica n×n
de Y como C = SKS′ y ası,
Σ = SKS′ + σ2V, (38)
donde
Kr×r, una matriz definida positiva desconocida.
σ2 > 0 desconocida.
Sn×r = (Sl(si)) conocida.
V diagonal, con entradas definidas por las varianzas del error de medida conocida.
Ademas,
cov[Y (s0),Z] = c(s0)′ = S(s0)
′KS′. (39)
Es decir, sobre la base del modelo (30) - (37) se puede encontrar una expresion para todos los
componentes que son necesarios en las ecuaciones kriging.
De la ecuacion (38), Σ = SKS′ + σ2V, entonces,
Σ−1 = σ−1V1/2I+ (σ−1V1/2S)K(σ−1V1/2S)′−1σ−1V1/2 = (40)
= (σ2V)−1 − (σ2V)−1SK−1 + S′(σ2V)−1S−1S′(σ2V)−1. (41)
El predictor kriging definido por Cressie y Johannesson [15] serıa
Y (s0) = t(s0)′α+ S(s0)
′KS′Σ−1(Z−Tα), (42)
donde α = (T′Σ−1T)−1T′Σ−1Z y Σ−1 esta definido en la ecuacion (41).
42
El error estandar kriging definido por Cressie y Johannesson [15] serıa
σk(s0) = S(s0)′KS(s0)− S(s0)′KS′Σ−1SKS(S0)+
+ (t(s0)−T′Σ−1SKS(S0))′(T′Σ−1T)−1(t(s0)−T′Σ−1SKS(S0))1/2. (43)
3.1.4. Ajuste de la funcion de covarianza
La estrategia adoptada por Cressie y Johannesson [15] para ajustar la funcion de covarianza
espacial es consistente con el enfoque geoestadıstico que se encuentra desarrollado en la literatura
clasica.
En este enfoque, se obtiene primero un estimador empırico para Σ, que esta basado en el metodo
de los momentos. El estimador resultante Σ esta perturbado y puede no ser definido positivo. Sin
embargo, sobre la base de una clase parametrica Σ(θ) : θ ∈ Θ donde cada miembro de la clase
es definido positivo, se elige un θ ∈ Θ tal que Σ(θ) es el mas cercano a Σ. Por ultimo, Σ(θ) se
sustituye en las ecuaciones kriging (42) y (43).
Los parametros de dependencia espacial θ se obtienen de la matriz definida positiva Kr×r y
la componente de varianza σ2 ∈ (0,∞). Estimando K y σ2 se obtienen minimizando una norma
de Frobenius entre una matriz de varianzas - covarianzas empırica y una matriz de varianzas -
covarianzas teorica.
Primero se define un estimador empırico de las varianzas y covarianzas para lo que se necesitan
los datos sin tendencia. En ausencia inicial de conocimiento de dependencia espacial, usamos el
estimador por mınimos cuadrados ordinario de α,
α ≡ (T′T)−1T′Z, (44)
para el que se define el detalle de residuo,
D(si) ≡ Z(si)− t(si)′α i = 1, . . . , n. (45)
Como en la geoestadıstica clasica, los datos se unen para el calculo del estimador de la depen-
dencia espacial por el metodo de los momentos. El numero de uniones, M , sera fijo pero mayor que
r, el numero de funciones base. Ası para estimacion y ajuste de covarianzas, una vez que los datos
han sido unidos la complejidad computacioneal no depende de n. Suponer que uj : j = 1, . . . ,M
43
donde r ≤ M ≤ n es un conjunto de localizaciones ofreciendo buena cobertura de D. El resultado
es
K = R−1Q′(ΣM − σ2V)Q(R−1)′.
3.1.5. Aplicacion
Cressie y Johannesson [15] aplicaron la tecnica del predictor kriging de rango fijo a los datos
de concentracion de Ozono en la atmosfera medida a traves del TCL (Total Column Ozone).
Los datos fueron tomados por el satelite polar Nimbus - 7 con un espectrometro cartografico
para el mapeo del total de ozono.
3.2. Regresion espacial heterogenea funcional y dinamica
De Ruiz-Medina y Espejo [34] extraemos la siguiente definicion:
Definicion 4 Un proceso espacial funcional YSARH = Y (i, j), (i, j) ∈ Z2 con valores en un
espacio de Hilbert separable H, se dice que es un proceso SARH(1) unilateral si es estacionario y
satisface la siguiente ecuacion
Yi,j = R+ L1(Yi−1,j) + L2(Yi,j−1) + L3(Yi−1,j−1) + ǫi,j, (46)
donde R ∈ H y Li ∈ H; i = 1, 2, 3, el espacio de operadores lineales acotados. ǫi,j ∈ H, es el
proceso de innovacion funcional o termino de error funcional en el modelo mixto, incorrelado con
los valores funcionales aleatorios iniciales ǫ(1, 0), ǫ(0, 1), y ǫ(0, 0) y satisfaciendo E||ǫi,j ||2H = σ2
para todo (i, j) ∈ Z2 y E[ǫi,j⊗ǫk,l] = E[ǫ|i−k|,|j−l|⊗ǫ0,0] = Cǫ|i−k|,|j−l|,ǫ0,0 para todo (i, j) y (k, l) ∈ Z
2
donde ⊗ se refiere al producto tensorial de dos funciones en H, que define un operador de Hilbert
- Schmidt en H como sigue: Para dos funciones f, g ∈ H,
f ⊗ g(h) = 〈f, h∗〉Hg
donde h∗ ∈ H es el elemento dual de h, definido del Teorema de representacion Riesz, y H∗ es el
espacio de Hilbert dual de H.
Senalar que, en la definicion anterior, el orden 1 de la familia de procesos SARH(1) introducida
hace referencia al hecho de que el valor funcional Y (i, j) interactua en el espacio con los valores
Y (i − 1, j), Y (i, j − 1) y Y (i − 1, j − 1), respectivamente correspondiente a un retardo espacial
negativo en la coordenada i, j o en ambas coordenadas espaciales i y j.
44
De la definicion anterior, y en concreto del modelo (46), el siguiente sistema de ecuaciones lineal
es satisfecho por los operadores Li, i = 1, 2, 3
R1,0 = L1R0,0 + L2R1,1 + L3R0,1,
R0,1 = L1R1,1 + L2R0,0 + L3R1,0,
R1,1 = L1R0,1 + L2R1,0 + L3R0,0, (47)
donde
R0,0 = RZi,j ,Zi,j= E[Zi,j ⊗ Zi,j ],
R1,0 = RZi+1,j ,Zi,j= E[Zi+1,j ⊗ Zi,j],
R0,1 = RZi,j+1,Zi,j= E[Zi,j+1 ⊗ Zi,j],
R1,1 = RZi+1,j+1,Zi,j= E[Zi+1,j+1 ⊗ Zi,j], (48)
con Zi,j = Yi,j −R, para todo (i, j) ∈ Z2.
Algoritmo de estimacion
Calculo de las versiones empıricas de los operadores que definen los coeficientes del sistema
lineal funcional
Proyeccion en la base de autofunciones del operador de autoco-varianza de la respuesta
Truncamiento e inversion numerica del sistema lineal finito-dimensional proyectado para ob-
tener Li, i = 1, 2, 3
Bajo condiciones muy generales, la convergencia en probabilidad de la autocovarianza empırica
y los operadores de covarianza cruzada con respecto a los teoricos se mantiene.
La estructura de dependencia mostrada por el proceso Z se define en terminos de los operadores
en (48). Los operadores Li; i = 1, 2, 3 estan involucrados en la definicion del operador de correlacion
del proceso funcional espacial Z.
La naturaleza cıclica de (47) surge de la expresion de los valores funcionales Zi+1,j, Zi,j+1 y
Zi+1,j+1 a partir de (46), en terminos de la combinacion lineal funcional de sus retardos negativos de
orden 1, involucrando los operadores Li; i = 1, 2, 3 de acuerdo a la ecuacion (46) y de la invarianza
espacial de los momentos de segundo orden del proceso de innovacion funcional ǫ definido en (46).
45
Los coeficientes del sistema de ecuaciones lineal (47) son el operador de autocovarianza y el operador
de covarianza cruzada definido en (48), es decir, este sistema se define en terminos de coeficientes
infinito - dimensionales. En la practica, el ajuste del modelo se realiza resolviendo el sistema de
ecuaciones lineal funcional (47) en terminos de los operadores de auto - covarianza empıricos
R1(i, j) = L1(i, j)R11 + L2(i, j)R12 + . . . + Lq(i, j)R1q ,
R2(i, j) = L1(i, j)R21 + L2(i, j)R22 + . . . + Lq(i, j)R2q ,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rq(i, j) = L1(i, j)Rq1 + L2(i, j)Rq2 + . . .+ Lq(i, j)Rqq ,
Algoritmo de estimacion
Calculo de las versiones empıricas de los operadores que definen los coeficientes del sistema
lineal funcional
Proyeccion en la base de autofunciones del operador de autoco-varianza de la respuesta
Truncamiento e inversion numerica del sistema lineal finito-dimensional proyectado para ob-
tener Li, i = 1, . . . , q
46
CAPITULO 2: ANALISIS DE COMPONENTES PRINCIPALES
FUNCIONAL DEMODELOS DE EFECTOS MIXTOS PARA CUR-
VAS DE PERCEPCION.
1. Introduccion
La complejidad de las percepciones provocadas por un sencillo estımulo que se mueve a traves
de la piel se ha demostrado a lo largo de los ultimos 100 anos. Hall y Donalson (1885) analizaron
por primera vez la complejidad de las percepciones provocadas por un sencillo estımulo a traves de
la piel. Para minimizar el sesgo de respuesta y otras fuentes de variabilidad intra e inter sujetos en
las medidas de la percepcion sensorial, los procedimientos psicofısicos han ignorado ampliamente
la naturaleza multidimensional y la variabilidad temporal de la percepcion.
Por ejemplo, procedimientos de eleccion forzada son normalmente utilizados en estudios de
discriminacion de la direccion y discriminacion de la velocidad. Estos procedimientos requieren que
el individuo asigne la compleja percepcion a un pequeno numero de categorıas, ninguna de las cuales
puede describir con precision la sensacion percibida. Por ejemplo, para evaluar la discriminacion de
la direccion del movimiento el estımulo se mueve a traves de la zona de prueba en dos direcciones
opuestas, que se definen antes de realizar la prueba. Tras el estımulo, el individuo debe seleccionar
una de estas dos opciones, aunque la ruta del estımulo percibido podrıa ser curvada y su direccion
sustancialmente diferente a la del estımulo como mucho en 90
47
Como segundo ejemplo, procedimientos de estimacion de la magnitud de la respuesta son utiliza-
dos normalmente para estudios en los que el individuo juzga la longitud, la direccion o la velocidad
del movimiento del estımulo. Las existencia de variaciones en la percepacion de una trayectoria
lineal son muy comunes para un estımulo en movimiento, incluso cuando se trata de una lınea
recta, y no esta claro como esto afecta a la respuesta del individuo con respecto a la distancia del
movimiento.
El caso que se va a desarrollar en este capıtulo como caso empırico es una simulacion del
experimento desarrollado primero por el profesor Sptizner en 2002 [19] y posteriormente, en el ano
2003 [37] por los profesores Essick y Spitzner de la Universidad de Carolina del Norte.
Para el estudio empırico de modelos lineales mixtos funcionales, nos hemos centrado en el
experimento de 2003 [37].
En este experimento original, cada uno de los 32 individuos fue expuesto de forma repetida al
movimiento de un suave, pequeno y altamente controlado pincel movido en una lınea recta sobre
su cara. El sistema de coordenadas fue cuidadosamente calibrado para que los datos de diferentes
individuos puedan ser comparados de forma directa. El pincel se movio a una velocidad constante.
Tras la exposicion ciega al estımulo, al individuo se le proporciono una imagen a tamano real de su
cara sobre la que dibujo el camino del estımulo que habıa percibido. Un lapiz digital se utilizo para
almacenar las coordenadas (x, y) de su dibujo en un intervalo de tiempo uniformemente espaciado.
Para cada individuo, el experimento se desarrollo a lo largo de cuatro sesiones realizadas en
dıas consecutivos. Cada sesion se dividio en 2 etapas:
Etapa 1 (Control): Con la cara lavada.
Etapa 2 (Preparado): La piel del individuo fue tratada con 4 preparados (A,B,C,D) que
afectan a la sensibilidad de la piel.
En cada una de las etapas, un pequeno pincel fue movido por un ordenador siguiendo una
trayectoria recta ascendente de 5 cm a 3 velocidades diferentes a traves de la piel de la cara. Tras
el estımulo, habiendo estado ciego a el, en cada una de las velocidades el individuo dibujo sobre
una imagen a tamano real de su cara la trayectoria seguida por el pincel 7 veces. El sistema de
coordenadas fue cuidadosamente calibrado ası que los datos de diferentes individuos pueden ser
comparados de forma directa.
48
La motivacion principal para la realizacion de este tipo de experimento es que, hasta la fecha,
la realizacion de estos estudios se ha limitado en gran medida a los metodos convencionales en los
que un individuo clasifica un estımulo (el pincel que se mueve a traves de la piel) a lo largo de un
continuo (distancia recorrida) o debe clasificar el estımulo en una de las dos categorıas definidas por
el experimentador (movimiento ascendente frente a movimiento descendente). Este es el caso del
experimento desarrollado por el profesor Spitzner en el ano 2002 [19]. Estos metodos, proporcionan
estimaciones validas de analisis de sensibilidad de los sistemas sensoriales, pero obligaron a los
individuos a la reduccion de las percepciones complejas en un numero limitado de categorıas no
describiendo con exactitud la experiencia sensorial. En contraste, las tecnicas graficas permiten
a los individuos dibujar algunos aspectos de la experiencia sensorial sin la restriccion de escalas
numericas o categorıas definidas por el experimentador.
Aunque existen otros experimentos para el estudio de modelos mixtos aplicado a datos funcio-
nales como es el caso del desarrollado por los profesores Aston, Chiou y Evans para el analisis de
tono linguıstico utilizando las Componentes Principales Funcionales en el caso de modelos mixtos
[9] o el realizado por los profesores Chiou, Muller y Wang para el estudio de las curvas de puestas
de huevos para en el caso de la mosca de la fruta [12].
La simulacion es el desarrollo de un modelo logico - matematico de un sistema, de tal forma
que se obtiene una imitacion de la operacion de un proceso de la vida real o de un sistema a traves
del tiempo. Sea realizado a mano o en una computadora, la simulacion involucra la generacion
de una historia artificial de un sistema; la observacion de esta historia mediante la manipulacion
experimental, nos ayuda a inferir las caracterısticas operacionales de tal sistema. En la definicion
anterior se citan dos pasos basicos de una simulacion:
1. Desarrollo del modelo que incluye la construccion de ecuaciones logicas representativas del
sistema y la preparacion de un programa computacional.
2. Experimentacion: Una vez que se ha validado el modelo del sistema, hay que experimentar
con el modelo para determinar como responde el sistema a cambios en los niveles de algunas
variables de entrada.
49
2. Generacion de las curvas
Ya que el objetivo es realizar una simulacion basada en el experimento llevado a cabo por los
profesores Essick y Spitzner [37], para poder obtener una representacion lo mas proxima posible a
los datos que se obtuvieron en el experimento, se han generado las curvas de las respuestas de los
individuos siguiendo el siguiente modelo parametrico:
X(t) = A sin(Bπt) + F sin(Gπt) +Ht
Y (t) = a+ bt,
donde
A ∼ N(0,1 + 0,01 ∗Nivel; 0,01)
B ∼ N(3 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])
F ∼ N(0,1 + 0,01 ∗Nivel; 0,01)
G ∼ N(4 + 0,01 ∗Nivel; 0,01)
H ∼ N(0,2 + 0,01 ∗Nivel; 0,01)
a ∼ N(0,03 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])
b ∼ N(1 + 0,02 ∗Nivel; 0,02).
Figura 1: Curvas de datos originales
-0.05 0.05 0.10 0.15 0.20 0.25 0.30
0.2
0.4
0.6
0.8
1.0
Aunque el estudio de simulacion desarrollado en este trabajo se basa en el estudio previo rea-
lizado en [37], las condiciones experimentales han sido parcialmente modificadas. Al igual que en
50
[37], se ha considerado 32 individuos, sin embargo, no se han considerado 2 etapas en la experi-
mentacion sino que hemos considerado 3 niveles de velocidad o tratamientos de los efectos fijos y 7
repeticiones del dibujo de la curva para cada individuo en cada nivel de velocidad o tratamientos
de los efectos fijos, esto tambien se considero en el experimento original.
De esta forma consideraremos 7×3×32 = 672, curvas, correspondientes a 3 modelos Gaussianos
de procesos estocasticos, los cuales son medidos en 32 individuos de forma repetida 7 veces para
cada individuo.
Es decir, para k = 1, 2, 3, al igual que en el estudio realizado en 2003 [37], cada curva esta re-
presentada colocando primero las coordenadas x y a continuacion las coordenadas y:
zkj = (xk,j ,yk,j)′ = (xk,j,1, . . . , xk,j,100, yk,j,1, . . . , yk,j,100)
′.
Utilizando la misma forma de representar los datos seleccionada en el experimento [37], para
cada curva, se han tomado 100 mediciones de cada una de las coordenadas x y de la misma
forma para la coordenada y en el intervalo [0, 1] de forma equiespaciada. Por lo que cada curva
tendra dimension 200, como matriz de datos, es decir,
Z200×672 = (z1,1, . . . , z1,7×32, z2,1, . . . , z2,7×32, z3,1, . . . , z3,7×32).
En el estudio de 2003 [37] se proponen 2 metodologıas para trabajar con los datos antes de
realizar el contraste:
1. Analisis de Componentes Principales.
2. Representacion de Fourier.
En el estudio realizado por los profesores Essick y Spitzner en 2003 se utilizo la segunda meto-
dologıa, representacion de Fourier. La forma en la que se ha tratado este experimento en nuestro
trabajo es usando el Analisis de Componentes Principales Funcional.
Siguiendo la metodologıa desarrollada por Benko, Hardle y Kneip [10] para realizar el Analisis
de Componentes Principales Funcional para una muestra, en las siguientes secciones se desarrollan
los pasos que se han seguido a partir de los datos simulados.
51
3. Calculo de los autovectores y autovalores empıricos.
Segun la metodologıa de Benko, Hardle y Kneip [10], consideraremos una muestra de funciones
X1(t), . . . , Xn(t) ∈ L2[0, 1] con media µ = E[Xi] y una funcion de covarianza continua σ(t, s) =
E[Xi(t)− µ(t)Xi(s)− µ(s)].
El desarrollo de Karhunen - Loeve proporciona una herramienta basica para la descripcion
optima de procesos de segundo orden (en el sentido del momento de orden dos), en terminos de
variables aleatorias incorreladas y autofunciones ortonormales. En particular, para λ1 ≥ λ2 ≥ . . .
los autovalores y γ1, γ2, . . . la correspondiente base ortonormal completa de autofunciones de Γ,
se obtiene
Xi = µ+∞∑
r=1
βriγr i = 1, 2, . . . ,
donde βri = 〈Xi−µ, γr〉 son factores de carga incorrelados con E[βri] = 0. E[β2ri] = λr y E[βriβki] =
0 para r 6= k.
Para realizar la descomposicion en Componentes Principales Funcionales haciendo uso del desa-
rrollo de Karhunen - Loeve para procesos de segundo orden es necesario eliminar la tendencia de
las curvas antes de calcular las matrices de covarianzas empıricas ya que dicho desarrollo se deriva
sobre procesos o curvas aleatorias con media 0.
Para k = 1, 2, 3, calcular las curvas medias
(Mk)200×1 =((Xk)
′1×100, (Yk)
′1×100
)′200×1
.
Ası,
Xk(t) =1
7× 32
7×32∑
i=1
Xjk(t), t = 1, . . . , 100; k = 1, 2, 3,
donde (Xk)100×1 tiene entradas Xk(t), t = 1, . . . , 100, (Xjk)100×1 indica la componente X (las
primeras 100 entradas) de la j-esima curva generada bajo el modelo k (nivel del efecto fijo), y
Xjk(t) indica su valor en el instante t para la componente X de la j-esima curva generada bajo el
modelo k.
Y k(t) =1
7× 32
7×32∑
i=1
Yjk(t), t = 1, . . . 100; , k = 1, 2, 3,
donde (Yk)100×1 tiene entradas Y k(t), t = 1, . . . , 100, (Yjk)100×1 indica la componente Y (las
100 segundas entradas) de la j-esima curva generada bajo el modelo k (nivel del efecto fijo), y
52
Yjk(t) indica su valor en el instante t para la componente Y de la j-esima curva generada bajo el
modelo k.
Seguidamente se calcula el operador de covarianza empırico
RZk=
1
7× 32
7×32∑
j=1
Zjk ⊗ Zjk, k = 1, 2, 3,
donde
(Zjk)200×1 = (X′jk,Y
′jk)
′ −Mk, k = 1, 2, 3.
A continuacion, habra que calcular la descomposicion espectral en autovalores (λlk, l ∈ N)y autovectores (φlk, l ∈ N) del operador de covarianza empırico RZk
, for k = 1, 2, 3. De esta
forma obtenemos 200 autovalores empıricos λk,j, j = 1, . . . , 200, para k = 1, 2, 3, y sus autovectores
(autofunciones) asociados φk,j, j = 1, . . . , 200, de dimension 200 × 1. Es decir,
φk,j = (φk,j,1, . . . , φk,j,200)′, j = 1, . . . , 200, k = 1, 2, 3.
Dada una muestra de tamano n, se puede construir un analogo empırico usando los autovalores
λ1 ≥ λ2, . . . , λn y las autofunciones ortormales γ1 ≥ γ2, . . . , γn del operador de covarianza empırico
Γn. Por lo que
Xi = X +
∞∑
r=1
βriγr i = 1, 2, . . . , n,
donde βri = 〈Xi − X, γr〉.
El objetivo principal al realizar esta descomposicion es eliminar la estructura de correlacion
entre cada una de las componentes de cada una de las curvas.
Una vez que se ha calculado la descomposicion en autovalores y autofunciones y que estos han
sido ordenados de mayor a menor, sera necesario conocer el numero de componentes principales
que habra que seleccionar, es lo que se va a llamar Truncamiento (T). Para seleccionar un orden
de truncamiento T adecuado, se escogera el correspondiente a un porcentaje P de variabilidad
explicada empırica. Es decir,
P =λ1k + · · ·+ λTk
λ1k + · · ·+ λ200k, k = 1, 2, 3.
En nuestra simulacion, se ha seleccionado P = 95%. Por lo que el numero de componentes
principales seleccionadas sera T = 5.
53
Cuadro 1: Porcentaje de Variabilidad explicada por cada una de las Componentes Principales bajo
los tres niveles de velocidad considerados
Nivel de Velocidad C.P. 1 C.P. 2 C.P. 3 C.P. 4 C.P. 5 C.P. 6 C.P. 7
Primer nivel 58.7296% 74.4277% 87.9715% 94.7925% 99.3907% 99.9822% 100%
Segundo nivel 63.559% 76.8406% 89.1497% 94.5256% 99.2601% 99.9738% 100%
Tercer nivel 62.2447% 77.1164% 88.2063% 94.6504% 99.2242% 99.9764% 100%
Figura 2: Curvas de las Componentes Principales
Existe una gran cantidad de bibliografıa referente a la aplicacion de la metodologıa del Analisis
de Componentes Principales Funcional. Ası es el caso de estudio realizado por los profesores Zi-
punnikov, V; Caffoy, B.S.; Yousemz, D.M.; Davatzikos, C.; Schwartzyy, B.S.; Crainiceanu [43] que
aplicaron esta tecnica en imagenes del cerebro de alta dimension.
54
4. Planteamiento del modelo funcional de efectos mixtos en termi-
nos de proyecciones y estimacion de los efectos fijos y varianza
asintotica del estimador de proyeccion del efecto fijo.
4.1. Descripcion de la tecnica utilizada
Ugarte, Goicoa y Militino [40] emplearon un enfoque Bayesiano empıco y un enfoque Bayesiano
completo para el problema de detectar areas de alto riesgo en el cartografiado de enfermedades.
Los estudios para el cartografiado de enfermedades son muy utiles para mostrar patrones de una
enfermedad. Tradicionalmente, tasas de riesgo tales como los ratios de mortalidad estandarizados,
han sido comunmente utilizados para este proposito. Sin embargo, estas medidas son altamen-
te variables para pequenas areas o enfermedades raras por lo que no son seguras. Una solucion
a estos problemas viene del uso de modelos de suavizado de las estimaciones del riesgo relativo.
La estimacion del riesgo relativo, tradicionalmente implica Modelos Mixtos Lineales Generalizados
(GLMM), que implica la prediccion de los efectos aleatorios que representan los riesgos relativos.
La estimacion por Maxima Verosimilitud para GLMM con recuentos normalmente requiere inte-
gracion numerica, y la tecnica de cuasi - versosimilitud penalizada (PQL), una aproximacion de
Laplace para la cuasi - verosimilitud puede reducir el problema a una serie de regresiones mınimo
cuadraticas ponderadas. La tecnica PQL es sencilla desde el punto de vista computacional y tiene
pocos problemas de convergencia. Existe gran cantidad de bibliografıa referente a esta tecnica.
4.2. Modelo de efectos mixtos funcional proyectado
De forma general, un modelo de efectos mixtos esta formado por 2 partes:
1. Parte determinıstica: Formada por los efectos fijos.
2. Parte aleatoria: Es la que determina la correlacion temporal. Esta puede ser descompuesta a
su vez en dos subpartes:
a) Efectos aleatorios: Recoge la parte aleatoria mas importante del modelo.
b) Residuo del truncamiento: Recoge la parte aleatoria menos importante del modelo.
55
En nuestro caso, la parte determinıstica estara formada por cada uno de los niveles de velocidad
o tratamientos de los efectos fijos k = 1, 2, 3 mientras que la parte aleatoria estara representado
por cada uno de los 32 individuos que fueron sometidos al experimento.
Antes de poder trabajar con el modelo seleccionado sera necesario calcular las proyecciones de
cada una de las curvas de datos en la base de autofunciones calculada. Es decir, para k = 1, 2, 3,
indicando por Φk, la matriz 200 × 200 con columnas dadas por los autovectores de RZkpara
k = 1, 2, 3, y j = 1, . . . , 7 × 32, y por (Zjk) el vector de coordenadas de la j-esima curva tras
eliminar la tendencia a los datos originales, calcular
(Zjk)′Φk = (aj,k,1, . . . , aj,k,200).
Cada uno de los elementos aj,k,l con j = 1, . . . , 7 × 32, k = 1, 2, 3, l = 1, . . . , 200 definiran
los coeficientes de Fourier de la j-esima curva de datos con respecto a la correspondiente base de
autofunciones empırica ortogonal.
Calcular, para k = 1, 2, 3, y l = 1, . . . , 32,
(Mk)′Φl = (mk,l,1, . . . mk,l,200),
que seran los coeficientes de Fourier de las curvas medias con respecto a la base de autofunciones
ortogonales empırica.
Se obtiene entonces el siguiente modelo de observacion proyectado:
Z = (Zjk)′Φk + (Mk)
′Φk = (aj,k,1, . . . , aj,k,T )
′+ (mk,1, . . . mk,T )
′
Se define el modelo de efectos mixtos adecuado a la simulacion realizada y al experimento como:
(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )
′
= (DF )672×3(ξp)3×T + (DR)672×96(ζp)96×T + (εp)672×T , (49)
p = 1, . . . , 672, j = 1, . . . , 7× 32, y k = 1, 2, 3.
Ası, de los datos (Zp), p = 1, . . . , 672, siguiendo la metodologıa desarrollada por Ugarte, Goicoa
y Militino [40], podemos ajustar el modelo de efectos mixtos (49) por maxima verosimilitud restrin-
gida, obteniendo los estimadores ξp, σζ,p, y σε,p, respectivamente de los T primeros coeficientes de
Fourier de la curva de efectos fijos, con respecto a la base de autofunciones empırica, de la varianza
de los T coeficientes de Fourier aleatorios incorrelados del efecto aleatorio funcional.
56
La estimacion de los efectos fijos ξ se obtiene como ξ = (D′FV
−1DF)−1D′
FV−1Z con varian-
za asintotica (DFV−1D′
F )−1 y V = DRΣD′
R +W−1, W = diagµi. Los efectos aleatorios se
estiman como ζ = ΣD′RV
−1(Zp −DFξ), ε ∼ N(0; W−1).
Tras la implementacion y ejecucion del algoritmo considerando las siguientes matrices del diseno
para los efectos fijos y aleatorios se obtienen los siguientes resultados:
(DF )672×3 =
1 0 0... 0 0
1 0 0
0 1 0...
... 0
0 1 0
0 0 1...
......
0 0 1
(ξp)3×T =
−0,1511 −0,1348 −0,1164 0,0298 4,1087
−0,1557 −0,1339 −0,1182 0,0324 4,1110
−0,1537 −0,1321 −0,1158 0,0297 4,1103
57
(DR)672×96 =
1 0...
......
......
......
......
... . . .... 0
......
......
......
......
...... . . .
1 0...
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
...... 0
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
0 0 0 1...
......
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 1...
......
......
......
... . . .
0 0 0 0 1...
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 1...
......
......
...... . . .
0 0 0 0 0 1...
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 1...
......
......
... . . .
0 0 0 0 0 0 1...
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 1...
......
...... . . .
0 0 0 0 0 0 0 1...
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 1...
......
... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
.... . .
58
(ζp)96×T =
−0,8712 0,2475 −0,4192 −0,5377 −0,0455
−0,0308 −0,2052 0,4338 0,0503 −0,0102
0,1075 1,0374 −0,0716 −0,0637 0,0858
−0,2881 −0,4000 −0,0951 0,0232 −0,0198
−0,0602 0,0012 −0,8194 0,1083 0,0312
−0,0900 −0,6628 −0,4830 0,4763 0,0809
0,8191 0,3931 −0,3150 −0,3001 −0,0494
−0,1262 0,3290 0,3610 −0,2591 0,0211
−0,4466 0,2813 −0,9206 0,0938 0,0845
−0,1483 0,2440 −0,1161 −0,4175 −0,0845
0,8889 −0,4357 0,6114 0,5809 −0,0392
−0,1299 −0,1792 0,1091 0,3814 0,0376
0,2497 −0,3538 −0,2868 −0,3465 −0,0704
0,0521 −0,4342 0,1599 0,8026 0,0079
−0,5109 0,3521 0,1125 0,3277 0,0212
−0,1741 −0,0535 −0,3507 0,2986 −0,0742
0,9000 0,0703 −0,5094 −0,2498 −0,0009
−0,7923 −0,0622 0,4482 −0,2081 0,0556
−0,1458 −0,2030 0,6294 0,1063 −0,0559
0,1909 −0,3446 0,0692 −0,0870 −0,0075
0,1744 −0,3403 −0,0847 −0,9988 0,0273
−0,1120 −0,6822 −0,6192 0,3520 −0,0572
0,0276 0,0266 −0,6575 −0,3051 −0,0421
0,0626 −0,0166 0,1675 0,1235 0,0193
0,5087 −0,0494 0,0800 0,1843 −0,0453
−0,5666 1,4215 0,6384 0,2143 0,0031
0,4638 −0,0282 1,1119 −0,7499 0,0391
−0,1865 0,6373 0,0632 −0,0640 −0,0818
−0,0983 0,0225 −1,1312 0,3713 −0,0116
−0,3928 0,0494 0,3844 −0,4768 0,1204...
......
......
59
(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y
matriz de covarianzas W−1 con W = diagµi(εp)672×T =
0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7
−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7
−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7
−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7
0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7
0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7
0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7
0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7
0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7
−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7
−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7
−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7
−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7
0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7
−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7
−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7
−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7
0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7
0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7
0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7 −0,0367 ∗ e− 7 −0,0088 ∗ e− 7
0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7 0,0084 ∗ e− 7 −0,0034 ∗ e− 7
0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7 0,1172 ∗ e− 7 0,1007 ∗ e− 7
0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7 −0,1051 ∗ e− 7 0,0939 ∗ e− 7
−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7 −0,0690 ∗ e− 7 0,0841 ∗ e− 7
−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7 0,1221 ∗ e− 7 −0,0032 ∗ e− 7
0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7 −0,0855 ∗ e− 7 0,0065 ∗ e− 7
0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7 0,1117 ∗ e− 7 0,0469 ∗ e− 7
0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7 −0,0897 ∗ e− 7 0,1017 ∗ e− 7...
......
......
......
60
Cuadro 2: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel
de velocidad
Nivel de Velocidad Maximo Mınimo
Primer Nivel 0.6077 -0.6977
Segundo Nivel 0.6109 -0.6992
Tercer Nivel 0.6088 -0.6979
Cuadro 3: Varianzas asintoticas asociadas con cada una de las 5 proyecciones de las curvas de los
efectos fijos bajo los 3 niveles de velocidad
N.V Proy. 1 Proy. 2 Proy.3 Proy. 4 Proy. 5
N. 1 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17
N. 2 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17
N. 3 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17
Figura 3: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
61
4.3. Conclusiones
La implementacion con MATLAB de la metodologıa empırico - Bayesiana, desarrollada, por
ejemplo, en Ugarte, Goicoa and Militino [40], se ha realizado con un orden de truncamiento T = 5,
considerando la matriz de datos definida por:
(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )
′p = 1, . . . , 672,
La variabilidad residual se refleja en terminos de los autovalores λ6, λ7, λ8, λ9 y λ10. Los
resultados obtenidos para este orden de truncamiento se reflejan en las Tablas 2 y 3 y en las
Figuras 3 y 4.
En la Figura 3 se observa la estimacion de las curvas de los efectos fijos bajo los tres niveles de
velocidad o tratamientos de los efectos fijos considerados proyectan en los 32 sistemas de autovec-
tores empıricos. De forma mas especıfica, para cada nivel de velocidad o tratamientos de los efectos
fijos, las 32 proyecciones funcionales estimadas obtenidas para la curva de efectos fijos bajo los tres
niveles de velocidad o tratamientos de los efectos fijos.
En cada una de las graficas de la Figura 3, se pueden observar ciertas variaciones entre las pro-
yecciones funcionales estimadas correspondientes para diferentes sistemas de autovectores empıricos
para cada uno de los tres niveles de la curva de efectos fijos. Sin embargo, se pueden apreciar pe-
quenas diferencias entre los diferentes niveles de velocidad o tratamientos de los efectos fijos en
las proyecciones funcionales estimadas (entre los diferentes graficos de la Figura 3). Mas concreta-
mente, en la Tabla 2, se muestran los valores maximo y mınimo sobre las proyecciones funcionales
estimadas obtenidas para cada nivel de velocidad o tratamientos de los efectos fijos de la curva de
efectos fijos.
Se pueden apreciar pequenas diferencias en los valores mınimos, pero en los valores maximos
para los niveles 1 y 3 de velocidad, son practicamente el mismo. Ademas se pueden observar, en
la Figura 3, el patron sinusoidal de las proyecciones funcionales estimadas para la componente X y
el patron lineal de las proyecciones funcionales estimadas para la componente Y, de acuerdo a las
ecuaciones generadas para la simulacion definidas por el modelo parametrico definido en la seccion
2 (Generacion de curvas).
Las varianzas asintoticas asociadas con cada una de las estimaciones de las 5 proyecciones de la
curva de efectos fijos bajo los 3 niveles de velocidad o tratamientos de los efectos fijos se muestran
63
en la Tabla 3, donde se puede observar que las varianzas asintoticas para cada uno de los 3 niveles
de velocidad o tratamientos de los efectos fijos coinciden en cada una de las proyecciones estimadas.
Las proyecciones funcionales estimadas de las curvas de efectos aleatorios asociadas con los
32 individuos se muestran en la Figura 4, considerando primero las superficies que interpolan los
valores de las 32 proyecciones funcionales estimadas de las curvas de efectos aleatorios bajo los 3
niveles de velocidad o tratamientos de los efectos fijos. Ademas, la representacion conjunta de las 32
curvas que definen las correspondiente proyecciones funcionales estimadas de las curvas de efectos
aleatorios asociados con los 32 individuos implicados en el estudio. Se puede apreciar que bajo los
3 niveles de velocidad o tratamientos de los efectos fijos las proyecciones funcionales estimadas de
las curvas de efectos aleatorios son practicamente las mismas.
4.4. Otros estudios realizados
El modelo de efectos mixtos ha sido ampliamente aplicado en medicina, por ejemplo, en el
analisis estadıstico de ensayos clınicos. Mencionaremos algunos ejemplos concretos. En el trabajo
de los profesores Cnoaan, Laird y Slasor [13] el modelo de efectos mixtos es aplicado a los siguientes
experimentos:
1. Ensayos clınicos de esquizofrenia: Se considera un ensayo clınico de un medicamento para el
tratamiento de la esquizofrenia durante una fase aguda de la enfermedad. Este ensayo clınico
fue un estudio con asignacion al azar en cuatro tratamientos: Tres dosis (Baja, Media y
Alta) de un medicamento experimental y un medicamento de control con efectos antisicoticos
conocido ası como con efectos secundarios conocidos. El principal parametro de eficacia fue la
Brief Psychiatric Rating Scale (BPRS). Los pacientes fueron evaluados al inicio del estudio
y despues de una, dos, tres, cuatro y seis semanas de tratamiento. Los pacientes fueron
ingresados en el hospital durante las primeras cuatro semanas de tratamiento, y se les dio de
alta para las ultimas dos semanas.
2. Desarrollo de la funcion pulmonar en ninos: Este estudio clınicos se diseno para caracterizar
el crecimiento de la funcion pulmonar entre los 6 y 18 anos y los factores que afectan al
crecimiento.
Para el caso de datos funcionales, tambien se puede encontrar bibliografıa, por ejemplo, del
artıculo del profesor Guo [26] donde realiza un desarrollo teorico del modelo de efectos mixtos
64
funcional para aplicarlo al caso de datos referentes a la concentracion de cortisol que se libera como
respuesta al estres y a un nivel bajo de glucocorticoides en la sangre en individuos afectados con
fibromialgia. El modelo de efectos mixtos ajustado a los datos es el siguiente:
yij = Xijβ(tij) + αi(tij) + eij ,
donde
Yij (i = 1, . . . , 22, j = 1, . . . , 24) es la concentracion de cortisol para el i - esimo sujeto en la
j - esima hora.
β(t) = β1(t), β2(t)′ es la curva media para el grupo de sujetos con fibromialgia y β2(t) para
el grupo normal.
Xij = 1, 0 si i ≤ 11 y Xij = 0, 1 en otro caso.
αi(t) es la curva de variacion para la curva del i - esimo individuo y todas las curvas de
todos los individuos que se modelan como realizaciones del mismo proceso Gaussiano a(t) =
A1 +A2t+ λ−1/2a
∫ t0 Wl(s) ds, donde [A1, A2]
′ ∼ N(0; diagσ21 , σ22).
eij ∼ N(0;σ2e )
En el estudio mencionado en la seccion del calculo de las Componentes Principales, [43], tambien
se aplico un modelo de efectos mixtos para el estudio de imagenes morfometricas de alta resolucion
que sigue la misma metodologıa descrita en la seccion anterior. Es decir, Analisis de Componentes
Principales Funcional y la contruccion de un modelo de efectos mixtos basada en la metodologıa
desarrollada por Ugarte, Goicoa y Militino [40].
65
5. Analisis empırico de la sensibilidad de la metodologıa propuesta
al orden de truncamiento.
Repetir los calculo para diferentes valores del parametro T . Concretamente se han elegido los
valores proximos al seleccionado con el Analisis de Componentes Principales Funcional, es decir:
T = T − 1, T = T − 2, T = T + 1 y T = T + 2.
5.1. Para un nivel de truncamiento T = 7
(DF )672×3 =
1 0 0... 0 0
1 0 0
0 1 0...
... 0
0 1 0
0 0 1...
......
0 0 1
(ξp)3×T =
0,1246 0,0061 −0,1573 −0,1407 −0,1278 0,0315 4,1085
0,1222 0,0078 −0,1621 −0,1396 −0,1295 0,0339 4,1105
0,1212 0,0064 −0,1596 −0,1382 −0,1270 0,0312 4,1112
66
(DR)672×96 =
1 0...
......
......
......
......
... . . .... 0
......
......
......
......
...... . . .
1 0...
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
...... 0
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
0 0 0 1...
......
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 1...
......
......
......
... . . .
0 0 0 0 1...
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 1...
......
......
...... . . .
0 0 0 0 0 1...
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 1...
......
......
... . . .
0 0 0 0 0 0 1...
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 1...
......
...... . . .
0 0 0 0 0 0 0 1...
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 1...
......
... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
......
. . .
67
(ζp)96×T =
−0,0944 0,5085 −0,8145 0,2575 −0,4160 −0,5531 −0,0466
−0,4886 0,4067 −0,0231 −0,2005 0,4487 0,0491 −0,0103
0,1444 0,0287 0,1066 1,0662 −0,0621 −0,0665 0,0881
0,7557 0,3456 −0,2625 −0,3939 −0,0870 0,0220 −0,0200
−0,1877 −0,1633 −0,0505 0,0068 −0,8202 0,1084 0,0322
−0,6279 −0,3581 −0,0773 −0,6539 −0,4843 0,4824 0,0832
−0,9109 −0,1131 0,7669 0,4047 −0,3126 −0,3100 −0,0502
−0,5111 −0,1175 −0,1113 0,3417 0,3780 −0,2677 0,0221
−0,4772 −0,1333 −0,4046 0,2947 −0,9291 0,0947 0,0872
−1,2856 −0,0525 −0,1300 0,2557 −0,1088 −0,4377 −0,0883
1,2889 −0,1184 0,8329 −0,4359 0,6337 0,5948 −0,0402
−0,1681 −0,4606 −0,1171 −0,1744 0,1208 0,3915 0,0386
0,3529 −0,1290 0,2374 −0,3587 −0,2819 −0,3579 −0,0720
0,1578 −0,4014 0,0542 −0,4299 0,1749 0,8187 0,0083
0,8928 0,1862 −0,4698 0,3639 0,1244 0,3327 0,0222
0,2791 0,0380 −0,1557 −0,0477 −0,3422 0,3052 −0,0765
−0,0304 0,1224 0,8465 0,0785 −0,5047 −0,2558 −0,0008
−0,3453 0,8442 −0,7288 −0,0571 0,4679 −0,2142 0,0569
1,0712 −0,4358 −0,1324 −0,1987 0,6465 0,1047 −0,0559
−0,0123 1,3164 0,1830 −0,3447 0,0816 −0,0916 −0,0076
−0,1668 −0,3233 0,1706 −0,3318 −0,0756 −1,0199 0,0280
0,9600 0,2084 −0,0984 −0,6972 −0,6228 0,3572 −0,0590
−0,4889 −1,1170 0,0320 0,0321 −0,6531 −0,3115 −0,0422
−0,2054 0,5353 0,0639 −0,0109 0,1813 0,1258 0,0199
−0,0654 −1,5374 0,4795 −0,0448 0,0913 0,1843 −0,0469
−0,0891 −0,3707 −0,5216 1,4086 0,6595 0,2182 0,0033
0,4983 0,2189 0,4295 −0,0226 1,1465 −0,7758 0,0404
−0,2202 0,0764 −0,1663 0,6602 0,0759 −0,0676 −0,0846
−0,0771 0,0119 −0,0860 0,0282 −1,1235 0,3823 −0,0121
−0,6203 −0,0958 −0,3558 0,0558 0,3945 −0,4860 0,1241...
......
......
......
68
(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y matriz de covarianzas W−1 con
W = diagµi(εp)672×T =
0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7 0,0940 ∗ e− 7 −0,0129 ∗ e− 7
−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7 0,0871 ∗ e− 7 0,0385 ∗ e− 7
−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7 0,0435 ∗ e− 7 0,0035 ∗ e− 7
−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7 0,0194 ∗ e− 7 −0,0941 ∗ e− 7
0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7 0,0642 ∗ e− 7 −0,0924 ∗ e− 7
0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7 0,0223 ∗ e− 7 0,0671 ∗ e− 7
0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7 0,0707 ∗ e− 7 0,0268 ∗ e− 7
0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7 0,0218 ∗ e− 7 0,0838 ∗ e− 7
0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7 0,1212 ∗ e− 7 0,0147 ∗ e− 7
−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7 0,0321 ∗ e− 7 −0,0897 ∗ e− 7
−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7 −0,0778 ∗ e− 7 −0,0900 ∗ e− 7
−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7 0,0690 ∗ e− 7 0,0444 ∗ e− 7
−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7 −0,0084 ∗ e− 7 0,1427 ∗ e− 7
0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7 0,1248 ∗ e− 7 0,0235 ∗ e− 7
−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7 0,0441 ∗ e− 7 0,0650 ∗ e− 7
−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7 −0,0271 ∗ e− 7 −0,0662 ∗ e− 7
−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7 −0,0469 ∗ e− 7 −0,0701 ∗ e− 7
0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7 −0,0468 ∗ e− 7 0,1103 ∗ e− 7
0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7 0,0921 ∗ e− 7 −0,0661 ∗ e− 7...
......
......
......
69
Cuadro 4: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel
de velocidad
Nivel de Velocidad Maximo Mınimo
Primer Nivel 0.6390 -0.7069
Segundo Nivel 0.6416 -0.7085
Tercer Nivel 0.6393 -0.7072
Cuadro 5: Varianzas asintoticas asociadas con cada una de las 7 proyecciones de las curvas de los
efectos fijos bajo los 3 niveles de velocidad
N.V Proy.1 Proy.2 Proy. 3 Proy. 4 Proy. 5 Proy. 6 Proy. 7
N. 1 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17
N. 2 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17
N. 3 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17
Figura 5: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
70
Figura 6: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
5.2. Para un nivel de truncamiento T = 6
(DF )672×3 =
1 0 0... 0 0
1 0 0
0 1 0...
... 0
0 1 0
0 0 1...
......
0 0 1
(ξp)3×T =
−0,0056 −0,1524 −0,1366 −0,1190 0,0371 4,1088
−0,0045 −0,1574 −0,1356 −0,1210 0,0396 4,1114
−0,0053 −0,1549 −0,1341 −0,1185 0,0370 4,1101
71
(DR)672×96 =
1 0...
......
......
......
......
... . . .... 0
......
......
......
......
...... . . .
1 0...
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
...... 0
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
0 0 0 1...
......
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 1...
......
......
......
... . . .
0 0 0 0 1...
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 1...
......
......
...... . . .
0 0 0 0 0 1...
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 1...
......
......
... . . .
0 0 0 0 0 0 1...
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 1...
......
...... . . .
0 0 0 0 0 0 0 1...
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 1...
......
... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
.... . .
72
(ζp)96×T =
0,5528 −0,8133 0,2522 −0,4182 −0,5528 −0,0460
0,4403 −0,0278 −0,2034 0,4393 0,0434 −0,0104
0,0425 0,1004 1,0580 −0,0700 −0,0707 0,0860
0,3769 −0,2690 −0,3939 −0,0942 0,0166 −0,0201
−0,1627 −0,0550 0,0029 −0,8187 0,1008 0,0320
−0,3695 −0,0829 −0,6523 −0,4830 0,4744 0,0815
−0,1095 0,7627 0,3926 −0,3176 −0,3125 −0,0500
−0,1151 −0,1150 0,3345 0,3648 −0,2686 0,0214
−0,1338 −0,4045 0,2874 −0,9264 0,0888 0,0855
−0,0461 −0,1328 0,2492 −0,1147 −0,4300 −0,0861
−0,1158 0,8207 −0,4349 0,6192 0,5805 −0,0400
−0,4767 −0,1210 −0,1774 0,1116 0,3846 0,0378
−0,1279 0,2316 −0,3591 −0,2853 −0,3574 −0,0716
−0,4144 0,0501 −0,4260 0,1635 0,8132 0,0079
0,2104 −0,4762 0,3567 0,1159 0,3199 0,0214
0,0522 −0,1613 −0,0516 −0,3458 0,2938 −0,0759
0,1431 0,8324 0,0740 −0,5125 −0,2563 −0,0010
0,9161 −0,7320 −0,0604 0,4551 −0,2175 0,0561
−0,4462 −0,1361 −0,2026 0,6367 0,0990 −0,0563
1,4425 0,1757 −0,3444 0,0724 −0,0957 −0,0077
−0,3277 0,1654 −0,3403 −0,0822 −1,0067 0,0276
0,2352 −0,1023 −0,6911 −0,6225 0,3478 −0,0585
−1,1720 0,0273 0,0279 −0,6627 −0,3150 −0,0421
0,5801 0,0600 −0,0147 0,1694 0,1175 0,0194
−1,6218 0,4784 −0,0477 0,0829 0,1781 −0,0464
−0,3802 −0,5341 1,3975 0,6431 0,2094 0,0031
0,2471 0,4321 −0,0260 1,1181 −0,7699 0,0394
0,0953 −0,1676 0,6452 0,0669 −0,0716 −0,0823
0,0244 −0,0903 0,0244 −1,1177 0,3694 −0,0120
−0,0926 −0,3587 0,0518 0,3879 −0,4808 0,1206
0,4954 0,6412 −0,4743 −0,0332 0,2563 −0,0477...
......
......
...
73
(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y matriz de covarianzas W−1 con
W = diagµi(εp)672×T =
0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7 0,0940 ∗ e− 7
−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7 0,0871 ∗ e− 7
−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7 0,0435 ∗ e− 7
−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7 0,0194 ∗ e− 7
0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7 0,0642 ∗ e− 7
0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7 0,0223 ∗ e− 7
0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7 0,0707 ∗ e− 7
0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7 0,0218 ∗ e− 7
0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7 0,1212 ∗ e− 7
−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7 0,0321 ∗ e− 7
−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7 −0,0778 ∗ e− 7
−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7 0,0690 ∗ e− 7
−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7 −0,0084 ∗ e− 7
0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7 0,1248 ∗ e− 7
−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7 0,0441 ∗ e− 7
−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7 −0,0271 ∗ e− 7
−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7 −0,0469 ∗ e− 7
0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7 −0,0468 ∗ e− 7
0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7 0,0921 ∗ e− 7...
......
......
...
74
Cuadro 6: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel
de velocidad
Nivel de Velocidad Maximo Mınimo
Primer Nivel 0.6103 -0.6988
Segundo Nivel 0.6137 -0.7005
Tercer Nivel 0.6113 -0.6990
Cuadro 7: Varianzas asintoticas asociadas con cada una de las 6 proyecciones de las curvas de los
efectos fijos bajo los 3 niveles de velocidad
N.V Proy. 1 Proy. 2 Proy. 3 Proy. 4 Proy. 5 Proy. 6
N. 1 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17
N. 2 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17
N. 3 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17
Figura 7: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
75
Figura 8: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
5.3. Para un nivel de truncamiento T = 4
(DF )672×3 =
1 0 0... 0 0
1 0 0
0 1 0...
... 0
0 1 0
0 0 1...
......
0 0 1
(ξp)3×T =
−0,1205 −0,1321 0,0311 4,1093
−0,1193 −0,1342 0,0339 4,1106
−0,1178 −0,1315 0,0311 4,1092
76
(DR)672×96 =
1 0...
......
......
......
......
... . . .... 0
......
......
......
......
...... . . .
1 0...
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
...... 0
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
0 0 0 1...
......
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 1...
......
......
......
... . . .
0 0 0 0 1...
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 1...
......
......
...... . . .
0 0 0 0 0 1...
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 1...
......
......
... . . .
0 0 0 0 0 0 1...
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 1...
......
...... . . .
0 0 0 0 0 0 0 1...
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 1...
......
... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
.... . .
77
(ζp)96×T =
0,2541 −0,3995 −0,5343 −0,0454
−0,2337 0,4475 0,0485 −0,0108
1,1221 −0,0565 −0,0639 0,0841
−0,4419 −0,0824 0,0217 −0,0201
−0,0129 −0,7888 0,1060 0,0311
−0,7245 −0,4741 0,4731 0,0798
0,4122 −0,3010 −0,2974 −0,0493
0,3461 0,3703 −0,2585 0,0205
0,2989 −0,8971 0,0915 0,0827
0,2584 −0,1005 −0,4142 −0,0840
−0,4870 0,6165 0,5792 −0,0394
−0,2065 0,1235 0,3837 0,0362
−0,4055 −0,2646 −0,3416 −0,0705
−0,4786 0,1776 0,8004 0,0073
0,3691 0,1261 0,3194 0,0207
−0,0719 −0,3369 0,2989 −0,0745
0,0634 −0,4852 −0,2443 −0,0015
−0,0816 0,4642 −0,2081 0,0543
−0,2303 0,6416 0,1044 −0,0563
−0,3925 0,0828 −0,0883 −0,0079
−0,3771 −0,0704 −0,9997 0,0263
−0,7610 −0,5978 0,3442 −0,0577
0,0140 −0,6470 −0,3075 −0,0423
−0,0320 0,1838 0,1232 0,0186
−0,0674 0,0950 0,1806 −0,0468
1,4959 0,6551 0,2129 0,0026
−0,0447 1,1445 −0,7504 0,0382
0,6912 0,0773 −0,0645 −0,0811
0,0101 −1,1160 0,3727 −0,0122
0,0403 0,3931 −0,4723 0,1209
−0,5353 −0,0210 0,2556 −0,0469...
......
...
78
(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y
matriz de covarianzas W−1 con W = diagµi(εp)672×T =
0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7
−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7
−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7
−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7
0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7
0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7
0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7
0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7
0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7
−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7
−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7
−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7
−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7
0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7
−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7
−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7
−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7
0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7
0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7
0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7 −0,0367 ∗ e− 7
0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7 0,0084 ∗ e− 7
0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7 0,1172 ∗ e− 7
0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7 −0,1051 ∗ e− 7
−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7 −0,0690 ∗ e− 7
−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7 0,1221 ∗ e− 7
0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7 −0,0855 ∗ e− 7
0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7 0,1117 ∗ e− 7
0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7 −0,0897 ∗ e− 7...
......
...
79
Cuadro 8: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel
de velocidad
Nivel de Velocidad Maximo Mınimo
Primer Nivel 0.5955 -0.6922
Segundo Nivel 0.5958 -0.6933
Tercer Nivel 0.5934 -0.6920
Cuadro 9: Varianzas asintoticas asociadas con cada una de las 4 proyecciones de las curvas de los
efectos fijos bajo los 3 niveles de velocidad
N.V Proy. 1 Proy. 2 Proy. 3 Proy. 4
N. 1 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17
N. 2 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17
N. 3 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17
Figura 9: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
Primer Nivel Segundo Nivel Tercer Nivel
80
Figura 10: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
Primer Nivel Segundo Nivel Tercer Nivel
5.4. Para un nivel de truncamiento T = 3
(DF )672×3 =
1 0 0... 0 0
1 0 0
0 1 0...
... 0
0 1 0
0 0 1...
......
0 0 1
(ξp)3×T =
−0,1308 0,0252 4,1091
−0,1333 0,0277 4,1114
−0,1301 0,0253 4,1096
81
(DR)672×96 =
1 0...
......
......
......
......
... . . .... 0
......
......
......
......
...... . . .
1 0...
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
...... 0
......
......
......
......
... . . .
0 1 0...
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 1...
......
......
......
...... . . .
0 0 0 1...
......
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 1...
......
......
......
... . . .
0 0 0 0 1...
......
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 1...
......
......
...... . . .
0 0 0 0 0 1...
......
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 1...
......
......
... . . .
0 0 0 0 0 0 1...
......
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 1...
......
...... . . .
0 0 0 0 0 0 0 1...
......
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 1...
......
... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
......
......
......
......
......
...... . . .
0 0 0 0 0 0 0 0 1...
...... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
... . . .
0 0 0 0 0 0 0 0 0 1...
... . . ....
......
......
......
......
......
.... . .
82
(ζp)96×T =
−0,4371 −0,5237 −0,0449
0,4825 0,0541 −0,0104
−0,0633 −0,0579 0,0838
−0,0897 0,0274 −0,0199
−0,8662 0,1101 0,0306
−0,5139 0,4770 0,0792
−0,3307 −0,2935 −0,0483
0,4079 −0,2499 0,0205
−1,0039 0,0967 0,0823
−0,1143 −0,4050 −0,0831
0,6816 0,5752 −0,0387
0,1319 0,3911 0,0366
−0,2971 −0,3312 −0,0685
0,1892 0,8151 0,0074
0,1365 0,3279 0,0204
−0,3672 0,3065 −0,0745
−0,5378 −0,2373 −0,0013
0,5066 −0,2032 0,0542
0,6883 0,1083 −0,0559
0,0906 −0,0823 −0,0077
−0,0767 −0,9903 0,0268
−0,6594 0,3473 −0,0567
−0,6943 −0,3008 −0,0420
0,1962 0,1285 0,0188
0,1010 0,1873 −0,0461
0,7065 0,2183 0,0027
1,2425 −0,7556 0,0381
0,0844 −0,0581 −0,0808
−1,2102 0,3800 −0,0122
0,4343 −0,4614 0,1196
−0,0244 0,2588 −0,0467...
......
83
(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y
matriz de covarianzas W−1 con W = diagµi(εp)672×T =
0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7
−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7
−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7
−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7
0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7
0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7
0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7
0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7
0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7
−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7
−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7
−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7
−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7
0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7
−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7
−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7
−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7
0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7
0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7
0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7
0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7
0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7
0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7
−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7
−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7
0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7
0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7
0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7...
......
84
Cuadro 10: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel
de velocidad
Nivel de Velocidad Maximo Mınimo
Primer Nivel 0.5793 -0.6889
Segundo Nivel 0.5807 -0.6902
Tercer Nivel 0.5789 -0.6888
Cuadro 11: Varianzas asintoticas asociadas con cada una de las 3 proyecciones de las curvas de los
efectos fijos bajo los 3 niveles de velocidad
N.V Proy. 1 Proy. 2 Proy. 3
N. 1 0.0064 0.3638*e-17 0.3118*e-17
N. 2 0.0064 0.3638*e-17 0.3118*e-17
N. 3 0.0064 0.3638*e-17 0.3118*e-17
Figura 11: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
Primer Nivel Segundo Nivel Tercer Nivel
85
Figura 12: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0 20 40 60 80 100 120 140 160 180 200−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Primer Nivel Segundo Nivel Tercer Nivel
5.5. Conclusiones
La implementacion con MATLAB de la metodologıa empırico - Bayesiana, desarrollada, por
ejemplo, en Ugarte, Goicoa and Militino [40], se ha realizado con un orden de truncamiento T = 7,
T = 6, T = 4 y T = 3, considerando la matriz de datos definida por:
(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )
′p = 1, . . . , 672,
La variabilidad residual se refleja en terminos de los autovalores como
Para T = 7: λ8, λ9 y λ10.
Para T = 6: λ7, λ8, λ9 y λ10.
Para T = 4: λ5, λ6, λ7, λ8, λ9 y λ10.
Para T = 3: λ4, λ5, λ6, λ7, λ8, λ9 y λ10.
Los resultados obtenidos para cada uno de los ordenes de truncamiento se reflejan
en las Tablas 4 y 5 y en las Figuras 5 y 6 para T = 7,
en las Tablas 6 y 7 y en las Figuras 7 y 8 para T = 6,
en las Tablas 8 y 9 y en las Figuras 9 y 10 para T = 4 y
en las Tablas 10 y 11 y en las Figuras 11 y 12 para T = 3.
86
En las Figuras 5, 7, 9 y 11 se representa la estimacion de las curvas de los efectos fijos bajo
los tres niveles de velocidad o tratamientos considerados proyectados en los 32 sistemas de auto-
vectores empıricos para cada uno de los ordenes de truncamiento, T = 7, T = 6, T = 4 y T = 3
respectivamente. En estas Figuras se observa el patron sinusoidal de las proyecciones funcionales
estimadas para la componente X y el patron lineal de las proyecciones funcionales estimadas para
la componente Y , de acuerdo a las ecuaciones generadas para la simulacion definidas por el modelo
parametrico descrito en la seccion 2 (Generacion de curvas). En cada una de las graficas de dichas
Figuras, se pueden observar variaciones entre las proyecciones funcionales estimadas correspondien-
tes para diferentes sistemas de autovectores empıricos para cada uno de los tres niveles de la curva
de efectos fijos. Podemos observar que, a medida que aumentamos o disminuimos el orden de trun-
camiento, la graficas estan mas perturbadas, siendo mas pronunciado a medida que disminuye el
orden de truncamiento. Esto es debido a que al disminuir el orden de truncamiento la variabilidad
residual tiene mayor valor que la variabilidad debida a los efectos fijos y aleatorios (Parametros
estimados de los efectos fijos y aleatorios).
Estas diferencias se pueden apreciar, mas concretamente, en las Tablas 4, 6, 8 y 10, en las que
se muestran los valores maximo y mınimo sobre las proyecciones funcionales estimadas obtenidas
para cada nivel de velocidad o tratamientos de la curva de efectos fijos para cada uno de los ordenes
de truncamiento, T = 7, T = 6, T = 4 y T = 3 respectivamente. Se observa que, para el caso de los
valores mınimos las diferencias entre los diferentes niveles de velocidad o tratamientos para cada uno
de los ordenes de truncamiento siempre son mayores si se comparan con el orden de truncamiento,
T = 5, seleccionado en la Seccion 3 (Calculo de los autovalores y autovectores empıricos). Para
el caso de los valores maximos se pueden observar que las diferencias entre los diferentes niveles
de velocidad o tratamientos son mayores si se comparan con el orden de truncamiento, T = 5,
seleccionado excepto para el orden de truncamiento T = 7 entre los niveles de velocidad 1 - 2 y 1
- 3, para el orden de truncamiento T = 4 entre los niveles de velocidad 1 - 2 y para el orden de
truncamiento T = 3 entre los niveles de velocidad 1 - 3.
Las varianzas asintoticas asociadas con cada una de las estimaciones de las 7, 6, 4 y 3 proyec-
ciones de la curva de efectos fijos bajo los 3 niveles de velocidad o tratamientos de los efectos fijos
se muestran en las Tablas 5, 7, 9 y 11 para cada uno de los ordenes de truncamiento, T = 7, T = 6,
T = 4 y T = 3 respectivamente, donde se puede observar que las varianzas asintoticas para cada
uno de los 3 niveles de velocidad o tratamientos de los efectos fijos coinciden en cada una de las
87
proyecciones estimadas.
Las proyecciones funcionales estimadas de las curvas de efectos aleatorios asociadas con los 32
individuos se muestran en las Figuras 6, 8, 10 y 12 para cada uno de los ordenes de truncamiento,
T = 7, T = 6, T = 4 y T = 3 respectivamente, considerando la representacion conjunta de
las 32 curvas que definen las correspondiente proyecciones funcionales estimadas de las curvas
de efectos aleatorios asociados con los 32 individuos implicados en el estudio. Se puede apreciar
que, bajo los 3 niveles de velocidad o tratamientos, las proyecciones funcionales estimadas de las
curvas de efectos aleatorios son practicamente las mismas entre sı para cada uno de los ordenes de
truncamiento considerados. Sin embargo, al aumentar el orden de truncamiento, la representacion
es mas clara mientras que al disminuir el orden de truncamiento esta representacion no es buen.
Esto es debido a que al disminuir el orden de truncamiento la variabilidad residual tiene mayor
valor que la variabilidad debida a los efectos fijos y aleatorios (Parametros estimados de los efectos
fijos y aleatorios).
88
CAPITULO 3: LINEAS ABIERTAS
1. Disenos D - optimos en el contexto de modelos lineales Hilbert-
valuados
En este capıtulo se formulan las posible lıneas futuras de investigacion que daran continuidad
a este trabajo. En particular, se considerara el planteamiento de modelos mixtos en el contexto
infinito - dimensional, atendidendo a tres aspetos:
Parametros infinito-dimensionales
Matriz del diseo infinito-dimensional:
• Infinitos datos
• Infinitos tratamientos
En el analisis estadıstico de los modelos anteriores, la formulacion de disenos optimos jugara un
papel fundamental. Seguidamente, se detallan algunos aspectos de interes que se abordaran como
futuras lıneas de investigacion.
89
1.1. Parametros infinito-dimensionales
1.1.1. Modelo de efectos fijos
Partiendo del modelo de efectos fijos funcional definido por Zoglat [44]:
Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1], σ > 0
donde
Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n× 1.
Yi, Yj (i 6= j) son independientes e identicamente distribuidas.
X = (xij) es una matriz n× p cuyos elementos son numeros reales.
β = (β1, . . . , βp)′ ∈ Lp
2 vector de funciones cuadrado-integrables (parametros funcionales del
modelo).
ǫ = (ǫ1, . . . , ǫn)′ es el error funcional en el espacio de Hilbert H = L2(S, µ)
ǫi, ǫj (i 6= j) son independientes e identicamente distribuidas con operador de auto-covarianza
Rǫ = E[ǫ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j = 1, . . . , n.
(λk, ϕk), k ≥ 1 la secuencia de pares de autovalores - autofunciones del operador de cova-
rianza Rǫ.
Alternativamente al modelo anterior se puede considerar que el vector de tratamientos es
infinito-dimensional, es decir, β = (β1, . . . , β∞)′ ∈ L2, se interpreta como un vector infinito-
dimensional cuyas componentes serıan las proyecciones sobre una base numerable y ortonormal
de una funcion β perteneciente a un espacio de Hilbert H separable. El modelo de efectos mixtos
infinito - dimensional asociado se definirıa como sigue:
Xn×1 = [DF ]n×∞m∞×1 + [DR]n×∞V∞×1 + σǫn×1
En particular, se podrıa considerar que solo la matriz DF , o bien, DR son infinito - dimen-
sionales. En este contexto, el diseno D - optimo permitirı seleccionar un numero finito optimo
de tratamientos, minimizando, por ejemplo, la varianza de los estimadores de los parametros del
modelo.
90
1.2. Matriz de datos infinito - dimensional
Se considera ahora el modelo de efectos mixtos planteado en el espacio o tiempo (o bien, en am-
bos, espacio y tiempo), donde se seleccionara un conjunto finito optimo de tiempos o localizaciones
espaciales del conjunto infinito de candidatos, potencialmente observables.
X∞×1 = [DF ]∞×rmr×1 + [DR]∞×nVn×1 + σǫ∞×1.
2. Diseno experimental D - optimo en un contexto funcional
2.1. El modelo
Consideremos el modelo de efectos fijos funcional dado por
Y (t, x) = f(x)θ(t) + ε(t, x), t ∈ [0, T ], x ∈ S,
Donde, para cada x ∈ S, se considerara que Y (·, x) ∈ H = L2([0, T ]). Ademas,
E[Y (·, x)Y (·, x′)
]= Rx,x′ , x, x′ ∈ S,
con Rx,x′ definiendo el operador de covarianza cruzado asociado con las dos variables aleatorias
funcionales Y (·, x) y Y (·, x′), esto es,
Rx,x′ = E[Y (·, x) ⊗ Y (·, x′)]
El cual se supondra que es un operador integral definido por
Rx,x′(ψ)(t) =
∫
[0,T ]C(‖x− x′‖, t, s,θ′)ψ(s)ds, ψ ∈ H = L2([0, T ]), (50)
y, para φ ∈ L2(S × [0, T ]), se tiene que
Rx,x′(φ)(t, x) =
∫
S×[0,T ]C(‖x− x′‖, t, s,θ′)φ(s, x′)dsµ(dx′), (51)
donde µ representara una medida de conteo en el caso de espacio de disenos discretos (i.e.,
µ(x) = 1, x ∈ Z), y la medida de Lebesgue dx′, en el caso de espacios de diseno continuos.
En el caso donde se considera un conjunto finito de puntos ζ = x1, . . . , xn, se puede formular
la matriz de covarianza funcional como
Σn∞×n∞ =
Rx1,x1. . . Rx1,xn
......
......
......
Rxn,x1. . . Rxn,xn
, (52)
91
con, al igual que antes, Rxi,xj= E[Y (·, xi)⊗Y (·, xj)], i, j = 1, . . . , n. Entonces, una version discreta
de la ecuacion (51) se puede definir como sigue:
Rx,x′(φ)(t, xj) =n∑
i=1
∫
[0,T ]C(‖xj − xi‖, t, s,θ′)φ(s, xi)ds, j ∈ 1, . . . , n. (53)
2.2. Enfoque finito - dimensional de la funcion perdida de los disenos D - opti-
mos funcionales.
En en caso donde ζ = x1, . . . , xn se puede analizar el problema de minimizar el determinante
de la matriz finito - dimensional:
Σθ=(X′(Φn×MΛM×MΦ′
M×n
)−1X)−1
, (54)
dondeXl×n es la matriz del diseno formada por el conjunto de candidatos, yΦn×MΛM×MΦM×n
es la obtenida de la descomposicion espectral del operador matriz funcional Σn∞×n∞ en la ecua-
cion (52), con respecto al espacio de Hilbert L2([0, T ],Rn), tras el truncamiento, considerando M
elementos de la base ortonormal definidas por sus autofunciones en este espacio. Especialmente,
g ∈ L2([0, T ],Rn), si
‖g‖2L2([0,T ],Rn) =
∫
[0,T ]|g(t)|2Rndt =
n∑
k=1
∫
[0,T ][gk(t)]
2dt <∞.
El producto interior asociado se define entonces como:
〈f ,g〉L2([0,T ],Rn) =n∑
k=1
∫
[0,T ]gk(t)fk(t)dt.
La siguiente autoecuacion se resuelve con respecto a dicho producto interior:
Σn∞×n∞(φk)(t) =
n∑
j=1
∫
[0,T ]C(‖xi − xj‖, t, s,θ′)φk,j(s)ds
′
i=1,...,n
= λkφk(t), φk(t) ∈ Rn, t ∈ [0, T ], (55)
donde φk(t) = (φk,1(t), . . . , φk,n(t))′.
La descomposicion espectral de Σn∞×n∞ se obtiene en L2([0, T ],Rn) como:
Σn∞×n∞ = Φn×∞Λ∞×∞Φ′∞×n,
donde
Φ′∞×n = (φ1, . . . ,φk, . . . , )
′
Λ∞×∞ = diag (λ1, . . . , λk, . . . , ) . (56)
92
Considerando M elementos de la base de autofunciones con sus respectivos autovalores, obte-
nemos en desarrollo finito - dimensional truncado:
Φn×MΛM×MΦ′M×n,
donde
Φn×M = (φ1, . . . ,φM )n×M ,
y
ΛM×M = diag (λ1, . . . , λM )M×M .
Cabe senalar que, tras el truncamiento, el diseno D - optimo funcional se define como en el caso
finito - dimensional, en terminos de
Σ−1 =(Φn×MΛM×MΦ′
M×n
)−1,
y la matriz del diseno X definiendo el conjunto de candidatos.
93
94
APENDICES
A. Introduccion a wavelets
Este apendice se ha elaborado realizando un resumen del trabajo del profesor Todd Ogden, R.
[38] y el trabajo desarrollado por los profesores Cohen, A.; Daubechies, D.; Vial, P. [14].
A.1. Introduccion
La teorıa de wavelet trabaja de manera similar a la teorıa de Fourier, la cual dice que una
senal se compone de funciones sinusoidales y de esta forma es mas sencillo su analisis. Recordando
brevemente, en el estudio de la conducion del calor a comienzos del siglo XIX, el fısico y matematico
frances Jean - Baptiste Fourier descubrio que podıa descomponer una gran clase de funciones en
funciones componentes construida de solo funciones trigonometricas periodicas estandar. De esta
forma solo consideraremos funciones definidas en en intervalo [−π, π]. Las funciones seno y coseno
se definen sobre todo R y tienen periodo 2π, ası, la descomposicion de Fourier se puede considerar
como representacion de tales funciones periodicas o como representacion definida solo en el intervalo
[−π, π].
La representacion de Fourier se aplica a funciones cuadrado integrables, es decir, una funcion
pertenece la espacio de funciones cuadrado integrables L2[a, b] si
∫ b
af2(x)dx <∞
Un resultado de Fourier establece que cualquier funcion f ∈ L2[−π, π] se puede expresar como
95
suma infinita de funciones seno y coseno:
f(x) =1
2a0 +
∞∑
j=1
(aj cos(jx) + bj sin(jx))
para un conjunto calculado apropiado de coeficientes a0, a1, b1, . . .
Esta suma es infinita pero una funcion puede estar bien aproximada (en L2) por una suma finita
limitada al ındice J :
SJ =1
2a0 +
J∑
j=1
(aj cos(jx) + bj sin(jx))
Los coeficientes de Fourier, para j ≥ 1, se calcularan con el producto interior de la funcion f y
la correspondiente base de funciones:
aj =1
π〈f, cos(j.)〉 = 1
π
∫ π
−πf(x) cos(jx)dx; j = 0, 1, . . .
bj =1
π〈f, sin(j.)〉 = 1
π
∫ π
−πf(x) sin(jx)dx; j = 1, 2, . . .
Esta representacion serie de Fourier es extremadamente util ya que las funciones en L2 se pueden
escribir en termino de contruccion sencilla de funciones bloque: seno y coseno. Esto es debido a que
el conjunto de funciones sin(j.), cos(j.); j = 1, 2, . . . junto con la funcion constante, forman una
base para el espacio de funciones L2[−π, π].
Definicion 5 Un analisis de multiresolucion de L2(Rd) es una sucesion creciente de subespacios
cerrados Vj ∈ Z de L2(Rd) con las siguientes propiedades:
1.⋂∞
−∞ Vj = 0, ⋂∞−∞ Vj es denso en L2(Rd).
2. f(x) ∈ Vj si, y solo si, f(2x) ∈ Vj+1 para todo x ∈ Rd y j ∈ Z.
3. f(x) ∈ V0 si, y solo si, f(x− k) ∈ V0 para todo x ∈ Rd y j ∈ Z
d.
4. Existe una funcion g(x) ∈ V0 tal que la secuencia g(x − k) : k ∈ Zd es una base de Riesz
del espacio V0.
Definicion 6 Un analisis de multiresolucion de L2(Rd), Vj ∈ Z es r - regular (r ∈ N) si la
funcion g(x) referida en la ultima propiedad de la definicion previa puede ser elegida tal que:
|∂αg(x)| ≤ Cm(1 + |x|)−m (57)
96
para cada entero m ∈ N y para todo multiındice α = (α1, . . . , αd) satisfaciendo |α| ≤ r donde
∂α = (∂
∂x1)α1 . . . (
∂
∂xd)αd y |α| = α1 + · · ·+ αd
La condicion impuesta en (57) asegura el rapido decaimiento de la funcion g y sus derivadas
hasta el orden r cuando x → ±∞ y la regularidad de estas funciones (en el sentido que g y sus
derivadas hasta el orden r pertenecen a L∞(Rd))
La Teorıa de Wavelets es una poderosa herramienta matematica desarrollada a finales del siglo
XX que ha despertado gran atencion en diversos campos de la ingenierıa, la fısica y las ciencias
aplicadas, tales como el procesamiento de senales e imagenes, el reconocimiento de patrones, la
fısica cuantica, el diagnostico medico por imagenes, etc.
Las wavelets son familias de funciones que se encuentran en el espacio y se emplean como
funciones de analisis, examinan a la senal de interes para obtener sus caracterısticas de espacio,
tamano y direccion. Las waveles son generadas a partir de una funcion madre a la que se le agregan
2 ındices:
Indice de escala que permite hacer dilataciones y contracciones de la senal. Se representara co-
mo j ∈ N.
Indice de traslacion que permite mover la senal. Se representara como k ∈ N.
Cada wavelet que nace de la wavelet madre sera indexada por ambos ındices:
ψj,k(x) = 2j/2ψ(2jx− k)
Sea f una funcion y h, r ∈ R, r > 0. Llamaremos τh a las traslaciones de f : (τhf)(x) := f(x−h),y por ρτ a las dilataciones (ρτf)(x) := f(τx)
Definicion 7 Una funcion ψ ∈ L2(R) es una wavelet ortonormal si el sistema ψj,k(x); j, k ∈ Zproporciona una base ortonormal, donde
ψj,k(x) = 2j/2ψ(2jx− k)
Senalar que
1. Se realizaran traslaciones enteras y dilataciones diadicas de ψ:
τkψ(x) = τ(x− k)
(ρτf)(x) = f(τx)dondeτ = 2j
97
2. Se multiplica por un factor de correccion 2j/2 para preservar la ortonormalidad.
A.2. Wavelets Haar
En matematicas, la wavelet Haar es una secuencia de funciones cuadrada reescalada que en su
conjunto forman una familia wavelet o una base. El analisis wavelet es similar al analisis de Fourier
en el sentido que permite una funcion de destino en un intervalo que se representa en terminos de
una funcion ortonormal base. La secuencia Haar es ahora reconocida como la primera base wavelet
conocida y ampliamente usada como ejemplo de ensenanza.
La secuencia Haar fue propuesta en 1909 por Alfred Haar. Haar utiliza estas funciones para
dar un ejemplo de sistema ortonormal contable del espacio de funciones cuadrado integrable en la
recta real. El estudio de las wavelets no llego hasta mas tarde como un caso especial de la wavelet
Daubechies. La wavelet Haar es tambin conocida como D2.
Las wavelets Haar son las wavelet mas sencillas posible. La desventataja de la wavelet Haar
es que no es continua y ademas no es diferenciable. Esta propiedad puede, sin embargo, ser una
ventaja para el analisis de senales con transiciones repetidas, tales como la monitorizacion de fallos
en las maquinas.
Se define en L2(R) la funcion:
ψ(x) =
1 si 0 ≤ x <1
2
−1 si1
2≤ x < 1
−1 otro caso
que produce el nacimiento de toda una familia de wavelets por medio de dos operaciones:
Proposicion 2 El conjunto es ortonormal.
Proposicion 3 El soporte de la funcion wavelet ψj,k es
sopψj,k = [k2−j , (k + 1)2−j ]
Proposicion 4 Cualquier funcion f2 ∈ L2(R) puede ser arbitrariamente aproximado por una com-
binacion lineal finita de las ψj,k.
98
Proposicion 5 Cada wavelet Haar satisface∫ ∞
−∞ψj,k(x)dx = 0
para todo j, k ∈ Z
A.3. Wavelets Daubechies
Si la familia ψj,k es una base de wavelets ortonormal, y la wavelet ψ(x) es suave, entonces
debe tener momentos nulos y cuanto mayor suavidad, mas cantidad de momentos nulos.
En 1988 Ingrid Daubechies, con el interes de construir bases ortogonales de funciones suaves y
con el requerimiento de varios momentos nulos, pudo construir una familia de bases ortonormales,
suaves y de soporte compacto. Las wavelets de Daubechies son las que tienen mayor cantidad de
momentos nulos para su soporte.
De lo anterior surge que, como en el caso de las B-splines, solo finitos coeficientes del filtro de la
escala hk son no nulos, y en este caso, ademas, su longitud es 2N . Daubechies demostro que para
que la funcion de escala φ y la wavelet ψ sean regulares, el filtro de la funcion de escala deberıa ser
de la forma,
HN(ω) =
(1 + e−2πiω
2
)2
L(ω)
con N ≥ 1 y L un polinomio trigonometrico.
La familia de wavelets de Daubechies esta gobernada por un conjunto de N (entero par) coefi-
cientes pk : K = 0, 1, . . . , N − 1. Para cada N ∈ N se tendran la wavelet y la funcion de escala que
llamaremos de orden N , y denotamos ψN y φN .
Funcion escala y soporte:
φN (x) =
N−1∑
k=0
pkφN (2x− k)
sopφN (x) = [0, N − 1]
Wavelet madre
ψN (x) =
1∑
k=2−N
qkφN (2x− k)
sopψN (x) = [1− N
2,N
2]
con pk y qk los coeficientes del filtro de la funcion de escala y de la wavelet correspondiente.
99
B. Espacios de Besov
Este apendice se ha elaborado realizando un resumen de los trabajos de los profesores Dautray,
R.; Lions, J.L. [16] y [17].
El espacio de Besov Bαq (Lp) es un conjunto de funciones f de Lp que tiene suavidad α. El
parametro q da una gradacion mas fina. Estos espacios existe de forma natural en algunos cam-
pos del analisis. Algunas de sus aplicaciones requieren un conocimiento de sus propiedades de
interpolacion, es decir, una descripcion de los espacios los cuales surgen cuando el metodo real de
interpolacion se aplica a un para de estos espacios.
Hay dos definiciones de espacios de Besov las cuales estan en uso en actualmente. Una usa
transformaciones de Fourier en sus definiciones y la segunda usa el modulo de suavidad de la funcion
f . Estas dos definiciones son equivalentes solo con ciertas restricciones sobre los parametros; por
ejemplo son diferentes cuando p > 1 y α es pequeo. El primer teorema y mas simple para espacios
de Besov, fue para interpolacion entre un par Bαq (Lp) y Bβ
r (Lp) con p ≥ 1 fijo. En este caso el
metodo real de interpolacion para los parametros (θ, s) aplicado a estos espacios, proporciona el
espacio de Besov Bγs (Lp) con γ = θα + (1 − θ)β. Ası, cuando p se mantiene fijo los espacios de
Besov son invariantes en la interpolacion.
Los espacios de Besov definidos por los modulos de suavidad suceden de forma natural en
algunas arenas de analisis incluyendo la teorıa de aproximacon. Es espacialmente importante el
caso cuando p < 1 ya que estos espacios son necesarios en la descripcion de clases de aproximacion
para los metodos clasicos de aproximacion no lineal como aproximacion racional y aproximacion
por splines con nodos libres.
Sea Ω el cubo unidad en Rd. Si f ∈ Lp(Ω), 0 < p < ∞, entonces ωr(f, t)p, t > 0 denota el
modulo de suavidad de orden r de f ∈ Lp(Ω):
ωr(f, t)p = sup|h|≤t||∆rh(f, .)||p(Ω(rh))
donde |h| es la distancia Euclıdeal del vector h; ∆rh es la diferencia de orden r con paso h ∈ R
d y
la norma es la norma Lp sobre el conjunto Ω(rh) = x : x, x + rh ∈ Ω. Cuando p < 1, esto no
es una norma realmente, es solo una cuasi-norma, es decir, en lugar de la desigualdad triangular,
100
tenemos
||f + g||p ≤ 21/p [||f ||p + ||g||p]
Un hecho util es que para cualquier µ ≤ min(1, p) y cualquier secuencia (fi)
∣∣∣∣∣∣∑
fi
∣∣∣∣∣∣ ≤
(∑||fi||µp ]
)1/µ
Si α, p, q > 0, se dice que f esta en un espacio de Besov Bαq (Lp) cuando
|f |Bαq (Lp) = ||f ||p + |f |Bα
q (Lp)
Se define la siguiente norma para Bαq (Lp):
||f ||Bαq (Lp) = ||f ||p + |f |Bα
q (Lp)
Hay algunas otras normas las cuales son equivalentes a esta ultima. Una pequea observacion es que
||f ||Bαq (Lp) ≃ ||f ||p +
(∞∑
k=1
[2kαωr(f, 2
−k)p
])1/q
101
C. Espacios de Sobolev
Este apendice se ha elaborado realizando un resumen del trabajo de los profesores Angulo Ibanez,
J.M.; Ruiz Medina, M.D.[6] y de los trabajos de los profesores Dautray, R.; Lions, J.L. [16] y [17].
Sea Ω ⊂ Rd y v una funcion de L2(Ω), se puede identificar para una distribucion sobre Ω como
una funcion de L1(Ω), tambien llamado como v y se pueden definir sus derivadas ∂xiv, 1 ≤ i ≤ n
como distribucion sobre Ω. En general, ∂xiv no es un elemento de L2(Ω).
Definicion 8 Llamamos espacio de Sobolev de orden 1 sobre Ω el espacio
H1(Ω) =v ∈ L2(Ω), ∂xi
v ∈ L2, 1 ≤ i ≤ d
el espacio H1 esta dotado con la norma asociada al producto interior:
〈u, v〉1,Ω =
∫
Ω
(uv +
d∑
i=1
∂xiu∂xi
v
)dx
y denotamos la norma correspondiente
||v||1,Ω =√
〈u, v〉1,Ω =
(∫
Ω|u|2 dx+
∫
Ω|∆u|2 dx
)1/2
Y tenemos la generalizacion de tales espacios.
Definicion 9 Sea m ∈ N. Una funcion v ∈ L2(Ω) pertenece al espacio de Sobolev de orden m,
denotado como Hm(Ω), si todas las derivadas de v hasta el orden m, en sentido de distribucion,
pertenecen a L2(Ω). Por convenio, H0(Ω) = L2(Ω).
Teorema 13 Los espacios Hm(Ω), m ≥ 0, dotados con el siguiente producto interior son espacios
de Hilbert:
〈u, v〉m,Ω =∑
|α|≤m
∫
Ω∂αu(x) ¯∂αv(x) dx
con la norma asociada
||u||m,Ω =
√ ∑
|α|≤m
||∂αu||2L2(Ω)
102
Definicion 10 De forma mas general, se puede definir, para 1 ≤ p ≤ ∞ y para todo m ∈ N, m ≥ 1
el espacio de Sobolev como
Wm,p =u ∈ Lp(Ω), ∂αu ∈ Lp(Ω),∀α ∈ N
d, |α| ≤ m
dotado con la norma
||u||W 1,p =
∑
|α|≤m
∫
Ω|∂αu|p dx
1/p
Definicion 11 El espacio de Sololev fraccionario Hsp(R
d) sobre Rd se define, para cada s ∈ R,
como el espacio de funciones temperadas u tales que
||u||Hsp(R
d) =
[∫
Rd
(1 + |ξ|2)ps/2|u(ξ)|p dξ]1/p
< ∞
Hsp(R
d) es un espacio de Banach con la norma ||.||Hsp(R
d). En el caso p = 2, Hs2(R
d) es un espacio
de Hilbert con el producto interior
〈u, v〉Hs2(Rd) =
∫
Rd
(1 + |ξ|2)ps/2u(ξ)v(ξ) dξ
para u, v ∈ Hs2(R
d)
Definicion 12 Sea S un dominio C∞ abierto limitado en Rd. Sea s ∈ R, y 1 < p <∞.
1. El espacio de Sobolev fraccionario Hsp(S) sobre S se define como
Hsp(S) = u ∈ Hs
p(Rd) : sop u ⊆ S
con la norma de Hsp(R
d) restringida a este subespacio.
2. El espacio de Sobolev fraccionario Hsp(S) sobre S se define como
Hsp(S) = f ∈ D∗(S) : ∃F ∈ Hs
p(Rd) tal que f = FS
donde FS es la restriccion de F a S, y ∗ representa la dualidad entre espacios. La norma
considerada es la norma cociente
||f ||Hsp(S)
= minF ;FS=f ||F ||Hsp(R
d)
103
Si consideramos el caso p = 2. Los espacios Hs2(S) y Hs
2(S), que se denotaran como Hs(S) y
Hs(S), respectivamente, son el espacio de Hilbert dual con el producto interior
〈u, v〉Hs(S) =
∫
Rd
(1 + |ξ|2)su(ξ)v(ξ) dξ
=
∫
Rd
(1 + |ξ|2)−su ∗ (ξ)v ∗ (ξ) dξ
= 〈u∗, v∗〉H−s(Rd)
104
REFERENCIAS BIBLIOGRAFICAS
Referencias
[1] Abramovich, F.; Antoniadis, A; Sapatinas, T. Optimal testing in functional analysis of variance
models.
[2] Abramovich, F; Angelini, C. Testing in mixed-effects FANOVA models. Journal of Statistical
Planning and Inference 136 (2006) 4326 4348.
[3] Amato, U; Vuza, D.T. Wavelet approximation of a function from samples affected by noise,
Rev. Roumaine Math. Pures Appl. 42 (1997) 481 493.
[4] Anestis, A.; Sapatinas, T. Estimation and inference in functional mixed - effects models. Compu-
tational Statistics & Data Analysis 51 (2007) 4793 4813.
[5] Angelini, C.; Canditiis, D.; Leblancb, F. Wavelet regression estimation in nonparametric mixed
effect models. Journal of Multivariate Analysis 85 (2003) 267 291.
[6] Angulo, J.M.; Ruiz-Medina, M.D. Multi-resolution approximation to the stochastic inverse pro-
blem. Advances in Applied Probability. Volume 31, Number 4 (1999), 1039-1057.
[7] Antoniadis, A.; Smoothing data with coiflets. Statist. Sinica 4 (1994) 651 678.
[8] Antoniadis, A.; Smoothing noisy data with tapered coiflets series. Scand. J. Statist. 23 (1996)
313 330.
105
[9] Aston, J.A.D.; Chiou, J.M.; Evans, J.P. Linguistic pitch analysis using functional principal
component mixed effect models. Appl. Statist. (2010) 59, Part 2, pp. 297 317.
[10] Benko, M.; Hardle, W; Kneip, A. Common Functional Principal Components. The Annals of
Statistic), 2009.
[11] Cardot, H; Umr Inra - Enesad, C. Conditional functional principal components analysis.
[12] Chiou, J. M.; Muller, H. G.; Wang, J.L. Functional quasi-likelihood regression models with
smooth random effects. J. R. Statist. Soc. B (2003) 65, Part 2, pp. 405 423.
[13] Cnaan, A.; Laird, N. M.; Slasor, P. Using the general linear mixed model to analyse unbalanced
repeated measures and longitudinal data. Statistics in medicine, Vol. 16, 2349-2380 (1997).
[14] Cohen, A.; Daubechies, D.; Vial, P. Wavelets on the interval and fast wavelet transforms. Appl.
Comput. Harm. Anal. 1 (1993) 54 81.
[15] Cressie, N.; Johannesson, G. Fixed rank kriging for very large spatial data sets. J. R. Statist.
Soc. B (2008) 70, Part 1, pp. 209 226.
[16] Dautray, R.; Lions, J.L. Mathematical Analysis and Numerical Methods for Scienece and Tech-
nology. Vol 2. Functional and Variational Methods. 1985. (Springer New York)
[17] Dautray, R.; Lions, J.L. Mathematical Analysis and Numerical Methods for Scienece and Tech-
nology. Vol 3. Spectral Theory and Applications. 1985. (Springer New York, 1985)
[18] Di, C.Z.; Crainiceanu, C.M.; Caffo, B.S.; Punjabi, N.M. Multilevel functional principal compo-
nents analysis. The Annals of Applied Statistics 2009, Vol. 3, No. 1, 458 488.
[19] Essick, G.K.; Sander, T.; Young, M.; Ferrell T.; Kelly, D.; Spitzner, D. Capturing the spatial
percepts evoked by moving tactile stimuli: a novel approach. Behavioural Brain Research 135
(2002) 43 - 49.
[20] Eubank, R.L.; Spline Smoothing and Nonparametric Regression. Dekker, New York, 1988.
[21] Eubank, R. L.; Hart, J.D. Testing goodness - of - fitting in regression vi order selection criteria.
The Annals of Statistics 1992, Vol. 20, No. 3, 1412 1425.
[22] Fan, J.; Gijbels, I. Local Polynomial Modelling and Its Applications. Chapman & Hall, London,
1996.
106
[23] Fan, J.; Lin, S.K. Test of significance when data are curves. Journal of the Americal Statistical
Association: Sep. 1998; 93, 443.
[24] Ferraty, F.; Vieu, P. Nonparametric Functional Data Analysis: Theory and Practice (Springer
Series in Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2006.
[25] Greven, S; Crainiceanu, C.M.; Caffo, B.S.; Reich, D. Longitudinal functional principal compo-
nent analysis. Electronic Journal of Statistics. Vol. 4 (2010) 10221054. ISSN: 1935 7524.
[26] Guo, W. Functional Mixed Effects Models. Biometrics 58, 121-128. March 2002.
[27] Guo, W. Inference in smoothing spline analysis of variance. J. R. Statist. Soc. B (2002) 64,
Part 4, pp. 887 898.
[28] Hardle, W. Applied Nonparametric Regression. Cambridge University Press, Cambridge, 1990.
[29] Huang, J.Z. Projection estimation in multiple regresion with application to functional ANOVA
models. The Annals of Statistics 1998, Vol. 26, No. 1, 242 272.
[30] Ramsay, J.; Hooker, G.; Graves, S. Functional Data Analysis With R and MATLAB. Springer
Series in Statistics, 2009.
[31] Ramsay, J., Silverman, B. Applied Functional Data Analysis, 1 ed. Springer, 2002.
[32] Ramsay, J., Silverman, B. Functional Data Analysis. Springer Series in Statistics, 2nd ed.
Springer, 2005.
[33] Ruiz-Medina, M.D. Spatial autoregressive and moving average Hilbertian processes. Journal of
Multivariate Analysis 102 (2011) 292 305
[34] Ruiz-Medina, M.D.; Espejo, R.M. Integration of spatial functional interaction in the extrapola-
tion of ocean surface temperature anomalies due to global warming. Int. J. Appl. Earth Observ.
Geoinf. (2012), doi:10.1016/j.jag.2012.01.021.
[35] Ruiz Medina, R.M.; Salmeron, R. Functional maximum-likelihood estimation of ARH(p) mo-
dels. Stoch Environ Res Risk Assess (2010) 24:131146. DOI 10.1007/s00477 009 0306 2
[36] Salmeron, R; Ruiz Medina, R.M. Multi-spectral decomposition of functional autoregressive mo-
dels. Stoch Environ Res Risk Assess (2009) 23:289297. DOI 10.1007/s00477 008 0213 y
107
[37] Spitzner, D.; Marron, J.S.; Essick, G.K. Mixed-model functional ANOVA for studying human
tactile perception. Behavioural Brain Research 135 (2002) 43 - 49.
[38] Todd Ogden, R. Essential Wavelets for Statistical Applications and Data Analysis. Birkhauser
[39] Torrecilla Noguerales, J.L. Analisis de Datos Funcionales, Clasificacion y Seleccion de Varia-
bles.
[40] Ugarte, M.D.; Goicoa, T.; Militino, A.F. Empirical Bayes and Fully Bayes procedures to detect
high - risk areas in disease mapping. Computational Statistics and Data Analysis 53 (2009)
2938 - 2949.
[41] Wahba, G. Spline models for observational data. CBMS-NSF Regional Conference Series in
Applied Mathematics, Vol. 59, SIAM, Philadelphia, PA, 1990.
[42] Wahba, G; Wang, Y; Gu, C; Klein, R.; Klein, B. Smoothing splines ANOVA for exponential
families, with application to the Winsconsin epidemiological study of diabetic retinopathy. The
Annals of Statistics 1995, Vol. 23, No. 6, 1865 1895.
[43] Zipunnikov, V; Caffoy, B.S.; Yousemz, D.M.; Davatzikos, C.; Schwartzyy, B.S.; Crainiceanu,
C. Functional principal components model for high - dimensional brain imaging. Collection of
Biostatistics Research Archive (COBRA).
[44] Zoglat, A. Functional Analysis of Variance. Applied Mathematical Sciences, Vol. 2, 2008, no.
23, 1115 - 1129.
108
top related