estimaciÓn de la peligrosidad sismica mediante protocolos de … · 2018. 2. 11. · 2 resumen...

276
ESTIMACIÓN DE LA PELIGROSIDAD SISMICA MEDIANTE PROTOCOLOS DE JUICIOS DE EXPERTOS. Tesis presentada por : Ignacio. J. Quecedo Gutiérrez Dirigida por: Avelino Samartín Quiroga MAYO 2013

Upload: others

Post on 02-Feb-2021

6 views

Category:

Documents


0 download

TRANSCRIPT

  • ESTIMACIÓN DE LA PELIGROSIDAD SISMICA MEDIANTE

    PROTOCOLOS DE JUICIOS DE EXPERTOS.

    Tesis presentada por : Ignacio. J. Quecedo Gutiérrez

    Dirigida por: Avelino Samartín Quiroga

    MAYO 2013

  • INDICE

    AGRADECIMIENTOS...................................................................................................1RESUMEN / ABSTRACT..............................................................................................2INDICE DE FIGURAS...................................................................................................3

    INDICE DE TABLAS .................................................................................................5GLOSARIO DE SIMBOLOS..........................................................................................6Capítulo I. INTRODUCCIÓN Y PLANTEAMIENTO DEL PROBLEMA. ...................7Capítulo II. ANTECEDENTES..................................................................................9

    2.1 Planteamiento del Análisis Probabilista de Peligrosidad Sísmica. .................92.2. Planteamiento clásico de la Atenuación. ..................................................... 112.3. Descripción general de los Protocolos de Juicios de Expertos .................... 122.4 Aplicación del Método de Montecarlo. ......................................................... 162.5 Caracterización de los emplazamientos. ..................................................... 18

    Capítulo III- OBJETIVO DE ESTA TESIS. .................................................................. 19Capítulo IV- METODOLOGÍA. .................................................................................... 20

    4.1 Planteamiento general................................................................................ 204.2 Modelo matemático. .................................................................................... 214.3 Tratamiento de la atenuación. .................................................................... 22

    4.3.1 Utilización de protocolos de Juicio de Expertos en el cálculo de laatenuación. ......................................................................................................... 224.3.2. Composición de los paneles de expertos. ................................................. 234.3.3 Elaboración de variables raíz. .................................................................... 244.3.4. Descripción de los métodos seleccionados para la agregación de juicios. 254.4.1. Elementos a definir y orígenes de la incertidumbre. .................................. 304.4.2. Procedimiento de caracterización de las fuentes sismogenéticas. ............ 32

    Capítulo V. RESULTADOS DE LOS CÁLCULOS DE PELIGROSIDAD DE DOSEMPLAZAMIENTOS TIPO.......................................................................................... 35

    5.1. Descripción de cada instalación. ................................................................. 355.1.1. Regasificadora de Reganosa en Mugardos............................................... 355.1.2. Central nuclear de Cofrentes..................................................................... 36

    5.2. Variables raíz elaboradas para cada instalación.......................................... 385.3 Composición del panel de cada instalación. ................................................ 39

    5.3.2. Emplazamiento de Cofrentes. Componentes del Panel............................. 415.3.3. Relaciones utilizadas en la transformación entre magnitudes e intensidad............................................................................................................................. 42

    5.4. Atenuación. Elección de un método de Agregación de Juicios.. .................. 435.4.1 Comportamiento observado de los métodos de agregación. ...................... 435.4.2. Elección de un método de agregación de juicios. ...................................... 45

    5.5. Repercusión de la incertidumbre en la atenuación en los resultados de lapeligrosidad sísmica. .............................................................................................. 54

    5.5.1. Dispersión de los valores de la peligrosidad sísmica en función de laatenuación. ......................................................................................................... 545.5.2. Repercusión de la incertidumbre de la atenuación en los valores de lapeligrosidad sísmica............................................................................................ 58

    5.6 Repercusión de la incertidumbre de la zonificación en la peligrosidad ........ 625.6.1. Organización de los cálculos. .................................................................... 625.6.2 Resultados según la zonificación en cada emplazamiento. ........................ 62

    5.7 Repercusión en la peligrosidad de la incertidumbre de la Recta G-R. ......... 65Capítulo VI.-CONCLUSIONES. .................................................................................. 79

    6.1 Descripción del trabajo desarrollado............................................................ 796.2 Resumen de los resultados obtenidos. ........................................................ 806.3 Conclusiones de este trabajo. ..................................................................... 81

    Capítulo VII. SUGERENCIAS PARA FUTURAS INVESTIGACIONES........................ 82BIBLIOGRAFÍA........................................................................................................... 83

  • 1

    AGRADECIMIENTOS

    Quiero agradecer la colaboración y el apoyo que me han prestado al Grupo deGeología Aplicada a la Ingeniería Civil del Departamento de Ingeniería y Morfologíadel Terreno de la UPM, al personal de la Biblioteca de la Escuela de I.C.C.P yespecialmente al director de esta Tesis, D. Avelino Samartín Quiroga.

  • 2

    RESUMEN

    Este trabajo estudia la aportación que los métodos de agregación de juicios de expertos pueden realizaren el cálculo de la peligrosidad sísmica de emplazamientos. Se han realizado cálculos en dosemplazamientos de la Península Ibérica: Mugardos (La Coruña) y Cofrentes (Valencia) que estánsometidos a regímenes tectónicos distintos y que, además, alojan instalaciones industriales de granresponsabilidad. Las zonas de estudio, de 320 Km de radio, son independientes.

    Se ha aplicado un planteamiento probabilista a la estimación de la tasa anual de superación de valores dela aceleración horizontal de pico y se ha utilizado el Método de Montecarlo para incorporar a losresultados la incertidumbre presente en los datos relativos a la definición de cada fuente sismogenética yde su sismicidad. Los cálculos se han operado mediante un programa de ordenador, desarrollado paraeste trabajo, que utiliza la metodología propuesta por el Senior Seismic Hazard Analysis Commitee (1997)para la NRC.

    La primera conclusión de los resultados ha sido que la Atenuación es la fuente principal de incertidumbreen las estimaciones de peligrosidad en ambos casos. Dada la dificultad de completar los datos históricosdisponibles de esta variable se ha estudiado el comportamiento de cuatro métodos matemáticos deagregación de juicios de expertos a la hora de estimar una ley de atenuación en un emplazamiento.

    Los datos de partida se han obtenido del Catálogo de Isosistas del IGN. Los sismos utilizados comovariables raíz se han elegido con el criterio de cubrir uniformemente la serie histórica disponible y losvalores de magnitud observados.

    Se ha asignado un panel de expertos particular a cada uno de los dos emplazamientos y se han aplicadoa sus juicios los métodos de Cooke, equipesos, Apostolakis_Mosleh y Morris. Sus propuestas se hancomparado con los datos reales para juzgar su eficacia y su facilidad de operación.

    A partir de los resultados se ha concluido que el método de Cooke ha mostrado el comportamiento máseficiente y robusto para ambos emplazamientos. Este método, además, ha permitido identificar,razonadamente, a aquellos expertos que no deberían haberse introducido en un panel.

    ABSTRACT

    The present work analyses the possible contribution of the mathematical methods of aggregation in theassessment of Seismic Hazzard. Two sites, in the Iberian Peninsula, have been considered: Mugardos (La Coruña) and Cofrentes (Valencia).Both of them are subjected to different tectonic regimes an bothaccommodate high value industrial plants. Their areas of concern, with radius of 320 Km, are notoverlapping.A probabilistic approach has been applied in the assessment the annual probability of exceedence of thehorizontal peak acceleration. The Montecarlo Method has allowed to transfer the uncertainty in themodels and parameters to the final results. A computer program has been developed for this purpose. Themethodology proposed by the Senior Seismic Analysis Committee (1997) for the NRC has beenconsidered.Attenuation in Ground motion has been proved to be the main source of uncertainty in seismic hazard forboth sites. Taking into account the difficulties to complete existing historical data in this subject theperformance of four mathematical methods of aggregation has been studied.Original data have been obtained from the catalogs of the Spanish National Institute of Geography. Theseismic events considered were chosen to cover evenly the historical records and the observed values ofmagnitude.A panel of experts have been applied to each site and four aggregation methods have been developed :equal weights, Cooke, Apostolakis-Mosleh and Morris The four proposals have been compaired with theactual data to judge their performance and ease of application.The results have shown that the Method of Cooke have proved the most efficient and robust for both sites.This method, besides, allow the reasoned identification of those experts who should be rejected from thepanel

  • 3

    INDICE DE FIGURAS.Nº de figura Contenido de la Figura. Página

    Fig. 4.1 Zonificación nº1.Entorno de Mugardos. 33Fig. 4.2 Zonificación nº 2.Toda la Península Ibérica. 33Fig. 4.3 Zonificación nº 3. Entorno de Cofrentes. 33Fig. 4.4 Zonificación nº 3. Entorno de Mugardos 33Fig. 4.5 Zonificación n º4. Entorno de Cofrentes. 33Fig. 5.1 Mugardos y Cofrentes. Patrón de calibración de expertos. 48Fig. 5.2 Mugardos. Calibración del método de equipesos. 48Fig. 5.3 Mugardos. Calibración del método de Cooke. 49Fig. 5.4 Mugardos. Calibración del método de Apostolakis-Mosleh.F 49Fig. 5.5 Mugardos. Calibración del método de Morris. 50Fig. 5.6 Cofrentes. Calibración del método de equipesos 52Fig. 5.7 Cofrentes. Calibración del método de Cooke. 52Fig. 5.8 Cofrentes. Calibración del método de Apostolakis-Mosleh 53Fig. 5.9 Cofrentes. Calibración del método de Morris 53Fig. 5.10 Valores de σagreg para el emplazamiento de Mugardos.

    Relación entre desviación estándar (desvest) y magnitud56

    Fig. 5.11 Valores de σagreg para Dist=320 Km y Dist=5 Km. Mugardos 56Fig. 5.12 Valores del Coef. Variación de PGA con Magnitud y

    Distancia.57

    Fig. 5.13 Variación de la distribución de la atenuación con laDistancia.

    58

    Fig. 5.14 Tasa anual de excedencia de PGA en la Zonificación nº1.Mugardos.

    60

    Fig. 5.15 Tasa anual de excedencia de PGA en la Zonificación nº2.Mugardos

    61

    Fig. 5.16 Tasa anual de excedencia de PGA en la Zonificación nº2.Mugardos.

    61

    Fig. 5.17 Cofrentes. Relaciones entre tasa anual y PGA. Variaszonificaciones.

    63

    Fig. 5.18 Mugardos . Relaciones entre tasa anual y PGA.Variaszonificaciones.

    64

    Fig. 5.19 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº1Caso nº1

    68

    Fig. 5.20 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº1Caso nº 2

    68

    Fig. 5.21 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº1Caso nº 3.

    68

    Fig. 5.22 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº2Caso nº 1.

    70

    Fig. 5.23 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº2Caso nº 2.

    70

    Fig. 5.24 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº2Caso nº 3.

    70

    Fig. 5.25 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº3Caso nº 1

    72

    Fig. 5.26 Mugardos. Mugardos. Calibración del método de Cooke.Reltasa anual excedencia-PGA.Zonificación nº3 Caso nº 2

    72

    Fig. 5.27 Mugardos. Rel tasa anual excedencia-PGA.Zonificación nº3Caso nº 3

    72

    Fig. 5.28 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº2Caso nº 1

    74

    Fig. 5.29 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº2 74

  • 4

    Caso nº 2Fig. 5.30 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº2

    Caso nº 374

    Fig. 5.31 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº3Caso nº 1

    76

    Fig. 5.32 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº3Caso nº 2

    76

    Fig. 5.33 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº3Caso nº 3

    76

    Fig. 5.34 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº4Caso nº 1

    78

    Fig. 5.35 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº4Caso nº 2

    78

    Fig. 5.36 Cofrentes. Rel tasa anual excedencia-PGA.Zonificación nº4Caso nº 3.

    78

  • 5

    INDICE DE TABLASNº de tabla Contenido de la Tabla. Página

    Tabla 2.1 Ventajas e inconvenientes de los métodos de agregación 14Tabla 4.1 Año de inicio del intervalo de validez en la explotación del

    Catálogo sísmico para cada Intensidad.34

    Tabla 5.1 Sismos concebibles para el SSE en el emplazamiento deMugardos.

    36

    Tabla 5.2 Sismos concebibles para el SSE en el emplazamiento deCofrentes.

    37

    Tabla 5.3 Variables raíz para el emplazamiento de Mugardos 38Tabla 5.4 Variables raíz para el emplazamiento de Cofrentes 39Tabla 5.5 Comparación entre las modas propuestas por los métodos

    de agregación. Emplazamiento de Mugardos..46

    Tabla 5.6 Comparación entre las modas propuestas por los métodosde agregación. Emplazamiento de Cofrentes.

    47

    Tabla 5.7 Porcentaje de eventos en cada intervalo. 47Tabla 5.8 Resultados de la comparación entre métodos de

    agregación Mugardos50

    Tabla 5.9 Porcentaje de eventos en cada intervalo. Cofrentes 51Tabla 5.10 Resultados de la comparación entre métodos de

    agregación Cofrentes51

    Tabla 5.11 Valores de σ y pesos propuestos para cada experto 55 Tabla 5.12 Valores de σagreg para el emplazamiento de Mugardos.. 55Tabla 5.13 Valores del Coeficientes de variación con Magnitud y

    Distancia57

    Tabla 5.14 Tasas anuales de PGA en la Zonificación n º1. Mugardos 59Tabla 5.15 Tasas anuales de PGA en la Zonificación n º2. Mugardos

    Mugardos.59

    Tabla 5.16 Tasas anuales de PGA en la Zonificación n º3. Mugardos. 60Tabla 5.17 Comparación entre zonificaciones en el emplazamiento de

    Cofrentes63

    Tabla 5.18 Comparación entre zonificaciones en el emplazamiento deMugardos

    64

    Tabla 5.19 Coef de variación con incertidumbre en G-R (CVG-R) paraMmáx constante.

    65

    Tabla 5.20 Coef de variación con incertidumbre en Mmáx (CVMm) yparámetros a y b constantes.

    65

    Tabla 5.21 Coef de variación con incertidumbre en Mmáx y en G-Rsimultáneamente. (CVGRM)

    65

    Tabla 5.22 Valores medios de las desviaciones estándar de losresiduos de las regresiones de rectas GR en cadazonificación comparados con CVGR

    66

    Tabla 5.23 Mugardos. Rel tasa anual excedencia-PGA. Zonificaciónnº1

    67

    Tabla 5.24 Mugardos. Rel tasa anual excedencia-PGA. Zonificaciónnº2

    69

    Tabla 5.25 Mugardos. Rel tasa anual excedencia-PGA. Zonificaciónnº3

    71

    Tabla 5.26 Cofrentes. Rel tasa anual excedencia-PGA. Zonificaciónnº2

    73

    Tabla 5.27 Cofrentes. Rel tasa anual excedencia-PGA. Zonificaciónnº3

    75

    Tabla 5.28 Cofrentes. Rel tasa anual excedencia-PGA. Zonificaciónnº4

    77

  • 6

    GLOSARIO DE SIMBOLOS.

    a(t) aceleración horizontal en un punto de la superficie del sustrato.ah(t) aceleración horizontal en un punto de la superficie del sustrato.a,b (α,β) Parámetros que definen la recta de recurrencia según Gutenberg y

    RichterC(e) Calibración del experto e.C.V(x). Coeficiente de variación de la variable aleatoria X definido como

    cociente σ(x)/ μ(x). D Distancia medida en planta.Imsk Intensidad según la escala M.S.K (expresada en números romanos).I(s,p) Indice de informaciónm magnitud (en sentido general).m0 Valor mínimo de la magnitud considerada en los cálculos.ML Magnitud local o de Richter. (utilizada por defecto en este trabajo)MS Magnitud de onda superficial.mb Magnitud de ondas de volumen.MN Magnitud de Nutti.MW Magnitud de momento.N Número de eventos a considerar en un sumatorio.nr número de variables raízn número de expertos que componen un panel.p(a/b) Probabilidad del suceso a condicionada a la verificación del suceso b.p(X/x) Verosimilitud de XXi Realización i de un proceso estocástico.PGA Aceleración de pico horizontal.pb probabilidad acumulada en un intervalo de una variable aleatoria.μ(x) Valor medio de la variable aleatoria (x) σ(x) Desviación estándar de la variable aleatoria (x) t Tiempo (en general expresado en años)R Distancia a tener en cuenta en el cálculo de la atenuación.S Número de fuentes sismogenéticas consideradas en un cálculo.S2 Varianza muestral.we Peso asociado al experto e.Χ2α(N-1) Distribución Chi cuadrado de Pearson con (N-1) grados de libertad y

    nivel de confianza (1-α) vi frecuencia esperada por unidad de tiempo de sismos con magnitud igual

    o superior a m0

  • 7

    Capítulo I. INTRODUCCIÓN Y PLANTEAMIENTO DEL PROBLEMA.

    El consumo de energía de la sociedad aumenta de forma sostenida debido alincremento de la población y a su desarrollo económico. La generación de energía ysu almacenamiento, se realizan generalmente en emplazamientos concretos desde losque se distribuye mediante redes.

    El número de estos emplazamientos singulares se incrementa en mayor medida que lapropia demanda debido al interés por sustituir unidades ya existentes para incorporartecnologías más eficaces (y con menor impacto en el medio ambiente) o porque yahan superado su vida útil. Este último aspecto será fundamental a corto plazo en lospaíses más desarrollados donde están en funcionamiento un número elevado deinstalaciones de generación construidas en los años 70 con vidas útiles de 40 años

    Es importante también comentar, en este sentido, el interés que despierta nuevamentela energía nuclear de fisión como respuesta al cambio climático.

    Los usuarios de la energía, a través de sus gobiernos, desean conocer la garantía desuministro de estas instalaciones y su seguridad; por su parte, los promotores buscancuantificar su confianza en el retorno de sus inversiones. Los análisis probabilísticasde riesgos (en adelante PRA, Probabilistic Risk Assessment) colaboran pararesponder a estas preguntas y permiten, además, identificar los elementos de losproyectos que merecen mayor atención.

    Los riesgos se cuantifican, habitualmente, a partir de dos componentes: lapeligrosidad1 y la vulnerabilidad2 de la instalación frente al fenómeno. Ambasmagnitudes tienen asociadas incertidumbres que se representan en los cálculosmediante distribuciones de probabilidad.

    La realización del PRA de una instalación cualquiera incluye el análisis de escenariosformados por combinaciones de amenazas que pueden proceder de la propia actividadde la instalación o estar asociadas a fenómenos naturales, como el oleaje, el viento ola sismicidad.

    La sismicidad en la Península Ibérica se define habitualmente como moderada y losterremotos de magnitud apreciable ocurren con frecuencia reducida; sin embargo labaja probabilidad de que uno de estos eventos suceda durante el periodo deexplotación viene acompañada por las importantes consecuencias que puede unaccidente severo puede ocasionar en una instalación de este tipo. Se trata, por tanto,de un escenario con muy baja probabilidad de ocurrencia y pérdidas asociadas muyelevadas.

    La herramienta utilizada para valorar la peligrosidad asociada a los sismos en unemplazamiento es el Análisis Probabilista de Peligrosidad Sísmica (PSHA ProbabilisticSeismic Hazard Analysis). Su metodología fue propuesta por primera vez por Cornellen su artículo [14] de 1969 y continúa siendo el planteamiento más utilizadoactualmente aunque su evolución en muchos aspectos ha sido continua desde lacitada publicación. El PSHA así definido es “una metodología analítica que estima laprobabilidad de que una serie de niveles de valores pico (desplazamientos,velocidades, aceleraciones, etc.) del terreno de origen sísmico sean superados en unlugar determinado durante un periodo de tiempo futuro; los resultados de este análisis

    1 Peligrosidad se define como la probabilidad de que el valor de la magnitud física que puede ocasionar laruina de la instalación sobrepase un umbral dado en un periodo de tiempo de interés.2 Vulnerabilidad corresponde a la probabilidad de que ocurra una consecuencia concreta en unainstalación si llega a producirse un determinado fenómeno.

  • 8

    son expresados como probabilidades estimadas por unidad de tiempo o comofrecuencias (número esperado de eventos por año)” [ 46]:

    Los análisis de peligrosidad utilizan datos que resultan a menudo difíciles de obtenerya que los sismos son sucesos raros que activan zonas amplias y profundas de lacorteza terrestre.

    El recurso a los Protocolos de Juicios de Expertos es una solución aplicable a aquellassituaciones en las que no resulta posible, en la práctica, resolver el problema anteriorcon un coste en medios o en tiempo razonables. Los protocolos fijan, por una parte,las condiciones que se deben procurar para obtener juicios representativos de lasopiniones reales de los expertos y proporcionan, por otra, algoritmos para combinar,de forma óptima, esta información. El empleo de paneles de expertos es una técnicaque se ha desarrollado paralelamente a la extensión del PRA;. En el campo de lasismicidad se ha aplicado a partir de paneles cuyos miembros interaccionan entre síhasta alcanzar un consenso sobre la cuestión en estudio. Esta metodología,denominada “behaviorista”, resulta costosa en tiempo y en recursos y se reserva paralos estudios de gran responsabilidad.

    Existen ocasiones en las que las características del emplazamiento o la profundidaddel estudio no justifican el desarrollo completo de estos procesos. La ausencia dedatos en estos casos puede tratarse mediante métodos matemáticos de agregación,más rápidos y económicos que los behavioristas, pero que presentan todavía aspectospor estudiar. En este trabajo se va estudiar la aplicación de los métodos matemáticosde agregación, sus posibilidades y grado de aproximación que se puede alcanzar ensu aplicación a la Península Ibérica. En particular conviene tener en cuenta que elgrado de desarrollo del catálogo histórico de sismos de la Península Ibérica permiteque, frecuentemente, sea la atenuación el factor que más incertidumbre aporta alconocimiento de la peligrosidad sísmica. Los métodos matemáticos de agregaciónpueden ser una herramienta útil en el tratamiento de la atenuación

    El Capítulo III de esta tesis describe el enfoque que se propone con el objetivo deinvestigar la capacidad que pueden aportar el Juicio de Expertos en el cálculo de laAtenuación. La Metodología que se va a emplear se trata en el Capítulo IV; en ella sededican cuatro apartados a describir un planteamiento de la Atenuación que utiliza losmétodos de agregación de juicios. Algunos aspectos importantes de esta Metodologíase comentan previamente en el Capítulo II donde además se citan, en algún caso,caminos alternativos a los finalmente elegidos en este trabajo.

    El Capítulo V recoge, por una parte, los datos de base a los que se aplica laMetodología y, por otra, los resultados de los cálculos. A partir de estos resultados sehan deducido las conclusiones que aparecen en el Capítulo VI donde se recapacitasobre las principales ideas de los capítulos anteriores. El Capítulo VII incluyepropuestas para avanzar en el estudio de las oportunidades que los métodos deAgregación de juicios pueden proporcionar.

    Los listados de datos, entradas de ordenador y los ficheros con las salidas deresultados en bruto se incluyen en el CD adjunto por motivos prácticos. Los datosiniciales ya elaborados, los resultados intermedios y la descripción del programa decálculo forman los tres anejos que se pueden encontrar al final de esta Memoria.

  • 9

    Capítulo II. ANTECEDENTES.

    En este capítulo se lleva a cabo una descripción de algunos aspectos fundamentalesde los procedimientos o componentes de un PSHA que se aplicarán en esta tesis. Conesta descripción se trata, por una parte, de dar una idea general de los distintosprocedimientos existentes y su aplicación habitual y, por otra, de comentar losplanteamientos alternativos que se adoptarán en este trabajo.Se han considerado fundamentales los siguientes aspectos:

    Planteamiento del Análisis Probabilista de la Peligrosidad Sísmica (PSHA). Protocolos de Juicios de Expertos. Aplicación del Método de Montecarlo. Caracterización de los emplazamientos. Relación de recurrencia de las fuentes sismogenéticas.

    El último punto hace referencia al modelo de recurrencia de Gutenberg-Richter [25].Teniendo en cuenta que está descrito en bibliografía de forma extensa y frecuente seha preferido indicar, únicamente, la formulación elegida que se recoge en el CapítuloIII- Metodología.

    2.1 Planteamiento del Análisis Probabilista de Peligrosidad Sísmica.

    El Análisis Probabilista de Peligrosidad Sísmica (PSHA) permite estimar laprobabilidad de que varios niveles de desplazamiento del terreno, causados por unsismo, sean excedidos en una localización determinada en un futuro periodo detiempo.

    Esta metodología comenzó su desarrollo con los trabajos de Cornell [14] en 1968 y seha refinado de forma continua durante los últimos cuarenta años.

    Hasta su aparición, el procedimiento utilizado era el denominado Análisis deterministade peligrosidad sísmica (DSHA Deterministic Seismic Hazzard Analysis) con el que elPSHA comparte algunos pasos destinados a la búsqueda de información.

    Los métodos deterministas no permitían incorporar la incertidumbre que forma partede los datos de base en un análisis de peligrosidad; a diferencia de ellos los métodosprobabilistas [31 pp 117] ”proporcionan un marco en el que las incertidumbres puedenser identificadas, cuantificadas y combinadas en una forma racional que permitealcanzar una panorámica más completa de la peligrosidad sísmica”. La herramientautilizada para manipular la incertidumbre es la Teoría de la probabilidad.

    El planteamiento probabilista ha desplazado al determinista en las aplicacioneshabituales, orientadas en general al PRA ; aunque todavía hay vigente normativa queexige el empleo de ambos métodos, el PSHA es el análisis recomendado por BSSC2000, el Eurocódigo 2008 y documentos como el Natural Phenomena HazardsAssesment Criteria [17].

    Existen diferentes planteamientos del PSHA, desarrollados desde el citado artículo deCornell [14], entre ellos pueden citarse:

    - Programa EQRISK, elaborado por McGuire en 1976 [38 y 39]- Modelo EPRI, desarrollado fundamentalmente en 1984 para el Seismic

    owners group (SOG) de la Nuclear electric platform. [20]- Modelo PRISK, construido por Mallard en 1991. [33]- Modelo Bayesiano, utilizado en la Tesis de Sánchez Lavin [55]

    A continuación se incluye una descripción somera de los cuatro pasos básicos quecomponen un análisis probabilístico de peligrosidad sísmica tal y como proponeKramer [31 pp 117-125] a partir de una descripción de Reiter [51].

  • 10

    Paso 1. Identificación de las fuentes de sismicidad.

    Habitualmente este paso conlleva el desarrollo de una zonificación del área de estudioalrededor del emplazamiento y la definición de características comunes en el interiorde cada una de esas zonas. Frecuentemente se asume que la probabilidad deaparición de seísmos dentro de cada zona se reparte uniformemente.

    Paso 2. Caracterización de la recurrencia en las fuentes.

    La sismicidad de cada fuente se caracteriza mediante una ley que trata de especificarla cadencia media con que se generan terremotos que exceden una magnitud físicacaracterística.

    Paso 3. Inclusión de la Atenuación.

    Se desarrolla una ley que pretende predecir la cinemática en un punto del terrenodebida a un terremoto de una magnitud determinada, generado en punto cualquiera dela zona de estudio.

    Paso 4. Agregación.

    Finalmente las incertidumbres en la localización del terremoto, en su importancia y enel valor que tomará la magnitud física que defina el desplazamiento del terreno, secombinan para obtener la probabilidad de que un valor del parámetro dedesplazamiento del terreno sea superado durante un periodo de tiempo determinado.

    Una descripción más extensa de estos pasos puede encontrarse en múltiplespublicaciones entre las que se propone la Probabilistic Safety Assessment for seismicevents de la IAEA [27 pp 15-18]. Un ejemplo completamente desarrollado puedeencontrarse en el documento “Guidance for performing PSHA for a Nuclear Plant Site:Example application to the Southeastern United States” [48]. Este documento aplica lametodología recogida en el informe del SSHAC, que se describe más adelante.

    En este contexto parece conveniente comentar algunas características del PRA. Enprimer lugar se observa que el PSHA es un componente del Análisis probabilista deriesgos (en adelante PRA, Probabilistic Risk Assessment) de las instalaciones.

    El nacimiento del PRA puede fijarse en 1957 cuando la Nuclear RegulatoryCommission (NRC) elaboró el informe denominado WASH-740 sobre mejoras dediseño de los reactores nucleares. Este informe se basaba en el análisis de escenariosde fugas radioactivas para un central de 200 MWe situada a 30 millas de unapoblación importante. Sus conclusiones no tenían, paradójicamente, repercusiónsobre los riesgos del proyecto si estos se calculaban de acuerdo con la metodologíautilizada hasta entonces.

    El deseo de cuantificar y evaluar los efectos que los incrementos de potencia y losavances de diseño en los reactores nucleares podían tener sobre los escenarios dediseño llevó a NRC a desarrollar el Análisis Probabilista de Riesgos (PRA).

    Esta metodología, que había nacido, realmente, en la industria aeroespacial, seextendió rápidamente a otros campos entre los que destacó llamativamente lageneración de energía eléctrica en centrales nucleares.

    El desarrollo de modelos probabilísticos para representar la peligrosidad y lavulnerabilidad ha sido, lógicamente paralelo: no es casual que nombres comoDavenport y Newmark (tomado de [23]) o, especialmente, Cornell [14], aparezcanencabezando artículos tanto sobre métodos probabilísticos de comprobación deestructuras como sobre la definición estadística de acciones como el viento o lasismicidad. Se puede concluir que la definición completa de una acción debe ser

  • 11

    probabilista para poder ser tratada coherentemente dentro del planteamiento de unPRA.

    Las disparidades en las conclusiones de los trabajos realizados en los años 80 por elEPRI (Electric Power Research Institute) y el LLNL (Lawrence Livermore NationalLaboratory) sobre la peligrosidad sísmica en el Centro y Este de los Estados Unidos[Guidelines] indujo a la NRC a la creación de un comité que estudiase estasdiscrepancias. Este Comité, denominado SSHAC (Senior Seismic Hazard AnalysisCommitee) terminó sus trabajos en 1997. [46]

    El informe de este Comité no se orientó únicamente a resolver las disparidadesencontradas en un caso particular, sino que recogió el estado del arte en laelaboración de un PSHA. Se consideró en su inicio que la metodología propuestatendría validez durante, al menos, los 10 años siguientes a su publicación.

    Su publicación [46] contiene una serie de recomendaciones muy detalladas acerca dediferentes aspectos importantes en la elaboración de un PSHA, entre los que cabedestacar:

    El nivel y la extensión que debe tener un PSHA dependiendo de la implicaciónpara el Regulador, los recursos disponibles y la percepción pública.

    La definición de las diferentes etapas que componen un análisis La identificación de las fuentes de incertidumbre en cada elemento que

    compone el análisis y su tratamiento. La descripción de las funciones que debe desempeñar el técnico responsable

    del proyecto ya sea como técnico facilitador o como facilitador-integrador. La necesidad de la colaboración de paneles de expertos.

    Merece la pena comentar que el Comité expresa en su resumen, como conclusiónmás importante, que las causas de las discrepancias en los resultados comparados seencuentran en los procedimientos elegidos, más que en aspectos técnicos concretos.Otro aspecto a resaltar es la atención prestada al empleo de protocolos de Juicios deexpertos en cada aspecto de la evaluación de la peligrosidad y a la misión del Técnicoresponsable dentro de cada uno de ellos, así como a efectos comparativos elplanteamiento clásico de este tema. Estos aspectos se tratan de forma resumida acontinuación,

    2.2. Planteamiento clásico de la Atenuación.

    El término Atenuación se refiere en este trabajo a las modificaciones que se producenen los trenes de ondas asociados a un sismo en su trayecto desde el hipocentro hastaun punto cualquiera de la superficie del sustrato rocoso. Las variaciones asociadas alespesor de los suelos cuaternarios y al relieve, que pueden producir tantoatenuaciones como amplificaciones, se incluyen dentro de los llamados efectos localesy no se tienen presentes en esta tesis a pesar de su importancia en determinadoscasos.

    Los mecanismos principales que explican la atenuación son dos:

    - Expansión geométrica, asociada a la variación de la energía por unidad devolumen al aumentar el radio del frente de una onda.

    - Atenuación anelástica, término en el que se incluyen una serie defenómenos físicos como la fricción o la heterogeneidad del medio entreotros.

  • 12

    El procedimiento más habitual para incluir la atenuación en un cálculo de peligrosidadconsiste en utilizar relaciones predictivas que ligan la magnitud de un evento, unadistancia (con diferentes definiciones) y una variable cinemática de interés.

    Fundamentalmente hay dos caminos para definir una relación de atenuación: losmodelos físicos y los empíricos.

    Los modelos físicos se componen básicamente de un modelo de generación desismos y de un modelo de transmisión de ondas a través de la corteza terrestre.Suelen particularizarse al entorno de un enclave determinado y pueden tararse condatos de otras regiones sismogenéticas alejadas.

    Los modelos empíricos consisten en expresiones obtenidas por regresión a partir decolecciones de datos reales. Su aplicación tiene sentido cuando estos datos sonabundantes. Durante su elaboración es conveniente tener presente que los registrosde atenuación a corta distancia del hipocentro suelen ser escasos y que las redes desismógrafos no suelen ser capaces de registrar de forma útil los eventos originados adistancias superiores a 100 Km.

    Los modelos empíricos son los más utilizados; para ajustar los datos de campo seemplean leyes con claro sentido físico, lo que permite minimizar el número decoeficientes empíricos y ganar confianza en el empleo de estas leyes en los intervalosde las variables escasamente representados en los datos de partida. Habitualmente setrata de distribuciones de probabilidad lognormal. Una forma tipo puede ser lapropuesta por Kramer [ 11 pp 86-91]:

    Ln(Y)=C1+C2*M+C3*MC4+C5*Ln[R+C6exp(C7xM)]+C8*R+f(fuente)+f(emplazamiento)

    σLny=C9

    La variable Y suele representar un valor pico del desplazamiento del terreno(aceleración, velocidad, desplazamiento, etc). R es una distancia definida por el autor.

    Los tres primeros sumandos tienen en cuenta que la Magnitud (M) está definida apartir del logaritmo de una medida del movimiento del terreno, por tanto, Ln(Y) debeser, aproximadamente, proporcional a M

    Los términos que incluyen a C5, C6 y C7 representan la expansión geométrica de lasondas tanto de volumen como superficiales.

    El cuarto sumando corresponde a la disminución exponencial con R de las amplitudesde ondas debida al amortiguamiento de los materiales atravesados.

    La incertidumbre en la definición de Ln(Y) está incorporada a través del término C9,para el que la mayoría de los autores propone valores constantes.

    2.3. Descripción general de los Protocolos de Juicios de Expertos

    El recurso a los juicios de expertos de forma más o menos elaborada se ha utilizadocon frecuencia en campos que abarcan desde la inteligencia militar hasta la industriaaeroespacial.

    Las técnicas que se emplean actualmente tienen su origen en dos métodosdesarrollados en la década de los 70‘s por la Rand Corporation: el método Delphi y la

  • 13

    Creación de escenarios. La evolución posterior de los protocolos ha acompañado a laextensión de los PRA; quizás el área de la evaluación de riesgos en la que ha sidomás frecuente el uso de expertos es la valoración de las probabilidades de erroreshumanos [13 pp 28,29] .

    Estos protocolos tratan de aprovechar la denominada “intuición de experto” [50] que sefundamenta en dos características propias de estos individuos:

    - Su capacidad para integrar en su razonamiento el contenido de su memoriaa largo plazo, sin disminuir el uso de su memoria a corto plazo.

    - Su ágil manejo de modelos mentales complejos, que le proporcionan unacapacidad más extensa de razonamiento con datos y de reconocimiento depatrones.

    Glaser y Chi han enumerado (tomado también de [50]) las características quedistinguen a un experto y destacan entre ellas su percepción de los grandes patronesde su área de trabajo y el tiempo dedicado al análisis cualitativo de los problemas.

    La USNRC [6] propone de forma general recurrir a estas técnicas cuando se cumplenalguna de las siguientes condiciones:

    - Los datos experimentales no se pueden obtener de forma razonable por sucoste o su duración o los análisis no se pueden realizar por motivosprácticos.

    - El cumplimiento de la normativa presenta incertidumbres importantes.- Existe más de un modelo conceptual consistente con los datos de base.- Son precisos juicios técnicos para determinar si los cálculos y las

    condiciones de contorno son adecuadamente conservadoras.

    Las metodologías actuales de explotación de los juicios de expertos se fundamentanen tres pilares básicos:

    - El concepto de Probabilidad subjetiva, asociado a la inferencia bayesiana[13 y 6].

    - La Teoría normativa de la Decisión de Savage (1957) que puedeencontrarse desarrollada en parte en [13].

    - Los trabajos de DeFinetti (1930’s) sobre los conceptos deIntercambiabilidad y Representatividad. [6].

    Un protocolo es un proceso compuesto, básicamente, por dos escalones:

    - El método de elicitación de las opiniones de los expertos que componen unpanel.

    - El procedimiento de agregación de las opiniones.

    El primer escalón incluye las medidas a adoptar para obtener adecuadamente losjuicios del panel; se pretende por una parte garantizar un correcto conocimiento de lanaturaleza del problema sobre el que se pronuncian los participantes y, por otra,asegurar su capacidad de expresar su opinión sirviéndose del concepto deprobabilidad. Se presta gran atención a los posibles sesgos motivacionales o deconocimiento de los expertos.

    El segundo paso del protocolo define el “valor”, entendido como verosimilitud, que seatribuirá a cada juicio y el tratamiento que se da al conjunto de respuestas.Dependiendo de este proceso de agregación habitualmente se diferencian dos tiposde protocolos: matemáticos y behavioristas (o conductistas); ambos tipos se utilizan enla actualidad.

  • 14

    Los métodos matemáticos aglutinan las opiniones analíticamente, bien combinándolaslinealmente, bien aprovechando la inferencia bayesiana. Los métodos behavioristas seplantean como objetivo alcanzar el consenso de los miembros del panel respecto auna conclusión representativa de la opinión de la totalidad de la comunidad científicainformada. Las dificultades para alcanzar un acuerdo entre los expertos se salvan, enparte, admitiendo diferentes grados de convergencia dentro del concepto de consenso.

    La siguiente Tabla 2.1 pretende resumir las ventajas e inconvenientes de cada uno delos tipos de agregación.

    Tabla 2.1 Ventajas e inconvenientes de los métodos de agregación

    Métodos matemáticos Métodos behavioristas

    Ventajas TransparenciaReproducibilidadFacilidad para analizar susensibilidadSencillez en la detección de entreexpertos

    Puede alcanzarse un consensoreal y creíbleNo es necesario calcular pesos.

    Desventajas Cada modelo es, en principio,adecuado a un problemaparticular No existe una rutinacomún para cualquier problema

    Elevado coste económico y entiempoDifícil alcanzar un consensocuando el número de expertos eselevadoMuy dependiente de lainformación aportada a lospanelistas.

    Los métodos matemáticos de agregación se clasifican frecuentemente en tres grupos[13]:

    Bayesianos : Aplican de forma reiterativa el teorema de Bayes (o de laprobabilidad condicionada de una hipótesis) sobre una opinión“ apriori” del técnico integrador.

    Comb. Lineal: Combinan linealmente las opiniones mediante pesos iguales odistintos. No necesitan de una opinión a priori.

    Escalado psicológico:Utilizan la comparación entre hipótesis tomadas dos a dos paraobtener una escala relativa que debe ser tarada con valoresreales.

    El tercero de estos métodos precisa de un número elevado de expertos (al menos 10)y no se adapta a la elección entre curvas de atenuación por lo que no se ha tenido encuenta en esta Tesis.

    A la hora de desarrollar un PSHA los protocolos de expertos pueden participar en ladefinición de cualquiera de sus tres elementos fundamentales (definición de fuentes,asociación de relaciones de recurrencia y atenuación). Su colaboración puede referirsea la determinación de parámetros, a la elección de modelos o a la elección deescenarios mediante árboles de decisión.

    En esta Tesis se pretende explotar el recurso a expertos en el cálculo de algunasvariables de gran incertidumbre que intervienen en un estudio PSHA, como laAtenuación sísmica. Habitualmente, en el caso de esta variable esta tarea se realizapor dos caminos:

  • 15

    Formulación de una ley semiempírica de atenuación (ver punto 3.4.1)ajustada a los datos disponibles en el entorno del emplazamiento.

    Elección de una ley semiempírica entre las disponibles en labibliografía.

    La aplicación del primer método presenta habitualmente el problema de la escasez delos datos, especialmente si se pretende tener una medida de la dispersión de losvalores que se van a proponer.

    El segundo procedimiento puede conducir a valores muy alejados de la realidad si laelección del autor es errónea.

    El empleo de Juicios de expertos permite incorporar los datos disponibles delemplazamiento y el trabajo de elaboración acumulados por otros autores para puntosde estudio comparables.

    Conviene recordar que la aceptación pública de los Protocolos de Juicios de expertosse produjo después de dos hitos fundamentales

    - La redacción del documento Reactor Safety Study (Wash 1400) del USNRC(1975), que inicialmente fue fuertemente criticado y posteriormente fuerestituido después del accidente in Three miles island (1979).

    - La elaboración en 1987 del Draft Reactor Risk Reference Document querecurría al juicio de expertos masivamente en su informe sobre riesgos decinco centrales nucleares en USA.

    Una descripción del desarrollo en el tiempo de los Protocolos de Juicios de expertospuede encontrarse en el texto de Cooke [13 pp 27-31]:

    El informe redactado por el SSHAC [46] en 1997, que dedica gran atención a estosprocedimientos, propone el empleo de un método behaviorista. En su Apéndice J seseñala alguna de las desventajas de los métodos matemáticos y comenta laimposibilidad de aplicar recetas sistemáticas para solucionar la agregación de juicios.Sin embargo, esta opinión no es general y a pesar de algunas desventajas señaladasen [68] se aplicará en esta Tesis los métodos matemáticos de agregación por lossiguientes motivos:

    - En el caso de la atenuación, se comparan propuestas expresadas comofunciones matemáticas de varias variables. Es difícil consensuar su empleosin realizar un contraste con los datos de campo y es complicado expresaruna opinión de un panel de expertos sin asignar un peso a cada propuesta.

    - El PSHA se aplica frecuentemente a proyectos que por su dimensión nomerecen la creación de un panel sometido a un proceso largo deinteracción entre sus miembros.

    - En otros campos, los métodos matemáticos están demostrando mayorefectividad que los métodos behavioristas [49].

    La agregación de juicios se va a realizar en esta Tesis mediante los siguientes cuatrométodos que incluyen procedimientos bayesianos y de combinación lineal:

    - Combinación lineal con pesos iguales.- Combinación lineal con pesos determinados por el método de Cooke- Método de Morris (bayesiano).- Método de Apostolakis-Mosleh (bayesiano)

    Estos procedimientos se describen en detalle en el Capítulo IV- Metodología.

  • 16

    2.4 Aplicación del Método de Montecarlo.

    La estimación de la peligrosidad sísmica hace necesario investigar, como se hacomentado, los siguientes variables en el entorno del emplazamiento en estudio:

    La distribución geográfica de fuentes sismogenéticas.

    La definición de la sismicidad de cada fuente.

    La atenuación de las ondas sísmicas en su camino desde el hipocentro hastael punto de interés.

    Cada uno de estos tres variables tiene incertidumbres que deben ser incorporadas a laformulación a la hora de calcular la peligrosidad; sin embargo, la cuantificación de susparámetros o el modelo de trabajo en sí resultan en general difíciles de determinar

    La irregularidad de las geometrías y la introducción en los cálculos de la incertidumbrede los datos de base conducen, salvo excepciones, a integrales de probabilidad sinsolución analítica. Una de las posibles herramientas matemáticas que permiteincorporar estas incertidumbres y estimar su repercusión en el valor final de lapeligrosidad es el Método de Montecarlo.

    El Método de Montecarlo emplea series largas de números aleatorios como variablesraíz para simular numéricamente procesos estocásticos y deterministas. Losresultados de un número elevado de simulaciones son explotadas estadísticamente,de forma que la frecuencia de aparición de los sucesos se supone que representa unaaproximación de la probabilidad de su aparición..

    Este método es robusto y sencillo pero necesita en una aplicación práctica una granpotencia de cálculo, por lo que su uso quedó poco extendido en el pasado. Lacapacidad de los modernos ordenadores de bajo coste hace que su empleo resultenuevamente interesante.

    Sobol ([58] pp 9) sitúa en 1949 el nacimiento de este método aunque las basesmatemáticas se conocían anteriormente.

    Este método permite incorporar funciones no definidas explícitamente; en cadarealización del cálculo se genera un número aleatorio, comprendido entre 0 y 1, que seutiliza para “obtener por sorteo” el valor que toma cada variable a partir de sudistribución de probabilidad; cada uno de estos valores se denomina simulación y seintroduce en el modelo de cálculo.

    Baecher y Christian [4] destacan las siguientes características que deben ser tenidasen cuenta en la realización de las simulaciones:

    - El estimador centrado de la media de un proceso estocástico es,simplemente, la media de los resultados del proceso.

    N

    iixN

    xE1

    1

    - La desviación estándar de esta estimación está relacionada con ladesviación estándar de los resultados por la relación :

    N

    x

    x

    _

  • 17

    - Si el proceso aleatorio se rige por una distribución Normal, la varianza sigueuna distribución Chi cuadrado

    - Se puede demostrar que un límite superior del intervalo de confianza alnivel (1-α) viene dado por la expresión

    2

    )1,

    2

    12 1

    N

    SN

    En la cual:

    S2 es la varianza muestral

    Χi es la función Chi cuadrado acumulada con parámetros α y (N-1)

    Sobol demuestra, a partir del Teorema Central del límite y de las propiedades de ladistribución normal que:

    - La media aritmética de N realizaciones es, efectivamente, un estimador dela media real del fenómeno

    - El error que se comete en la estimación puede hacerse tan pequeño comose desee.

    - El error es inversamente proporcional al cuadrado del número N derealizaciones o simulaciones.

    Este último aspecto es crucial al suponer que aumentos significativos en la precisiónde la simulación obligan a incrementos elevados en el número de realizaciones.

    La generación de los números aleatorios está tratada de forma extensa en labibliografía; actualmente los compiladores y las hojas de cálculos suelen incluir suspropios algoritmos que generan series de números pseudoaleatorios de longitudsobrada para aplicaciones comunes. Los algoritmos parten de un primer número,denominado raíz, que frecuentemente es el número aleatorio utilizado en el cicloanterior. Habitualmente se exige [3] a las series cumplir los siguientes requisitos:

    - Distribución uniforme de probabilidad en el intervalo (0 y 1).- Independencia estadística entre los números generados.- La media de los números raíz debe tender a ½ y la varianza a 1/12.- Un periodo de vida suficientemente largo para la aplicación.

    Dado que el trabajo de cálculo es, a menudo elevado, se han desarrolladoprocedimientos para disminuir el número de iteraciones para alcanzar una precisióndada. Estos procedimientos se conocen como “métodos de reducción de la varianza” yno se ha considerado necesario aplicarlos en este trabajo [4].

    La utilización del método de Montecarlo puede aportar al PSHA las siguientesventajas, según Musson [44]

    - Posibilidad de incorporar modelos no poissonianos.- Manejo sencillo de la incertidumbre.- Posible extensión al análisis de riesgos incluyendo funciones de

    vulnerabilidad.

    Existen precedentes del empleo por Youngs and Coppersmith del método deMontecarlo desde 1986 [63], sin embargo éstos aparecen escasamenterepresentados en la literatura. El informe del SSHAC propone su uso para explotar lasegunda posibilidad citada por Musson, junto a técnicas como el hipercubo latino o elmuestreo ortogonal; exige un número mínimo de iteraciones de 200 ([46] pp 123), muyinferior al utilizado en este trabajo.

  • 18

    2.5 Caracterización de los emplazamientos.

    El primer paso en el desarrollo de un análisis de peligrosidad sísmica es la definicióngeográfica de las fuentes sismogenéticas; en este primer paso la definición y ladescripción de su sismicidad deben ser coherentes.

    El planteamiento del PSHA, que se utilizará en esta Tesis, considera que una fuentees un elemento, plano o área, que muestra una sismicidad uniforme, (se acepta que laactividad sísmica se distribuye uniformemente en toda la extensión del elemento) quepuede ser diferenciada de la observada en las fuentes contiguas; de acuerdo con estedefinición las fuentes pueden clasificarse en fallas, representadas por líneas o planos,y por zonas, que engloban áreas de tamaños muy dispares. Este procedimiento es elrecomendado por la NUREG [46] y aparece ampliamente recogido en la literatura, porejemplo [30] y [32].

    El planteamiento citado se apoya en las características geológicas y tectónicas de lazona y en la sismicidad registrada. En general el proceso está sujeto a ciertasubjetividad y es frecuente que existan zonificaciones diferentes procedentes dedistintos autores para una misma área.

    Existen planteamientos alternativos entre los que merece destacarse el propuesto porWoo [65] y aplicado por Crespo y Martí [16]. Este método está basado en la obtenciónde una función de densidad de probabilidad (kernel) que depende de la magnitud y dela separación de los epicentros (ancho de banda) en torno a un punto. Con esteplanteamiento es posible tener en cuenta la distribución fractal de la sismicidad y larelación entre las tasas de terremotos de diferentes magnitudes y la geografía.

    La sismicidad de la Península Ibérica puede considerarse como moderada en toda suextensión y pueden diferenciarse dentro de ella dos zonas de acuerdo con el origen desu actividad. En esta Tesis se elegirán dos emplazamientos con sismicidad y datosaccesibles muy distintos, con objeto de comprobar la eficacia del procedimiento deagregación del Juicio de expertos en la evaluación del PSHA de cada uno de los dosemplazamientos.,

  • 19

    Capítulo III- OBJETIVOS.

    Este trabajo pretende ser una aportación al desarrollo de los análisis de peligrosidadsísmica en la Península Ibérica, utilizando métodos matemáticos de agregación dejuicios de expertos. Los principales objetivos de este trabajo se resumen acontinuación:

    - Evaluar la influencia y sensibilidad de los datos sísmicos obtenidos en unemplazamiento en los resultados del estudio de la peligrosidad sísmica.

    -Comprobar la validez y aproximación de la metodología cuya aplicación se propone,mediante la comparación de sus resultados con los deducidos a partir de otrosmétodos usuales y conocidos.

    - Estudiar la función que pueden desempeñar en este tipo de análisis de lapeligrosidad sísmica los métodos matemáticos de agregación de juicios de expertosaplicados a la estimación de las distintas variables que intervienen en dichos análisis,como la zonificación y la atenuación sísmica entre otros.

    - Recomendar, a partir de la aplicación de las distintas variantes a los métodosmatemáticos de agregación de juicios de expertos y de los resultados obtenidos,aquella variante que más se adecua desde un punto de vista computacional, facilidadde toma de datos, resultados etc. a un estudio de la peligrosidad sísmica de unemplazamiento.

    - Deducir a partir de la comparación de los resultados obtenidos de la aplicación delos métodos de agregación de juicios de expertos las ventajas e inconvenientes queaparecen en la aplicación de las distintas variantes, las cuales pueden depender de lascaracterísticas del emplazamiento, como información sísmica disponible y de su gradopotencial de sismicidad. Con esta finalidad se elegirán dos emplazamientos en lapenínsula Ibérica de sismicidad extrema, mínima y máxima en los que se aplicará lametodología desarrollada en esta Tesis, y se comparan los resultados alcanzados.

  • 20

    Capítulo IV- METODOLOGÍA.

    4.1 Planteamiento general.

    El primer paso de esta tesis va a consistir en la elección de un método matemático deagregación; para ello se van a aplicar cuatro métodos recogidos de la bibliografía a losjuicios de dos paneles de expertos. Las propuestas de cada método se van acomparar con los resultados realmente observados, lo que permitirá, por una parte,observar el comportamiento de estos métodos en general y, por otra, elegir elprocedimiento más eficaz; el cual será aplicado en los análisis restantes.

    Este paso se va a desarrollar en dos emplazamientos representativos de los dosregímenes tectónicos fundamentales de la Península Ibérica. La sismicidad de laPenínsula Ibérica puede considerarse como moderada en toda su extensión peropueden diferenciarse dentro de ella dos zonas de acuerdo con el origen de suactividad.

    La actividad sísmica en su zona oriental es consecuencia de la convergencia entre lasplacas africanas y euroasiática, cuyo límite se sitúa en una franja ancha de direcciónEste-Oeste centrada en el golfo de Cádiz-Mar de Alborán. Las zonas donde seabsorbe esta convergencia son la Cordillera Bética, el Banco de Gorringe y el Rift.Algunas deformaciones no absorbidas en estas áreas dan lugar a sismos en laCordillera Pirenaica.

    La actividad en la zona occidental de la península se produce sobre todo en las orlasmesozoica y neógena del centro y sur de Portugal y en el propio borde del MacizoHercínico, decreciendo al adentrarse en el Macizo, por lo que es mayor en Galicia yPortugal.

    Posteriormente se va a calcular la dispersión que se observa en los resultados alestudiar la peligrosidad con las leyes de atenuación propuestas por cada uno de losexpertos que componen cada panel (en su emplazamiento); no se considerarán otrasfuentes de incertidumbre en este paso. La peligrosidad se va a estudiar a través delcomportamiento de la aceleración de pico PGA ( Peak Ground Aceleration)

    Finalmente se va a comparar la dispersión observada en el punto anterior con laincertidumbre en la peligrosidad consecuencia de la propia incertidumbre en los datosdiferentes de la atenuación; con este propósito se va a llevar a cabo una serie decálculos suponiendo :

    Tres posibles zonificaciones para cada emplazamiento tomadas de la literatura.

    Caracterización de cada fuente mediante parámetros representados porvariables aleatorias. Estas variables se calcularán a partir de los datosrecogidos en el Catálogo sísmico [29].

    El conjunto de los resultados permitirá estudiar la repercusión que la incertidumbre enlos datos iniciales tiene en los valores finales de la peligrosidad, todo ello teniendo encuenta el estado del conocimiento actual de la Geología y de la sismicidad histórica dela Península Ibérica.

    Los siguientes apartados describen los principales elementos teóricos que intervienenen el desarrollo de los cálculos que se van a realizar dentro de este trabajo. Susaspectos más característicos se han discutido en el Capítulo II donde se ha tratado desituarlos y de comentar sus alternativas.

    Los modelos elegidos para tener en cuenta tanto la Atenuación (Sección 4.3) como laRecurrencia (Sección 4.4) deben considerarse como “estado del arte” dado que son

  • 21

    extensamente aceptados y recomendados por instituciones como la NRC en laspublicaciones ya comentadas en la Sección 2.1. Existen, por tanto, modelosalternativos que suponen aportaciones sin duda interesantes pero que no tienen, unaaceptación tan general.

    El tratamiento de la atenuación se ha tratado extensamente ya que forma una partefundamental de esta tesis sin embargo sigue siendo recomendable recurrir a labibliografía para tener un conocimiento completo de los fundamentos y formulacionesde los procedimientos aplicados. La descripción recogida aquí pretende dar una visiónsuficiente y recoger las hipótesis que se han adoptado a la hora de aplicarlos.

    Los cálculos de peligrosidad se han realizado con la ayuda de un programa deordenador escrito para este trabajo; se ha utilizado el lenguaje Fortran 90. El Anejo nº3 recoge una descripción del programa y su código fuente. Dado que su redacción notiene peculiaridades que merezcan explicación y que se trata de un lenguaje deprogramación muy difundido no ha parecido necesario dedicarle una secciónindependiente dentro de este capítulo.

    4.2 Modelo matemático.

    Los cálculos incluidos en este trabajo tienen como objeto estimar la incertidumbre enla peligrosidad sísmica consecuencia de la propia incertidumbre acumulada en losdatos de partida y en la adecuación de los modelos.

    La variable elegida para expresar la peligrosidad sísmica ha sido la aceleraciónhorizontal de pico (PGA) en el sustrato rocoso. La PGA ha sido empleada duranteaños como parámetro de diseño y aún hoy se utiliza como factor de escala de losespectros de respuesta tipo propuestos por códigos como el EC-8 o la norma NCSE-02. Existen en la bibliografía numerosas correlaciones que proporcionan estimacionesde este parámetro. Aunque actualmente no se recomienda su empleo como factor deescala de espectros continúa siendo un parámetro descriptivo [46 pp. 10] y [27 pp. 19]

    La formulación elegida es la propuesta por el SSHAC [46 pp. 119] y puede asumirseque su aplicabilidad es general salvo casos muy particulares.

    La expresión fundamental, basada en el Teorema de la Probabilidad Total [11], es lasiguiente:

    S

    iMRi drdmmfmrf

    rmgatvtaAP

    ii

    1

    )()/(),(ln

    'exp1)(

    S

    iMRi drdmmfmrf

    rmgatv

    ii

    1

    )()/(),(ln

    '

    (Ec 1)

    Siendo

    S número de fuentes sismogenéticas.vi frecuencia esperada por unidad de tiempo de sismos con magnitud igual osuperior a m0Ф’ relación de atenuación (habitualmente una distribución log-normal. fR distribución de distancias entre el emplazamiento y el origen del sismo.fM densidad de probabilidad de la distribución de magnitudes.

  • 22

    Este planteamiento asume que en el área de estudio la sismicidad es un procesoestacionario y que es aplicable un modelo de Poisson. Esta hipótesis implica que:

    o El número de eventos en un intervalo de tiempo es independiente de loocurrido en cualquier otro intervalo.

    o La probabilidad de ocurrencia de un evento en un intervalo de tiempo t esproporcional a la longitud del intervalo.

    o La probabilidad de ocurrencia simultánea de dos sucesos es despreciable.

    Se ha renunciado a utilizar otros modelos, como el Bayesiano probabilista [53 p. 79]ya que están menos extendidos y la distribución de la incertidumbre menos estudiada.

    Los dos primeros factores de la Ec-1 se han tratado en el modelo de formadeterminista (aunque la atenuación aparece como variable aleatoria) mientras que eltercero, la sismicidad, se caracteriza mediante variables aleatorias que tratan deintroducir en el cálculo la incertidumbre de este aspecto.

    La incorporación de dichas variables y la transmisión de la incertidumbre a través delcálculo se hacen posibles mediante la utilización del método de Montecarlo que se hadescrito brevemente en la Sección 2.4. Se ha realizado una aplicación básica de estemétodo en la cual no que ha sido necesario utilizar técnicas especiales como la dereducción de la varianza etc. No se ha considerado tampoco preciso recurrir a técnicasde muestreo como el hipercubo latino o el muestreo ortogonal.

    La atenuación se estimará con ayuda de un método de agregación de Juicios deExpertos; en una primera fase se aplicarán cuatro métodos de los que se elegirá elque proporcione resultados más próximos a los registrados. Este método se aplicaráen todos los cálculos posteriores de peligrosidad en los dos emplazamientos citadosen la Sección 4.1. El Apartado 4.3.4 (completado en el Anejo nº 1) describe el procesoa desarrollar. El resultado de la aplicación de este método generará una variablealeatoria para cada valor de magnitud y radio que se introduce en la Ec-1 sin sorteointermedio alguno.

    4.3 Tratamiento de la atenuación.

    4.3.1 Utilización de protocolos de Juicio de Expertos en el cálculo de laatenuación.

    Una descripción general de las posibilidades de los Juicios de Expertos se ha incluidoen el Capítulo II .Antecedentes.

    La explotación del juicio de expertos que se realizará en esta tesis pretende:

    - Observar el funcionamiento de cuatro métodos de agregación comentados,es decir, los métodos siguientes : Combinación lineal con pesos iguales. Combinación lineal con pesos determinados por el método de Cooke Método de Morris (bayesiano). Método de Apostolakis-Mosleh (bayesiano)

    - Elegir el que se considere más idóneo.- Comparar el resultado de su aplicación con el empleo de las correlaciones

    de los expertos como asesores independientes.

    No se incluirá ningún método behaviorista de agregación a pesar de que sea lametodología propuesta por el SSHAC ([46] Apéndice J). La aplicación de estos

  • 23

    métodos supone un contacto directo entre los expertos y un trabajo de información ydocumentación muy importantes. La ausencia de estas tareas es un atractivo más delos procedimientos matemáticos que, en el caso de la atenuación, pueden seraplicados de manera más directa en aquellos emplazamientos que no merezcan unprotocolo completo. Ouchi [49], por otra parte, afirma que “es generalmente aceptadoque los planteamientos matemáticos proporcionan resultados más precisos en laagregación” y cita a Clemen y Winkler (1999) y a Mosleh, Bier y Apostolakis(1988).Este juicio se refiere a los PRA en general y no al PSHA en concreto.

    Los expertos se han elegido entre autores que han publicado leyes de atenuación queincluyen el valor de la desviación estándar. La elicitación se ha reducido a la aplicaciónde cada ley a un sismo registrado con lo que se trata de un caso de predicción deparámetros en la que se solicita un valor de anclaje y una estimación de la dispersión.

    La inclusión de la atenuación en los cálculos ha seguido los siguientes pasos:

    a) Selección de un panel de expertos para cada emplazamiento.b) Elaboración de variables raíz que permitan contrastar a cada experto y a

    cada método de agregación.c) Aplicación de los cuatro métodos de agregación.d) Comparación de los resultados y elección de un método.e) Inclusión en los cálculos de peligrosidad del método de agregación elegido.

    Estos cinco pasos se describen en los siguientes apartados que se completan con elAnejo nº1.

    4.3.2. Composición de los paneles de expertos.

    La elección de los expertos que componen un panel es una tarea que habitualmenterealiza el técnico-decisor que integra posteriormente sus juicios.

    Las definiciones de la figura del experto encontradas en la bibliografía son pocoprecisas y no se han hallado recomendaciones concretas que permitan localizar ydiferenciar a los miembros de un panel. La Nureg en su documento nº 1563 ([47 pp.3-7]) propone los siguientes criterios para caracterizar a los posibles integrantes:

    - El experto debe poseer el necesario conocimiento y la experienciaen su campo, siendo conveniente, aunque no imprescindible, eldominio de la estadística.

    - Debe haber probado sus habilidades en el pasado.- Debe estar dispuesto a ser asociado públicamente con sus

    opiniones.- Deber estar dispuesto a declarar públicamente cualquier conflicto de

    intereses.

    El conjunto de expertos de un panel, coherentemente con un planteamientobehaviorista, debe representar, en su conjunto, una panorámica completa de la opiniónde la comunidad científica respecto a la cuestión de consulta. Aunque el número decomponentes es variable, ver Clemen y Winkler [tomado de 13]

    Los procesos de elicitación comprenden una búsqueda exhaustiva en la que loscandidatos son inicialmente descubiertos a través de consultas a instituciones o aotros expertos; el conocimiento sobre las condiciones de cada uno se obtieneprincipalmente de sus currícula.

  • 24

    El procedimiento que se seguirá en esta Tesis consiste en deducir los juicios de losexpertos de las leyes de atenuación que ellos han publicado; la sencillez de esteplanteamiento y la ausencia de un procedimiento público de elicitación que seanecesario documentar simplifican muchos aspectos del desarrollo y permiten apreciarotros con mayor claridad .

    Los expertos propuestos en este trabajo presentan los siguientes rasgos comunes:

    - son investigadores conocidos en el campo de la sismicidad cuyostrabajos sobre atenuación han sido aceptados por publicaciones deprestigio.

    - sus trabajos han sido referidos por otros autores, tambiénconocidos.

    4.3.3 Elaboración de variables raíz.

    Los cuatro métodos de agregación propuestos incluyen una toma de posición deldecisor respecto a la capacidad de predicción de los expertos. Aunque esta posiciónpueda ser, simplemente, el resultado de un juicio de valor, habitualmente el protocoloincluye una calibración de los miembros del panel.

    Esta calibración se lleva a cabo enfrentando a cada componente con una serie decuestiones de resultado conocido, variables raíz, para las que los expertos debenrealizar un pronóstico. La finalidad de este paso no consiste únicamente en comprobarla destreza del individuo dentro de su campo de conocimiento, sino conocer tambiénsu eficiencia a la hora de expresar su opinión en forma de probabilidad.

    La elección de un conjunto de variables raíz realmente significativo respecto alproblema en estudio es una de las labores fundamentales del Técnico decisor en unprotocolo de juicio de expertos. Los análisis de riesgos demandan, con frecuencia, alos expertos asesoramiento sobre eventos de muy rara ocurrencia y en esta situaciónno es fácil conseguir un número mínimo de variables comparables.

    Como referencia en cuanto al número necesario de variables raíz se puede recurrir almétodo de Cooke ([13] p 194); este método, como se comenta más adelante, puntúala calibración a partir de un contraste basado en la aproximación entre el estadísticohabitual de la χ2 de Pearson y el valor 2nbI(s,p). El autor considera que estaaproximación es aceptable si se cumple que:

    nr.pb≥4; nb (1-pb)≥4

    donde:nb número de variables raízI(s,p) Indice de información definido en el apartado 4.3.4.pb probabilidad acumulada en cada intervalo de división de la variable.

    Las variables raíz utilizadas en este trabajo corresponden a la atenuación deterremotos ocurridos en el entorno de interés (R=320 Km) de los emplazamientos deestudio. Se trata, por tanto, de fenómenos muy similares a los que se pretendeestudiar y su representatividad es clara.

    Los datos de los sismos elegidos se han extraído del Catálogo de sismos [29] y delCatálogo de Isosistas de la Península Ibérica [30] elaborados por el IGN; como todos

  • 25

    los datos procedentes de catálogos históricos presentan una serie de incertidumbreshabituales, a las que en este caso hay, además, que añadir tres fuentes :

    La correlación entre intensidad y PGA. La relación entre los valores de Intensidad y las distintas definiciones de

    magnitudes empleadas por los expertos en sus correlaciones. La asignación de un radio único a isosistas con formas alejadas de la circular.

    A pesar de que cada uno de los elementos citados añade incertidumbre al proceso, laproximidad entre el fenómeno en estudio y la familia de variables raíz es más quesuficiente para que un decisor adopte una postura respecto a un experto en cuanto ala atenuación sísmica.

    Las correlaciones utilizadas entre Intensidad y PGA han sido:

    Relaciones entre Intensidad y aceleración de pico horizontal.

    Log(ah)=0.333IMM-0.5 Gutenberg-Richter 1956 [25]IMM Intensidad Mercalli Modificada.

    Log(amax)=0.301IMSK-0.258 Medvedev-Sponheuer 1969 [40]IMSK equivalente a IMM

    Log(ah)=0.30 IMM+0.05 Ambraseys (1975) [1]

    Log(ah)=0.30 IMM+0.014 Trifunac y Brady (1975) [62]

    Log(ah)=0.24IMM+0.57 Murphy y O’brien (1977) para Sur deEuropa [43]

    Log(ah)=0.177IMM+0.839 Krinitzsky y Chang (1987) Para terremotosregionales.[32]

    Log (ah)=0.158IMSK+0.850 Margottini y otros (1992) para Intensidadregional. [34]

    Log(ah)=0.301IMSK-0.23 Norma española NCSE 1994 [45]

    4.3.4. Descripción de los métodos seleccionados para la agregación de juicios.

    La agregación de los juicios emitidos por los expertos de un panel se ha abordado,históricamente, por dos caminos, ya comentados en la Sección 2.3:

    - Esquemas matemáticos.- Esquemas behavioristas,

    La diferenciación entre métodos resulta útil y descriptiva, sin embargo, todos ellosestán basados de una forma más o menos profunda en la aplicación del teorema deBayes y en el concepto, también bayesiano, de la probabilidad subjetiva.

    En el presente trabajo se ha optado por los esquemas matemáticos y, dentro de ellos,se han descartado dos técnicas que no pueden ser aplicadas en este caso de formarazonablemente ágil: el escalado psicológico y el método de Mendel-Sheridan.[57].Los procedimientos elegidos han sido:

  • 26

    Asignación del mismo peso a todos los expertos. Modelo Clásico (ó de Cooke). Método de Apostolakis-Mosleh (bayesiano). Método de Morris (bayesiano).

    A continuación se describe brevemente cada uno de ellos:

    Modelos 1: Asignación de pesos idénticos.

    Este método se utilizará como término de comparación para los tres restantes. Lapublicación SSHAC de Nureg,en su apéndice J [46] comenta extensamente susposibilidades, sus limitaciones y las precauciones en su uso. Lógicamente este métodotiene sentido una vez alcanzado un cierto grado de consenso en el panel y se puedeutilizar como culminación de un proceso behaviorista.

    Su formulación matemática es, simplemente:

    n

    eexp

    nxp

    1

    1

    en la cual:

    n : número de expertos en el panelp(x)e densidad de probabilidad estimada por el experto e para el suceso de

    resultado x.

    Modelo 2. Método de Cooke:

    Se trata de un método mucho más elaborado que el anterior. Una descripcióncompleta y una aplicación práctica pueden encontrarse en el texto del propio autor([13] pp. 187-199)

    La distribución de probabilidad agregada se obtiene como combinación lineal de lasopiniones de los expertos. Los pesos utilizados como coeficientes se determinan apartir de la Calibración y Entropía del experto, prestando mayor atención a laprimera.34

    La calibración y la entropía se determinan a partir de sus predicciones para lascuestiones de respuesta conocida, variables raíz. La formulación de estas cuestionesse ha tratado en el apartado 4.3.3

    La formulación empleada es la siguiente:

    3 Calibración: Un experto se considera bien calibrado si para cada valor de probabilidad r propuesto, enla clase de todos los sucesos a los que el experto está asignando probabilidad, la frecuencia relativa deocurrencia es, efectivamente, r [13]

    4 Entropía de una distribución de probabilidad: medida adimensional de la falta de información en unadistribución de probabilidad de un suceso [13]

  • 27

    C(e)=1-χ2R[2NI(s,p)]

    I e( )1

    N1

    N

    i

    ln xiR 1

    xi0

    1

    R 1

    r

    pr

    lnp

    r

    xire

    xir 1( )e

    ))((1)()(' eCeIeCw e

    ewW '

    W

    ww ee

    ' asumiendo W>0

    Siendo:

    C(e) Puntuación de la calibración del experto e

    Xi i=1....n conjunto de variables raíz considerables como continuas, en este casolos valores de la aceleración de pico horizontal.

    [xi0,xiR+1] rango intrínseco de la variable raíz xi

    pr probabilidad teórica asociada con el evento rr ffXQ ,)( 1

    esto es pr=fr-fr+1, r=1,......,R+1

    r

    j j

    j

    jp

    sSpsI

    1

    ln),( ;

    I(s,p) Indice de información

    j=1,..,r siendo r en número de tramos en los que se divide la función de densidad.

    χ2R=distribución acumulada Chi cuadrado con R grados de libertad.

    1α(C(e))=1 si C(e)>α y 0 en otro caso.

    we= peso asociado al experto e

    A la hora de aplicar esta formulación se han asumido los dos siguientes criterios:

    Los valores extremos del intervalo de interés de cada variable raíz, [xi0,xiR+1], sehan determinado a partir de las propuestas de los propios expertos. Esto es, seha considerado como extremo inferior el mínimo valor de los percentiles 1% detodo el panel. Para el extremo superior se ha utilizado el máximo percentil 99%.

    Se ha sustituido el valor de la entropía de cada experto por la variable I(e)(información relativa) como propone el mismo autor, dado que se ha trabajadocon intervalos de probabilidad (bins) en lugar de utilizar una distribucióncontinua con los mismos extremos en todas las variables. Lógicamente el valorde I(e) refleja el valor de la desviación estándar, que para todos los autores,salvo Toro et al, [60] es constante.

  • 28

    Modelo 3. Método de Apostolakis-Mosleh.

    La formulación propuesta por ambos autores ([13] pp 176,179) pertenece al grupo demétodos bayesianos propiamente dichos.

    Su formulación se apoya directamente en el teorema de Bayes de acuerdo con laexpresión:

    )(')/()/( xpxXPkXxp

    donde :

    p’(x) es la opinión del técnico integrador antes de haber recogido los juicios (prior)

    P(X/x)=verosimilitud del conjunto de los expertos

    p(x/X) distribución adoptada por el decisor una vez los expertos han elicitado.

    k constante cuyo valor se fija de forma que

    1)/( dxXxp

    Si los expertos pueden considerarse como independientes entonces:

    P(X/x)=

    E

    ee xXP

    1

    )/(

    en la cual:

    P(Xe/x) verosimilitud del experto e, es la probabilidad de que el decisor reciba comoasesoramiento el valor Xe cuando el verdadero valor es x

    e=1.....E es el número de expertos que componen el panel.

    Los autores proponen dos métodos para estimar los valores de las verosimilitudes: elmodelo aditivo de error y el modelo multiplicativo de errores; ambos procedimientosson muy similares y en este trabajo se ha utilizado sólo el primero de ellos.

    El modelo aditivo supone una distribución normal de los errores de pronósticodel experto. Los valores que éste propone son expresables como:

    Xi=x+ei donde x es el verdadero valor de la variable.

    ei se distribuye según una variable normal de media me y desviación estándar σe,cuyos valores se obtienen solicitando al autor su opinión sobre un conjunto devariables raíz. Una vez conocidos el sesgo y la desviación de los juicios es inmediatoobtener las verosimilitudes.

    Los valores me y σe representan, lógicamente, la opinión del Integrador respecto alexperto.

    Modelo 4. Método de Morris.

  • 29

    La aplicación, incluida en este trabajo, del Método de Morris corresponde a lapublicación de 1977, en la que se desarrolla dicho método en su totalidad. [42 pp 679-693]

    Se trata, como en el caso anterior, de un método basado en la expresión del teoremade Bayes:

    )(')/()/( xpxXPkXxp

    en la cual, nuevamente, si los expertos son aceptados como independientes:

    P(X/x)=

    E

    ee xXP

    1

    )/(

    Morris propone calcular

    P(Xe/x)=Ce(x).fe(x) donde :

    fe(x) es la distribución de probabilidad recomendada por el experto e.

    Ce(x) es una función de calibración que representa la opinión del decisor respecto a losjuicios emitidos por e.

    El decisor podría definir la Ce(x), directamente basándose únicamente en un juicio devalor o por cualquier método que considere conveniente. Morris propone calcular estafunción a partir, como en los anteriores métodos, de una serie de variables raíz quepermiten realmente realizar una “calibración”.

    La formulación propuesta, para un experto, es la siguiente:

    Sean Xi una familia de variables raíz e yi sus valores reales.

    Sea φi un indicador de eficiencia definido como

    φi=

    iy

    dxxf )(

    Sea Φ la función de eficiencia definida como la función de densidad de probabilidad de la variable φ, deducida por el decisor tras confrontar al experto con Xi.

    Morris concluye que, en determinadas condiciones generales:

    fce(xo)=Φ(F(xo)).f(xo)=C(xo).fe(xo)

    siendo

    fce(x) la función fe(x) ya calibrada

    ox

    o dxxfxF )()(

    La aplicación para E expertos consiste en la repetición sucesiva del teorema de Bayesen E ocasiones y la introducción de una constante que asegure el comportamientocomo distribución de probabilidad de la función resultado.

  • 30

    4.4. Tratamiento de las fuentes de sismicidad.

    4.4.1. Elementos a definir y orígenes de la incertidumbre.

    La definición clásica de una fuente sísmica la describe como una región de la cortezaterrestre que posee características sísmicas relativamente uniformes y es distinguiblede otras fuentes vecinas; dentro de estas fuentes se consideran, habitualmente, dostipos principales: las fallas y las fuentes superficiales donde, a su vez, se diferencian,por su extensión, las zonas de sismicidad concentrada, las regiones (con dimensionesde decenas de kilómetros) y las grandes áreas (con dimensiones de centenas dekms).

    Este planteamiento es el propuesto por la Nureg y por el SSHAC [46]; existenmetodologías alternativas a la que se propone en este trabajo, como ya se comentó,en la Sección 2.5. Aunque estos métodos pueden incluir mejoras respecto alplanteamiento elegido se ha considerado más apropiado utilizar esta propuesta por lossiguientes motivos:

    Dado que este trabajo incluirá comparaciones entre resultados de diferenteshipótesis, parece más apropiado utilizar una metodología que no incluya, por simisma, elementos novedosos.

    La definición de zonas sismogenéticas se realiza a partir, básicamente, de losconocimientos disponibles de geología y tectónica y de los datos recogidos enel catálogo histórico de sismos (a los que se añade, en ocasionesinvestigaciones de campo). El conocimiento que se tiene de ambos aspectosen la Península Ibérica permite la elaboración de zonificaciones en las que seconcilien coherentemente la información de ambas fuentes

    Es posible encontrar en la bibliografía zonificaciones elaboradas por diferentesautores en los últimos 40 años; Se observan diferencias lógicas entre ellas,explicadas en parte por el diferente uso que se hace en un PSHA y un DSHApero se aprecia una coherencia que se interpreta como un signo de calidad.

    La definición completa de cualquiera de estas fuentes se compone [46] de treselementos clave:

    - Localización y geometría de la fuente.- Magnitud máxima- Relaciones de recurrencia.

    El primer elemento de la metodología que se ha utilizado representa en planta lalocalización de cada fuente siendo las variaciones en la estimación de la geometría elreflejo de las incertidumbres en la distribución espacial de la sismicidad.

    Es interesante indicar que el detalle preciso en la definición de las fuentes disminuyecon la distancia. Dado que la amplitud de los efectos de un sismo se atenúa con ladistancia, para hipocentros alejados incluso los sismos más importantes no resultansignificativos. Aunque el radio de la zona de investigación puede alcanzar los 1000Kms, generalmente se asume que los sismos originados a distancias superiores a 300Kms del emplazamiento pueden ignorarse.

    La incertidumbre en la geometría de las fuentes puede incorporarse a los cálculos depeligrosidad por dos vías:

  • 31

    o Empleo de zonificaciones alternativas a las que se asocian probabilidades deocurrencia dentro de un árbol de decisión.

    o Utilización de configuraciones alternativas de una misma fuente, cada una consu probabilidad asociada.

    El término “magnitud máxima” de una fuente se refiere a la magnitud del máximoterremoto que esa fuente puede generar. La determinación de este valor máxima sueletener en cuenta aspectos como los registros históricos disponibles, estudios depaleosismicidad y analogías con fuentes que se consideran comparables.

    La representación en cálculo de las incertidumbres en este valor puede realizarse pordos vías:

    o Árbol lógico con diferentes opciones y sus probabilidadeso Distribuciones contínuas de probabilidad.

    Las leyes de recurrencia de una fuente muestran la frecuencia anual de sismos quesuperan un valor dado de magnitud. Se suponen constantes en el tiempo.

    Habitualmente se supone que estas leyes son líneas rectas de ecuación

    Log10(λ)= a-bm [24]:

    en las cuales λ tasa anual de sismos con magnitud superior a m

    m magnitud ( en ocasiones se utiliza la intensidad epicentral)a y b son valores constantes propias de la fuente.

    Esta ecuación elemental suele modificarse para evitar tener en cuenta los terremotoscon magnitudes inferiores a una dada o superiores a la máxima atribuida a la fuente.

    Las tasas anuales se determinan fundamentalmente a partir de los registros históricos.Estos registros deben considerarse con precaución, prestando atención a lossiguientes aspectos:

    - Completitud del catálogo- Homogeneidad de la información.- Calidad de los datos en sí: fechas, localización, diferenciación entre eventos,

    premonitores y réplicas etc.

    La incorporación en los cálculos de la incertidumbre en la ley de recurrencia se puederealizar considerando los valores de las tasas λ de dos magnitudes como variables aleatorias. La consideración directa como variables aleatorias independientes de a y bignora la relación existente entre ambas variables ([53] pp 87y 88) y puede llevar acombinaciones no pretendidas y alejadas del comportamiento observado (vgr. unacombinación de a elevada y b muy reducida supondría frecuentes sismos de altamagnitud).

  • 32

    4.4.2. Procedimiento de caracterización de las fuentes sismogenéticas.

    La sismicidad de cada uno de los emplazamientos se estudiará a partir de treszonificaciones alternativas, que podrían combinarse dentro de un árbol lógico ocompararse como se recoge más adelante en el Capítulo V.

    Las zonificaciones que se emplearán son las siguientes:

    Zonificación nº 1 elaborada en el documento “Estudio de la peligrosidad sísmica paralas instalaciones de GNL en la planta de regasificación de Mugardos (La Coruña),presentado a Endesa en 2002. [5]

    Zonificación nº 2, propuesta en la tesis: Riesgo sísmico en la Península Ibérica”desarrollada por D. Antonio Jesús Martín Martín y dirigida por D.Angel García Yagüe.Esta tesís se presentó en la UPM en 1984.[36] .

    Zonificación nº 3. recogida en el trabajo “ Estudio de determinación de los datossísmicos de base para obras hidráulicas” Technical report, Ingeniería 75.S.A.publicado en 1986. [28]

    Zonificación nº 4. contenida en el Estudio Final de Seguridad de la Central Nuclear deCofrentes, publicado en Junio de 1983 por Hidroeléctrica Española.[26]

    Las tres primeras alternativas (Zonificaciones nº 1,2 y 3) se aplicarán al estudio de laRegasificadora de Mugardos y las tres últimas (Zon. nº 2, 3 y 4) al estudio de laCentral de Cofrentes.

    El Anejo nº 2 contiene los listados en coordenadas U.T.M. que definen sus vértices.Las zonificaciones nº 2 y nº 3 abarcan completamente la Península Ibérica. Laszonificaciones nº 1 y nº 4 se extienden únicamente en un radio de 320 Km alrededordel emplazamiento para el que fueron elaboradas.

    Se va a estudiar una zona circular de 320 Kms alrededor de cada emplazamiento yaque ninguno de los estudios que acompañaron a las zonificaciones contenía motivospara ampliar este radio. Dado el objeto de este trabajo se considerarán únicamentefuentes de sismicidad difusa y no se incluirá el análisis particular de fallas. Un estudiomás profundo de cualquiera de los emplazamientos debería incluir una revisióndetallada de la capacidad de las principales fallas importantes en el entorno máspróximo de los emplazamientos,(incluyendo posiblemente trabajos de campo)