page-header

Líneas de investigación

Sistemas complejos

Física de Sistemas Complejos aplicada a la estimación de Peligro Sísmico

La litósfera es la capa más superficial de la tierra, la cual está formada por bloques constitutivos que a grosso modo podemos clasificar con la secuencia: rocas, conglomerados, formaciones, yacimientos, cordilleras, placas tectónicas. Entre estos bloques existen bordes que los limitan, también llamados fallas. En las fallas, los bloques se desplazan con movimiento relativo entre sí. A veces lo hacen de forma abrupta, pudiéndose percibir y localizar eventos sísmicos.

Aunque sabemos que los terremotos corresponden a liberación de energía elástica, debido a que la totalidad del proceso dinámico en la litósfera es aún inaccesible para los métodos modernos, no los podemos pronosticar con certeza absoluta ni atribuirles una causa específica. Sin embargo, podemos entender cada evento sísmico como una marca de la dinámica del sistema, es decir, un producto de las interacciones que se producen entre sus bloques constituyentes.

Esta es la visión de la litósfera como un sistema complejo, es decir, un sistema constituido por muchas partes que interactúan entre sí. Las interacciones dan lugar a un proceso planetario de liberación de energía sísmica que abarca múltiples escalas, con terremotos de variadas magnitudes  y distintas ventanas temporales.

Los terremotos son un fenómeno físico ampliamente extendido en el territorio chileno, dado el contexto tectónico de subducción en el cual está inserto su geografía. Se puede considerar que son la mayor amenaza natural para el país, ya que las estadísticas de las principales catástrofes ocurridas desde el año 1906 muestran que el 99 % de las pérdidas humanas y materiales fueron generadas por este tipo de eventos.

El asesoramiento en riesgo de desastres ocasionados por eventos sísmicos requiere una adecuada comprensión de cómo funciona el sistema y del proceso de generación de sismicidad. Uno de los mayores desafíos es estimar el comportamiento de una zona sismogénica en base a la estadística de una región mayor, lo cual equivale a comprender cómo actúa el fenómeno en las escalas de interés. Los catálogos sísmicos son nuestra principal fuente de información. Su estudio estadístico y modelación física permite desarrollar herramientas para cuantificar el peligro sísmico en la geografía del país.

Figura 1. Dimensión fractal: Un adecuado asesoramiento de peligro sísmico requiere entender cómo se organiza la sismicidad en las distintas escalas de interés. Los epicentros de los terremotos ocurren en patrones complejos que pueden ser caracterizados mediante el cálculo de su dimensión fractal. Esta cantidad refleja como los puntos ocupan el espacio, así como los cristales de agua se extienden en un cono de nieve. El cálculo de la distribución fractal permite entender cómo cambia el peligro sísmico al considerar objetos expuestos de distinto tamaño, como lo pueden ser comunas, provincias o regiones.

 

Video: En el grupo de sistemas complejos del PRS se han estudiado e implementado modelos computacionales, en la línea de los autómatas celulares. Estos corresponden a simulaciones en grillas finitas de las interacciones que presenta un sistema, a partir de la relación de un elemento con sus vecinos más cercanos. Se han utilizado en prácticamente todas las ramas de las ciencias, tanto naturales como sociales, para explicar la emergencia de propiedades como propagación de enfermedades infecciosas, el vuelo colectivo de bandadas de aves, los patrones que forman las plantas, incendios forestales, pilas de arena, entre otros. Esta simulación corresponde a un modelo de clusterización para la representación de la generación de terremotos en la litósfera terrestre. Un sistema acoplado tiende a su punto crítico donde sufre avalanchas en formas de eventos sísmicos que abarcan todas las longitudes del sistema.

Equipo

Jaime Campos

Director del PRS. Geofísico, Universidad de Chile (MSc) y Doctor en Geofísica, Université Paris Diderot
Jaime es Geofísico de la Universidad de Chile (Msc) Doctor en Geofísica de la Université Paris Diderot. Es el director del Programa de Riesgo Sísmico de la Universidad de Chile. Es especialista en modelamiento de terremotos y ha sido responsable de una gran cantidad de proyectos a nivel nacional. Jaime ha desarrollado varias lineas de investigación como academico entre ellas: Sismotectonica, Tsunamis, Sismologia de la fuente, Estudios de Alerta Temprana con Acelerometros, Estudio de Sismos de profundidad intermedia, etc.

Cristian Siegel

Geofísico (MSc), Universidad de Chile
Cristián es licenciado en Geofísica de la Universidad de Chile y tesista de magíster en Geofísica. Su trabajo lo ha desarrollado en el campo de la física de sistemas complejos y la sismología estadística. En él busca desarrollar herramientas innovadoras para calcular peligro sísmico en zonas de baja sismicidad. Ha presentado los avances de esta nueva línea de investigación en congresos nacionales e internacionales.

Patricio Toledo

Geólogo y Geofísico (MSc), Universidad de Chile. Doctor en Ciencias, Universidad de Chile
Geólogo con fuerte énfasis en matemática y geofísica. Probada habilidad en modelación numérica de problemas ambientales y desafíos aplicados como los encontrados en las industrias del petróleo y minera. Excelente capacidad para el trabajo en grupos multidisciplinarios.
  • Modelamiento de la sismicidad

    La ley de Gutemberg-Richter

    Una simple y a la vez perspicaz observación que puede hacer una persona que vive en un territorio sísmico como Chile es: Hay más terremotos de magnitud baja que terremotos de magnitud alta. Es decir se perciben, en un periodo de tiempo de un año, 10 años o una vida entera, muchos más terremotos pequeños que terremotos grandes. ¿Cómo sería de otra manera? Podríamos sentir quizás un movimiento continuo del suelo bajo nuestros pies, como las olas en un lago quieto. O quizás estos movimientos tendrían una marcada periodicidad e intensidad: “aquí viene el temblor de las 5”, “ya pasó el terremoto de las 12”, podría exclamar un ciudadano atento.

    El aspecto notable de esta simple observación es que al hacer una estadística cuidadosa de los números de eventos según la energía que ellos liberan se cumple una relación matemática extraordinariamente sencilla. Esta relación indica que los terremotos de baja magnitud se observan a una tasa que es exponencialmente mayor a la tasa de observación de terremotos de alta magnitud. Fue enunciada por primera vez en el año 1958 y luego denominada con el nombre de los dos sismólogos que la evidenciaron: Ley de Gutemberg-Richter.

    Otra forma de expresar la ley de Gutemberg-Richter es la siguiente: el número de terremotos que liberan una energía determinada es inversamente proporcional a una potencia de esa energía. Este decrecimiento de la frecuencia de eventos observados según la energía que liberan corresponde a una relación de ley de potencia.

    Las leyes de potencia aparecen no solo en la frecuencia de los eventos sísmicos, sino que también en muchos otros fenómenos tan diversos como la distribución del número de incendios forestales según el área que arrasan, el número de ciudades según el número de habitantes o el número de meteoritos según su tamaño. La presencia de leyes de potencia expresa la existencia de una simetría en el sistema: la invarianza de escala. Según esta característica las propiedades estadísticas de un sistema en una escala se relacionan a aquellas en otra escala solo a través de la razón entre ambas escalas y no a través de cualquiera de ellas individualmente.

    Los modelos de terremotos basados en la mecánica clásica y en la teoría de la elasticidad han tenido éxito en representar las fuentes desde donde se producen las ondas sísmicas. Sin embargo, explicar el carácter colectivo en los terremotos y en las fallas es una tarea más esquiva para la sismología tradicional. Una perspectiva que se ha encargado de modelar la colectividad de los sistemas y sus interacciones es la de los autómatas celulares.

    Figura 1. Uno de los patrones animados de “El juego de la Vida”

    Un autómata celular (link wiki) es una colección de celdas “coloreadas” en una grilla de forma específica, que evoluciona en pasos discretos de acuerdo a un set de reglas basadas en el estado de celdas vecinas. Las reglas son aplicadas de manera iterativa tantas veces como se desee. Los matemático John Von Neumann y Stanislaw Ulam (link wiki) descubrieron este tipo de modelos en los años 1940s por Stanislaw Ulam. Se volvieron populares en los 70’s con la divulgación de “el juego de la vida”, un autómata celular creado por John Conway que produce múltiples patrones animados a partir de reglas extremadamente sencillas. No podemos dejar de mencionar a Stephen Wolfram, quien clasificó todos los autómatas celulares de 1 dimensión y publicó el libro “Una nuevo tipo de Ciencia”, en el cual aboga por el estudio de estos programas computacionales para entender los sistemas naturales.

    La pila de arena



    Figura 2.
    Simulación de una pila de arena con granos de distintos tamaños, extraída desde https://www.weizmann.ac.il/chemphys/cfprocac/Movie/SandPile.html#

    Patrón obtenido en el juego de la vida. Las reglas de interacción son muy sencillas:
    Los físicos Bak, Tang y Wiesenfeld introdujeron en 1987 un modelo de una pila de arena que se forma al añadir continuamente granos de arena sobre una superficie. Las reglas consisten en:

    1. Escoge un sitio al azar
    2. Añade un grano de arena al sitio
    3. Chequea que todos los sitios tengan menos de 4 granos de arena y si se cumple, procede desde el paso 1.
    4. Escoge al azar uno de los sitios con 4 o más granos de arena y déjalo en cero, distribuye los 4 granos a cada uno de los vecinos más cercanos.
    5. Repite el paso 4 hasta que todos los sitios tengan menos de 4 granos de arena.

    Los sitios con más de 4 o más granos corresponden a sitios inestables y desde ahí se producen avalanchas. Luego de cierto tiempo, la adición de un grano de arena gatilla avalanchas simultáneas en sitios vecinos. Y eventualmente el sistema llega a un estado crítico en que la adición de un grano de arena puede dejar el sistema tal cual o está o desencadenar una avalancha de larga escala. Este estado es llamado Criticalidad Auto-Organizada. El sistema evoluciona hacia un estado crítico sólo mediante la imposición de las reglas de evolución. La siguiente figura (3) muestra algunas avalanchas que se producen y su analogía con los terremotos:

    Figura 3

    (a) Granos de arena son lentamente añadidos a la pila de arena. Todos los lados de la pila de arena llegan a un estado en el cual la adición de granos adicionales resulta en inestabilidades, es decir, avalanchas de arena de todos los tamaños.

    (b) Una gran avalancha tiene lugar en una zona de la pila, dejando esa zona fuera de la criticalidad y haciendo que sea incapaz de generar avalanchas grandes por un largo periodo de tiempo (hasta que se le añadan granos de arena que lleven a la pila al ángulo crítico).

    (c) Una avalancha pequeña ocurre en medio de la pila y esta no afecta a la totalidad de su lado, avalanchas pequeñas pueden aún ocurrir arriba y abajo de la zona del último derrumbe.

    (d) Avalanchas de tamaño intermedio ocurren en una zona a medida que esta se acerca al estado de inestabilidad que antecede a una avalancha grande. Avalanchas grandes y pequeñas son análogos a terremotos grandes y pequeños. Figura y descripciones extraídas desde Sykes et al. (1999).

    Figura 4. Bloques y resortes: el modelo de Burridge-Knopoff

    El primer modelo para representar la colectividad en el movimiento de bloques que genera los terremotos fue presentado por los sismólogos L. Knopoff y R. Burridge. Consiste en dos arreglos de bloques unidos por resortes y que se encuentran sobre una superficie rugosa y unidas mediante cables a una superficie superior. El experimento que realizaron sobre el modelo 1D recuperó la ley de G-R. En los 90’s se retomó el interés de la mano del uso de procesadores más avanzados que pudiesen resolver las ecuaciones de forma numérica. Una versión en forma de un autómata celular fue planteada por Olami, Feder y Christensen, quienes demostraron que cumple con la característica de Auto-organización en la criticalidad.

    El uso de modelos computacionales en el estudio de la sismicidad ha ayudado a entender mejor el sistema donde se producen los terremotos. Esto a su vez, ha ayudado a dirigir los esfuerzos en encontrar variables pronosticadoras de aumento de la sismicidad que puedan anteceder a terremotos destructivos. En la actualidad, el análisis de los patrones generados por los eventos sísmicos y las fallas terrestres está siendo estudiado en el PRS para establecer zonas de mayor peligrosidad sísmica sobre las cuales establecer manejos de mitigación de riesgo y una adecuada planificación territorial.

  • Temas en desarrollo

    • Estimación de la dependencia de la taza sísmica con la escala espacial: caso del Norte de Chile.
    • Estimación de peligro sísmico en zona de punto triple de contacto entre bloques litosféricos: caso Aysén.
    • Caracterización de la distribución espacio-temporal de terremotos de subducción y de profundidad intermedia.
    • Modelización conceptual del sistema litósfera para el desarrollo de herramientas de análisis de catálogos sísmicos.

  • Participación en congresos

    C. Siegel, J. Campos, P. Toledo.
    Modelando la corteza terrestre mediante métodos de la física estadística.
    XV Congreso Geológico Chileno, Concepción, Chile, 18-23 Noviembre 2018.

    C. Siegel, J. Campos, P. Toledo.
    Thermodynamics of a Double-Couple Fault Plane Model by Spin-Lattice Montecarlo Simulations.
    AGU Fall Meeting 2018, Washington DC, USA, 7-11 Diciembre 2018.

    C. Siegel, J. Campos, B. Derode, P. Toledo.
    Earthquake Scaling Models Applied to Seismicity Analysis in Chile.Scaling relation for earthquakes holds for a chilean seismic catalog.
    11th International Workshop on Statistical Seismology, Hakone, JPN, 18-21 Agosto 2019.

    C. Siegel, J. Campos, B. Derode, P. Toledo.
    Earthquake Scaling Models Applied to Seismicity Analysis in Chile.
    25th Latin-American Colloquium of Geosciences. Hamburg, Germany, September 18-21, 2019.