Por: Henry Peralta
CEO Soluciones Resilientes
Desde mi experiencia profesional evaluando riesgos de desastres ante amenazas de origen geológico (volcánicas, sísmicas, movimientos en masa, tsunamis) e hidrometeorológicas (principalmente inundaciones) en diversos contextos territoriales, y liderando equipos de trabajo que emplean sistemas de información geográfica (SIG) y software especializados para modelar fenómenos, considero que el principal aporte de la inteligencia artificial (IA) a la Gestión del Riesgo de Desastres (GRD) es su capacidad para almacenar, procesar y generar resultados en tiempos relativamente cortos. Además, su habilidad para resolver automáticamente «vacíos de información», detectar y corregir errores, permite a los usuarios acceder rápidamente a un primer nivel de definición de resultados para la toma de decisiones.
Este proceso facilita la generación de conocimiento sobre el riesgo de desastres, una tarea que es extremadamente laboriosa cuando se realiza manualmente debido a la necesidad de procesar miles de datos, crear modelos numéricos que reduzcan las incertidumbres en la toma de decisiones, y contar con equipos lo suficientemente robustos para almacenar y procesar dicha información. El aprendizaje automático, mediante algoritmos de IA, optimiza el procesamiento de grandes volúmenes de datos al filtrar aquellos más relevantes. Si la IA hubiera estado disponible durante mis 25 años de experiencia en evaluación del riesgo de desastres, es probable que nos habríamos ahorrado meses de procesamiento de información para ejecutar, por ejemplo, un modelo de inundación, evitando trasnochos y la frustración de tener que repetir pasos cuando las computadoras fallaban.
La IA ofrece no solo la capacidad de generar nuevo conocimiento para la toma de decisiones, sino también de crear modelos predictivos que permiten comprender el comportamiento de eventos tanto súbitos (como un terremoto) como en proceso (como una tormenta tropical). Esto reduce la incertidumbre y facilita la creación de mapas de riesgo más precisos, lo que mejora la toma de decisiones en tiempo real en procesos como la planificación del ordenamiento territorial y el fortalecimiento de alertas tempranas. Sin embargo, existen desafíos significativos, como garantizar la inclusión de la IA en gobiernos locales, empresas o comunidades organizadas que disponen de recursos financieros, técnicos y profesionales limitados. Esto requiere inversiones sustanciales para aprovechar plenamente estas herramientas y enfrentar los desafíos tecnológicos. Además, es crucial alimentar la IA con información de fuentes de datos confiables y actualizadas para maximizar su potencial, lo que implica fortalecer la disponibilidad y accesibilidad de dicha información.
Por otro lado, el uso de la IA en la gestión del riesgo de desastres plantea importantes desafíos en cuanto a la ciberseguridad y el uso de datos para la toma de decisiones. A continuación, se presentan algunos de ellos:
- Sesgos en los datos y algoritmos:
La precisión de los modelos de IA en la predicción y gestión del riesgo de desastres depende en gran medida de la calidad y diversidad de los datos. Los sesgos presentes en los datos pueden llevar a predicciones erróneas que comprometen la toma de decisiones en situaciones críticas. En el pasado, la preocupación principal era transformar un ‘desierto de datos’ en un ‘oasis de conocimiento’. Hoy enfrentamos un desafío diferente: navegar un ‘océano de datos’ y evitar naufragar en la sobrecarga informativa, utilizando la IA para mantener el rumbo hacia decisiones informadas y precisas.
- Transparencia y explicabilidad:
Es crucial que los modelos de IA sean comprensibles para los usuarios finales, especialmente en situaciones de emergencia, donde los responsables deben entender cómo y por qué la IA ha tomado ciertas decisiones para actuar con eficacia. Los usuarios de estas tecnologías deben ser especialistas en la temática para poder interpretar los resultados y tomar decisiones acertadas, siendo capaces de detectar posibles anomalías o sesgos en los resultados. Esto puede lograrse mediante sistemas alternativos que corroboren la precisión de los resultados, asegurándose de que los datos de entrada sean lo suficientemente robustos, confiables y actualizados, verificando sus fuentes y formas de acceso a la información. La falta de transparencia puede reducir la confianza en estos sistemas y llevar a decisiones equivocadas. En la gestión del riesgo de desastres, es fundamental mejorar la relación entre la «máquina» y el «ser humano», y no dejar que la «máquina» haga todo el proceso por nosotros; el criterio humano sigue siendo esencial en la toma de decisiones.
- Privacidad y manejo de datos sensibles:
Los sistemas de IA a menudo dependen de grandes cantidades de datos, algunos de los cuales pueden ser sensibles, como información personal o datos geográficos críticos. La protección de estos datos contra accesos no autorizados es esencial para evitar su mal uso. Un fallo en la ciberseguridad podría comprometer no solo la integridad de los datos, sino también la eficacia de la IA en la protección contra amenazas. Esto es especialmente importante porque, aunque la IA puede facilitar el manejo de miles de datos para procesar y generar resultados en tiempos rápidos, también puede convertirse en una puerta de entrada para datos «corruptos» que sesguen la generación de modelos confiables de predicción, o para que virus informáticos dañen datos recolectados durante largos períodos de monitoreo. La redundancia y los respaldos, tanto físicos como en la nube, de información relevante, son clave para garantizar que los datos originales no se dañen, pierdan o sean afectados por virus.
- Infraestructura crítica y resiliencia:
Los sistemas de IA pueden ayudar a gestionar riesgos en infraestructuras críticas, como redes eléctricas o sistemas de agua. Sin embargo, estos mismos sistemas pueden ser vulnerables a ciberataques que desestabilicen los esfuerzos de reducción del riesgo de desastres. En la actualidad, nuestras ciudades están en un proceso continuo de digitalización, buscando ser más eficientes e inteligentes (SMART CITIES). Este es un gran avance, ya que permite el uso de grandes cantidades de datos que anteriormente estaban desarticulados, mejorando así las predicciones en relación con posibles fallos de los sistemas. Sabiendo que el riesgo es de naturaleza sistémica, la IA puede ser una herramienta clave para anticipar cómo podrían verse afectados los componentes de las infraestructuras críticas y definir a tiempo las acciones necesarias para evitar que el riesgo se convierta en desastre. La protección de estas infraestructuras críticas es un objetivo central, ya que los ataques cibernéticos contra ellas pueden desencadenar desastres secundarios o agravar los efectos de eventos de origen natural, subrayando la necesidad de resiliencia en ambos dominios, tanto en la infraestructura como en los datos.
- Ética y responsabilidad:
La implementación de IA debe considerar principios éticos para evitar que los modelos propaguen sesgos o exacerben vulnerabilidades. Es esencial que los datos de entrada con los que se alimenta la IA provengan de fuentes confiables y oficiales, que garanticen la calidad de los datos y la verificación de los resultados basados en ellos, permitiendo detectar a tiempo posibles errores para corregirlos. Esto es especialmente importante cuando se utilizan para realizar predicciones sobre potenciales desastres. La responsabilidad en la toma de decisiones es fundamental, ya que la IA, tanto en su uso cotidiano como en situaciones de ciberseguridad, enfrenta dilemas éticos, como el riesgo de utilizar resultados erróneos para tomar decisiones o de violar la privacidad de las personas. Es crucial que estas tecnologías se desarrollen y utilicen de manera responsable.
En conclusión, la aplicación de la IA como herramienta para generar conocimiento sobre el riesgo de desastres y apoyar la toma de decisiones requiere avanzar en la formación de profesionales capacitados para comprender e interpretar los resultados que ofrece la IA. Aunque se trate de inteligencia artificial, los seres humanos deben, ya sea individualmente o en equipos de trabajo inter y transdisciplinarios, revisar si los resultados generados por la IA son lógicos y coherentes, para validarlos antes de tomar decisiones finales. La IA, aunque alimentada y programada por humanos, necesita ser supervisada, ya que no está exenta de errores. En última instancia, la IA en la RRD es una herramienta poderosa que debe combinarse con el razonamiento humano. Al igual que todo en la ciencia, ha sido construida por ensayo y error. Su contribución es crucial, pero la decisión final es humana, política y social, en relación con la definición del riesgo aceptable. Sería interesante explorar y medir el nivel de incertidumbre asociado con los resultados de los modelos de conocimiento del riesgo de desastres que ofrece la IA, y utilizar esta evaluación como un punto de partida para validar si la IA está proporcionando una mejor lectura de la realidad, siempre bajo control humano.