Pronosticar el tiempo atmosférico es un gran desafío. Para empezar, intentamos predecir algo que es inherentemente impredecible. La atmósfera es un sistema caótico: un pequeño cambio en el estado de la atmósfera en un lugar determinado puede tener consecuencias notables con el paso del tiempo en otros lugares, lo cual fue analizado por un científico como el llamado efecto mariposa. Cualquier error que se desarrolle en un pronóstico crecerá rápidamente y provocará más errores en una escala mayor. Y dado que tenemos que hacer muchas suposiciones al modelar la atmósfera, queda claro cuán fácilmente se pueden desarrollar los errores de pronóstico. Para un pronóstico perfecto, necesitaríamos eliminar cada error detalladamente que al estar involucrados seres humanos obviamente se hace más difícil.

La ciencia del pronóstico del tiempo cae bajo escrutinio público y serias críticas todos los días. Cuando el pronóstico es correcto, raramente hacemos comentarios, pero a menudo nos quejamos rápidamente cuando el pronóstico es incorrecto. ¿Es probable que logremos un pronóstico perfecto que sea preciso a la hora? Hay muchos pasos involucrados en la preparación de un pronóstico del tiempo. Comienza su vida como una “instantánea” global de la atmósfera en un momento dado, mapeada en una cuadrícula tridimensional de puntos que abarcan todo el globo y se extienden desde la superficie hasta la estratosfera (y algunas veces más arriba). Usando una supercomputadora y un modelo sofisticado que describe el comportamiento de la atmósfera con ecuaciones de física, ésta instantánea avanza en el tiempo, produciendo muchos terabytes de datos de previsión sin procesar. Corresponde entonces a los pronosticadores humanos interpretar los datos y convertirlos en un pronóstico significativo que se difunde al público.

La habilidad para la elaboración de un pronóstico ha ido mejorando. Los pronósticos modernos son ciertamente mucho más confiables de lo que eran antes de la era de la supercomputadora. Las primeras predicciones publicadas en el Reino Unido por ejemplo, datan de 1861, cuando el oficial de la Marina Real y entusiasta meteorólogo Robert Fitzroy comenzó a publicar pronósticos en The Times. Sus métodos consistieron en dibujar gráficos del clima utilizando observaciones de un pequeño número de ubicaciones y hacer predicciones basadas en cómo evolucionó el clima en el pasado cuando las tablas eran similares. Pero sus pronósticos a menudo estaban equivocados, y la prensa solía criticar rápidamente. Se produjo un gran avance cuando los supercomputadores se presentaron a la comunidad de pronóstico en la década de 1950. El primer modelo de computadora fue mucho más simple que los de hoy, prediciendo solo una variable en una cuadrícula con un espaciado de más de 750 km. Este trabajo allanó el camino para la predicción moderna, cuyos principios aún se basan en el mismo enfoque y las mismas matemáticas, aunque los modelos de hoy son mucho más complejos y predicen muchas más variables. Hoy en día, un pronóstico del tiempo típicamente consiste en múltiples carreras de un modelo de clima. Los centros de clima operacional suelen ejecutar un modelo global con un espaciado de malla de alrededor de 10 km, cuya salida se pasa a un modelo de mayor resolución que se ejecuta en un área local. Para tener una idea de la incertidumbre en el pronóstico, muchos centros meteorológicos también ejecutan una serie de pronósticos paralelos, cada uno con ligeros cambios en la instantánea inicial. Estos pequeños cambios crecen durante el pronóstico y proporcionan a los pronosticadores una estimación de la probabilidad de que algo suceda, por ejemplo, el porcentaje de probabilidad de que llueva.

El futuro de la previsión

La edad de la supercomputadora ha sido crucial para permitir que se desarrolle la ciencia del pronóstico del tiempo (y de hecho la predicción del clima). Las supercomputadoras modernas son capaces de realizar miles de billones de cálculos por segundo y pueden almacenar y procesar petabytes de datos. Muchas de ellas tienen la potencia de procesamiento y almacenamiento de datos de aproximadamente un millón de teléfonos inteligentes Samsung Galaxy S9. Esto significa que tenemos la capacidad de procesamiento para ejecutar nuestros modelos a altas resoluciones e incluir múltiples variables en nuestras previsiones. También significa que podemos procesar más datos de entrada al generar nuestra “instantánea” inicial, creando una imagen más precisa de la atmósfera para comenzar el pronóstico. Este progreso ha llevado a un aumento en la habilidad de pronóstico. Una clara cuantificación de esto fue presentada en un estudio de la naturaleza de 2015 por Peter Bauer, Alan Thorpe y Gilbert Brunet, que describe los avances en la predicción del clima como una “revolución silenciosa”.

Muestran que la precisión de un pronóstico de cinco días actualmente es comparable a la de un pronóstico de tres días hace unos 20 años, y que cada década, ganamos cerca de un día de habilidad. Esencialmente, los pronósticos de tres días de hoy son tan precisos como el pronóstico de dos días de hace diez años. Pero, ¿es probable que este aumento de habilidades continúe en el futuro? Esto depende en parte del progreso que podamos hacer con la tecnología de supercomputación. Los supercomputadores más rápidos significan que podemos ejecutar nuestros modelos a mayor resolución y representar incluso más procesos atmosféricos, lo que en teoría conduce a una mejora adicional de la habilidad de pronóstico. Según la Ley de Moore, nuestro poder de cómputo se ha duplicado cada dos años desde la década de 1970. Sin embargo, esto se ha estado desacelerando recientemente, por lo que otros enfoques pueden ser necesarios para avanzar en el futuro, como aumentar la eficiencia computacional de nuestros modelos.

Entonces, ¿alguna vez podremos predecir el tiempo con 100% de precisión? 

En resumen, no. Hay 2×10⁴⁴ (200,000,000,000,000,000,000,000,000,000,000,000,000,000,000) moléculas en la atmósfera en movimiento aleatorio; tratar de representarlas a todas sería insondable. La naturaleza caótica del clima significa que siempre que tengamos que hacer suposiciones sobre los procesos en la atmósfera, siempre existe la posibilidad de que un modelo desarrolle errores. El progreso en el modelado del clima puede mejorar estas representaciones estadísticas y nos permite hacer suposiciones más realistas, y las supercomputadoras más rápidas nos pueden permitir agregar más detalles o resolución a nuestros modelos climáticos, pero en el corazón del pronóstico está un modelo que siempre requerirá algunas suposiciones. Sin embargo, mientras haya investigaciones para mejorar estas suposiciones, el futuro de la previsión meteorológica se ve brillante. Sin embargo, queda por ver qué tan cerca podemos llegar al pronóstico perfecto.

Fuente: theconversation.com (Jon Shonk Research scientist, University of Reading)

Otros artículos importantes: