Menú
Daniel Rodríguez Herrera

Los ordenadores siguen sin predecir el calentamiento

Los mejores modelos de hace seis años han fallado cual escopeta de feria. Pero no por culpa de los ordenadores, pobres.

Daniel Rodríguez Herrera
0

Si hay algo que ha probado el informe de la ONU sobre "cambio climático", que es como denominan ahora al calentamiento global para poder echarle la culpa también al hombre si hace más frío de lo normal, es que los ecologistas cuentan con una capacidad publicitaria envidiable. Sin embargo, los males que nos anuncian y que han sido aceptados acríticamente por los medios de comunicación, de izquierda y de derecha, no parece que estén sostenidos por el borrador del informe completo, puesto que lo que se ha publicado hace unos días no es más que el resumen para políticos hecho por políticos.

Pero, sobre todo, me preocupa como columnista en esta sección de Intenet el mal nombre que puede recibir la informática por el mal uso de los modelos computerizados como bola de cristal. Como ya indiqué hace cuatro años y medio en estas mismas páginas web (hay que ver cómo pasa el tiempo), los ordenadores no pueden predecir el calentamiento global. No piensan solos, por más que pueda parecer que están continuamente pergeñando formas de arruinarle a uno el día. Se limitan a realizar cálculos empleando los datos con los que se le alimenta en fórmulas matemáticas que se le han programado. Si los datos o las fórmulas son incorrectos, el resultado también lo será. Como es el caso de los modelos climáticos.

La climatología es una ciencia harto compleja, porque debe estudiar cientos de variables que interactúan entre sí de formas que desconocemos. Por ejemplo, el efecto directo del CO2 en la temperatura está más que estudiado y es algo en lo que no hay científico que yo conozca que esté en desacuerdo. Es bastante poco. Lo que sucede es que ese aumento en su concentración puede afectar a otros factores de múltiples maneras y no sabemos realmente cómo. De modo que se hacen modelos climáticos para simular "qué pasaría si" las hipótesis que tenemos son correctas. Si metemos los datos que tenemos y esas hipótesis y nos dice que el año que viene la temperatura media va a ser de -15ºC deduciremos que lo hemos hecho mal. Lo mismo si nos da 50ºC, a no ser que uno sea activista de Greenpeace. Pero, claro, los modelos de los que merece la pena hablar dan resultados más o menos plausibles. Y, sin embargo, fallan, porque no son más que hipótesis.

Tomemos, por ejemplo, los modelos con los que nos asustó la ONU en el año 2001. Predecían que en 2006 la cosa se habría calentado ya algo. Y resulta que no, que el aumento de temperatura ha sido de 0,03º, dentro del rango de error estadístico o, lo que es lo mismo, no puede decirse que haya subido. Tampoco predecían el enfriamiento que han sufrido los océanos desde 2003 y aseguraban que el nivel de los mares iba a crecer mucho más de lo que las mediciones muestran. Ni que la concentración en la atmósfera del metano, otro de los gases de efecto invernadero, iba a frenar su crecimiento a partir de 2001. Dicho de otro modo, los mejores modelos de hace seis años han fallado cual escopeta de feria. Pero no por culpa de los ordenadores, pobres.

Habrá que ver si los seis modelos del informe de este año superan la prueba. Los dos más catastróficos, y que por tanto son los que se emplean para los titulares de prensa, pueden darse ya por fallidos. Suponen que en 2100 seremos 15.000 millones de personas, un extremo que desmiente la misma ONU, cuyos demógrafos estiman que llegaremos como mucho a los 10.000 dentro de 40 años y luego la población empezará a descender. Pero fallan especialmente al no tener en cuenta lo más importante. Nadie sabe cómo será la ciencia y la tecnología en el año 2100. Lo más probable es que se rían de nuestra preocupación con el CO2 como nos reímos ahora de la honda preocupación que a principios del siglo XX se tenía con el aumento de los excrementos de caballo en las ciudades y sus posibles consecuencias en el 2000. Eso, se lo digo yo ya, no se puede predecir con ningún modelo informático.

Daniel Rodríguez Herrera es subdirector de Libertad Digital, editor de Liberalismo.org y Red Liberal y vocal del Instituto Juan de Mariana.

Nota: El autor autoriza a todo aquel que quiera hacerlo, incluidas las empresas de press-clipping, a reproducir este artículo, con la condición de que se cite a Libertad Digital como sitio original de publicación. Además, niega a la FAPE o cualquier otra entidad la autoridad para cobrar a las citadas compañías o cualquier otra persona o entidad por dichas reproducciones.

En Tecnociencia

    Lo más popular

    0
    comentarios

    Servicios

    Máster EXE: Digital Marketing & Innovation