TEORIA DEL CAOS, ¿ES PREDECIBLE EL TIEMPO?

(Dedicado a Luis Vázquez)

La teoría científica ha tratado siempre de explicar el mundo que nos rodea de la forma más sencilla posible. Actualmente, los ordenadores y las matemáticas han abierto una nueva vía de exploración que ayuda a los investigadores a comprender mejor la complejidad de la Naturaleza. La Teoría del Caos es utilizada hoy en múltiples especialidades científicas, abarcando a muchas disciplinas. Sus comienzos se confunden entre los trabajos de Sophia Kovalevskaya, la primera mujer que ejerció como profesora de Matemáticas en Europa de la que se tienen noticias. En 1889 estableció una definición para la inestabilidad dinámica como un promedio de la medida del ritmo de crecimiento de pequeñas desviaciones. El primer nombre famoso de la lista de científicos que han tocado de cerca la Teoría es Henrí Poincaré, quién ya quiso convencer a sus contemporáneos de la complejidad oculta en la entonces simplificada y determinista Mecánica Celeste. Ya en el Siglo XX, Gastón Julia incluyó estas inquietudes en sus estudios de movimiento caótico abstracto, adelantándose a Benoit Mandelbrot quien los bautizó con el nombre de "FRACTALES" después de visualizarlos por primera vez con la ayuda de un ordenador en la década de los 70.

La Teoría del Caos estudia el comportamiento de sistemas dinámicos en los que pequeños cambios iniciales se propagan y convierten en desviaciones cada vez mayores. El Caos se puede comparar con una inestabilidad persistente. Las leyes de gravitación de Newton aplicadas a dos objetos celestiales son un ejemplo de cálculo determinista en el que el futuro es determinado unívocamente por el pasado. La predicción del futuro o reconstrucción del pasado son siempre posibles a muy largos plazos y con suficiente precisión. Sin embargo aplicando estas mismas leyes a sistemas más complicados, aunque sólo sean tres los cuerpos presentes, se generan reacciones tan inesperadas y complejas de describir, que su control a largo plazo se hace imposible.

Mientras el nacimiento de esta Teoría queda abierto al debate, su establecimiento y utilización se están generalizando y propagando de forma explosiva entre los científicos. Hoy es utilizada por los Meteorólogos en su intento de modelizar la atmósfera y su comportamiento. Los Biólogos la utilizan para los estudios de población cambiante en colonias de animales, propagación de epidemias, metabolismo de las células o la propagación de impulsos eléctricos por la red neuronal. Los Físicos del átomo se enfrentan con sistemas dinámicos caóticos al tratar con la teoría de partículas elementales, y los desplazamientos de electrones en el átomo o de los propios átomos dentro de las moléculas o gases. Los Ingenieros pueden utilizar técnicas basadas en esta teoría para diseñar circuitos eléctricos y aceleradores de partículas, o evitar catástrofes en los puertos azotados por galernas. En general, los estudiosos de la difusión, agregación, percolación, dispersión, fragmentación o turbulencia están de enhorabuena, y frenéticamente entregados al desarrollo práctico de la Teoría del Caos.

Buscando entre las características afines a todas estas disciplinas, detectamos una búsqueda de formas, especialmente formas que se replican a distintas escalas, un trato frecuente con lo aleatorio y lo complejo, un debate sobre determinismo, probabilidad o libre evolución. Parece invertirse el reduccionismo al que nos había llevado la Ciencia, el análisis pormenorizado de sistemas en sus partes constituyentes, quarks, cromosomas, se integra ahora en el estudio común y global de la Naturaleza.

La primera sorpresa al mundo clásico determinista vino con la propuesta de la mecánica cuántica que negaba la posibilidad de establecer la posición y el momento de una partícula subatómica simultáneamente con precisión exacta. Einstein no quiso entregarse a este nuevo enfoque al mostrar su desacuerdo con estas palabras. " Ninguna definición razonable de la realidad debería permitir esta incertidumbre"

A pesar de ello se pudo comprobar que la teoría cuántica explicaba y modelaba fenómenos naturales, y permitió un avance espectacular en el descubrimiento y control de las energías nucleares. Desde entonces se acepta más fácilmente la cuestión de que sistemas físicos deterministas puedan tener comportamientos caóticos. Esto no debe interpretarse como la imposibilidad de conocer algunos aspectos de la evolución de sistemas caóticos. Para muchos de ellos, los cálculos probabilísticos permiten un entendimiento suficiente para su descripción.

Por supuesto, no todos los sistemas dinámicos son aplicables a este estudio probabilístico en la práctica. Pensemos en una mesa de billar y el juego que se puede desarrollar en ella al realizar un lanzamiento. Una correcta descripción de las posibilidades de juego en condiciones ideales en las que todo es perfecto, la bola pulida lisa y uniforme, la mesa plana y equilibrada, las bandas rectilíneas y elásticas, el felpudo suave y uniforme..., en estas condiciones sería fácil predecir la evolución tras el primer rebote o contacto de la bola conociendo las siguientes variables: Situación actual de la bola. Velocidad. Giro... Una predicción fiable del resultado tras cuatro rebotes o carambolas quedaría fuera del espacio de posibilidades reales. Para ello tendríamos que trabajar con precisiones espaciales de millonésimas de micrones, y con variables de influencia como la respiración de las personas presentes o las órbitas de galaxias lejanas... algo fuera de nuestras capacidades.

Vamos a acostumbrarnos a la idea poco atractiva de que un modelo determinista, simple, sencillo y aparentemente predecible con precisión, va a sorprendernos con resultados reales muy alejados de los esperados, y que estos resultados empeoran con el grado de anticipación de nuestra predicción y con la complejidad o acercamiento a la realidad que introduzcamos en la formulación matemática que lo describe.

Pequeñísimas variaciones en las condiciones iniciales del cálculo nos pueden llevar a resultados totalmente fuera de lugar. Se dice haber alcanzado el Caos.

Para las personas que sigan todavía leyendo sin saber bien de qué estamos hablando propongo un entretenimiento práctico que ilustre esta teoría. Todos confiamos en las matemáticas simples. Son las ciencias exactas. Cualquier fórmula sencilla es predecible y controlable. Falso!.

Intentando ajustar la realidad palpable a una formulación sencilla, los biólogos dedujeron la siguiente fórmula para el crecimiento o declive en poblaciones de animales en entornos cerrados y controlados, sin influencias externas.

¿Qué ocurre con la población en sucesivas generaciones?.

Se puede expresar en una fórmula que nos permita calcular la población de una generación n a partir del conocimiento de la población en la generación anterior, n - 1

La c de la fórmula es una constante ecológica, pues se deduce de factores que influyen en las condiciones de reproducción de los adultos de la colonia, como la cantidad de comida disponible o el clima ambiente del laboratorio. El valor de c se suele escoger entre 0 y 4. Si llamamos Pn al porcentaje de población que sobrevive en cada generación n, y sabemos que la población límite, L, esta prefijada por condicionantes físicos, -el tamaño del estanque- resulta que si Pn=0,5 en la generación n, la población del estanque sería L/2. Pn es un valor que oscila entre 0 y 1. En condiciones de saturación, Pn=1, suponemos que la falta de recursos provoca la extinción de la especie. Comprobemos que la ecuación cumple en una primera aproximación con un modelo de evolución fiable. En los casos extremos desaparece la especie, ya sea por saturación, Pn=1, o bien por extinción natural, Pn=0. En los casos intermedios, si Pn es pequeño la población tiende a crecer, y si es grande a disminuir.

Con el siguiente programa escrito en BASIC podemos observar el ciclo vital de la colonia a lo largo de 100 generaciones. Los listados pueden llegar a ser sorprendentes.

REM Programa de ciclo ecológico
CLS
INPUT "Introduzca la constante ecológica c entre 0 y 4"; c
INPUT "Introduzca la población inicial entre 0 y 1"; P
PRINT P
FOR I=1 TO 100
P1=c*P*(1-P)
PRINT P1
P=P1
NEXT I
END

Aplicando el programa con distintos valores de c y Pini, observamos que la población tiende a extinguirse, estabilizarse, oscilar entre valores fijos o fluctuar sin control.

Para jugar con una simulación hecha en Excel de Microsoft, mira esta Hoja de Cálculo. CAOS.xls



 
 





Si c es pequeño, 0 < c < 1, se alcanza pronto la extinción.

Para valores de c tales que 1 < c < 3,5 , la población tiende a estabilizarse en un valor fijo (Por ej. si c=1,5 P tiende a 1/3), o bien oscila con un cierto ritmo que llega a definir ciclos de períodos 2, 3, 4 u 8. (Para c=3.2 P oscila entre 0,513 y 0,799 con un período 2). Para valores por encima de c=3.57 la situación se dispara y aparecen fluctuaciones irregulares. Hemos conseguido el Caos. Para cualquier observador la situación aparece aleatoria. Comprobamos también que para condiciones iniciales muy próximas, pronto se dividen las trayectorias y se alcanzan valores muy dispares. Esta dependencia de la precisión en las condiciones iniciales significa que la predicción a largo plazo resulta imposible.

Este modelo, al igual que otros sistemas oscilatorios, se transforman en caóticos al presentar un elemento de retro-alimentación. Este elemento consiste en el término (1-Pn) de la fórmula, y se puede interpretar como la influencia del entorno real en los cálculos puramente teóricos. Un ejemplo visible y cuantificable de lo que la teoría dicta por un lado y lo que la Naturaleza ofrece por el otro, lo podemos encontrar en el Museo Smithsoniano de Historia Natural de Washington D.C. En su interior exhiben un recinto amueblado como cocina hogareña en la que el suelo, muebles y techo están completamente cubiertos de los miles de cucarachas que teóricamente podrían ser engendradas por un espécimen femenino a lo largo de su vida si toda su prole consiguiera sobrevivir.

Por lo ya dicho, podemos pensar en la Atmósfera como un sistema dinámico de comportamiento caótico, es decir inherentemente no predecible a partir de unos plazos que dependen de cada situación. Los responsables son la energía del Sol y las leyes de Newton. El modelo más sencillo de reparto de energías en la Atmósfera supone un calentamiento de la zona tropical mientras que las zonas polares devuelven la energía al espacio y se enfrían. Si la tierra no girase alrededor de su eje, este flujo de energía se guiaría por los meridianos ascendiendo en el Ecuador y desplomándose por los Polos.

En la realidad, las cosas funcionan así sólo en las zonas tropical -calentamiento y ascensión a la alta atmósfera-, y subtropical -enfriamiento y descenso- siendo una de las causas principales del cinturón desértico del Globo a esas latitudes. Las complicaciones comienzan al incluir el efecto del giro de la tierra en la dinámica de latitudes medias y altas, donde su influencia es más notable. Esto provoca un desvío a derechas de las masas que viajan en el Hemisferio Norte, es el efecto Coriolis.

También hay que contar con la fuerza generadora de las corrientes de chorro que envuelven la tierra y fluctúan en su posición tanto en altura como en latitud. Los chorros determinan el régimen a gran escala del tiempo atmosférico, aproximándose las amplitudes de sus idas y venidas a los 10.000 Kms.


Corrientes del Chorro (Jet Stream)

Bien, ya tenemos un modelo aceptable cuya evolución puede estudiarse con la ayuda de las leyes de la dinámica de fluidos y la termodinámica. La teoría física facilita la descripción matemática de esta capa fluida esférica que es arrastrada por el giro de un esferoide rugoso, que es calentada en el Ecuador, y enfriada por los polos, y que contiene inestabilidades en su seno -Borrascas y Anticiclones-. La escala de estos sistemas inestables se acerca en promedio a los 1000 Kms., doblando su amplitud en unas 48 horas. Estas inestabilidades del flujo general de más amplitud, provocan el efecto de retroalimentación en un proceso no lineal. Con la ayuda de la energía solar la atmósfera es inestable y no lineal. Estas dos características son los componentes cruciales del Caos.

Atractor de Lorentz

¿Qué nos ofrece la Teoría del Caos para ayudar a conocer nuestras limitaciones?. Nos ofrece imágenes de la descripción geométrica de la evolución de nuestro sistema. La jerga del Caos tiene un sabor puramente geométrico. Espacio de fases, órbitas, flujos, remapeos, fuentes, sumideros, atractores, bifurcaciones, etc. La Meteorología ha contribuido con la primera imagen, y la más conocida, de lo que supone un atractor extraño, el atractor de Lorenz. Se podría definir como la trayectoria de todas las posibles evoluciones de la atmósfera modelizada según el estado de tres variables x, y, z, en un espacio de tres dimensiones. Los atractores extraños tienen mucho que ver con el renacimiento de la topología, el estudio de las formas. La reducción de dimensiones en las aproximaciones simplificadas a sistemas dinámicos hacen uso de estos atractores.
 
 




El modelo de Lorenz era simple comparado con los hoy disponibles. Utilizaba versiones de las ecuaciones de Navier-Stokes en un modelo truncado.



Al ser la divergencia tan negativa, la trayectoria del sistema en el espacio de fases describe una curva infinita que nunca sobrepasa unos límites. La forma del perímetro de estos límites se asemeja a una mariposa con las alas desplegadas. La curva nunca llega a ocupar un volumen, pero en su evolución se rellena densamente la forma de mariposa y llega a llenar una superficie, contrayéndose en cada iteración en un factor de . Este atractor constituye un fractal de dimensión 2,06 es decir no llena un volumen de tres dimensiones pero ocupa más que el espacio de una superficie. (Ver capítulo aparte: FRACTALES)

El modelo no es lineal, en sentido aproximado esto quiere decir que no puede ser capturado por una línea simple en un gráfico, no expresa relaciones estrictamente proporcionales. Las relaciones lineales son fáciles de imaginar. Cuanto más, mejor. Las relaciones no lineales no son fácilmente resolubles, no se pueden fraccionar en partes y luego sumarse. La fricción por ejemplo. Sin fricción los cálculos indican que a más energía conseguimos más aceleración. Si incluimos la fricción, la velocidad resultante depende de la fricción, y a su vez, la fricción depende de la velocidad.

Los estudios de Edward Lorenz en el Massachusetts Institute of Technology en los años 1960 le llevaron a la convicción de la imposibilidad de predecir exactamente el tiempo a largo plazo. Edward Lorenz fué matemático antes que meteorólogo. Las circunstancias de la II Guerra Mundial le llevaron al campo de la predicción meteorológica para la aviación Aliada. Le obsesionó el estudio de las evoluciones repetitivas pero nunca exactamente iguales de su pequeño mundo computerizado. Descubrió patrones con ligeras desviaciones. Un orden desordenado. El sistema parecía ir descubriendo sus secretos a la vista del predictor. Un día decidió tomar un atajo y repetir los cálculos desde unas condiciones ya calculadas que había guardado en un listado de impresora. Introdujo las cifras y volvió a iterar el proceso llegando a un resultado totalmente desviado del inicial. Contrastando los dos resultados parecía que hubieran sido escogidos al azar. Tras verificar el funcionamiento correcto de su ordenador, un Royal McBee, y tras varios días de insomnio, dedujo la verdad. Una diferencia de tres cifras decimales eran las culpables. El ordenador utilizaba 6 cifras decimales en sus cálculos internos, y el listado que había guardado solo incluía tres.

Meditando sobre las causas, tuvo la intuición de que algo no imputable a su modelo ni a su ordenador, algo que rompía los esquemas filosóficos imperantes, estaba floreciendo. Aunque sus fórmulas eran una lejana parodia de la realidad de la Atmósfera, se ceñían en lo esencial a la complejidad real de la naturaleza. La predicción exacta del tiempo a largo plazo acababa de expirar.

En efecto, la medida del estado inicial de la atmósfera, las observaciones meteorológicas, pueden alcanzar una precisión limitada, y su cobertura nunca será la necesaria. Como hemos indicado anteriormente, una ligera desviación en las condiciones iniciales (Una parte en un millar) es capaz de desviar las predicciónes en sentidos opuestos muy alejados entre sí. El sistema atmosférico es caótico,

Si tenemos en cuenta la opinión científica mayoritaria de entonces (1963), esto suponía una pequeña herejía en un mundo optimista ante la posibilidad de la manipulación controlada del tiempo. La Organización Meteorológica Mundial (OMM) fomentaba entonces el experimento GARP, (Global Atmospheric Research Program) con esperanzas de poder controlar el comportamiento de la atmósfera. El padre espiritual de esta fé fué John Von Neumann, quien en la década de los 50 provocó la proliferación de los primeros ordenadores en tareas de predicción meteorológica, comparándolas con las predicciones sobre trayectorias de cometas o mareas marinas.

Volviendo a la figura geométrica del atractor de Lorenz, vamos a interpretar su significado comparándola con el mundo real. Una situación atmosférica dada puede representarse como un punto en la trayectoria cíclica del atractor. Supongamos dos situaciones lo suficientemente cercanas entre sí para que representen condiciones atmosféricas casi idénticas. Su evolución puede seguir trayectorias paralelas y finalizar en puntos también próximos entre sí en la misma ala del atractor. Si repetimos este experimento con una serie suficiente de puntos cercanos, y siempre llegamos a esa misma conclusión, podemos deducir la posibilidad de predecir con éxito la situación del tiempo en el futuro. La conclusión es que la atmósfera en estas circunstancias es predecible y su comportamiento no alcanza el Caos. Las probabilidades de acertar un pronóstico serán altas. Por otro lado, estas trayectorias pueden diverger y terminar en puntos distantes de cada ala del atractor. Si así ocurre también en sucesivas iteraciones con puntos inicialmente próximos entre sí, podemos deducir la práctica imposibilidad de predecir el tiempo con éxito. Para situaciones del tiempo de esta categoría, la atmósfera no es predecible, y se alcanza el Caos. Las probabilidades de acertar un pronóstico serán bajas.

Para dar un peso a las predicciones, o un índice de fiabilidad o predictabilidad a nuestros resultados este es el camino a seguir. Esta técnica de iteración repetitiva de situaciones cercanas para estudiar su evolución se conoce como técnica de Monte Carlo por su reminiscencia con la aplicación de la estadística a los juegos de azar. Su aplicación al mundo de la predicción numérica en meteorología sólo depende de la disponibilidad de potencia informática. Considerando la cantidad de cálculos necesarios para predecir el tiempo en todo el globo terráqueo con una resolución espacial y temporal apropiada, podemos prever la disponibilidad de estas técnicas en la próxima década. Los ordenadores más potentes hoy disponibles miden su capacidad de ejecución en órdenes de GigaFlops o Miles de millones de instrucciones de punto flotante por segundo. Las nuevas tecnologías ya apuntan a prestaciones del orden del TeraFlop o Billones de instrucciones por segundo en procesadores masivamente paralelos. Con estas tecnologías será posible asignar una calificación a la predicción diaria en el sentido de afirmar si va a ser un 60% o un 80% fiable.

Hasta ahora hemos considerado las predicciones del tiempo a pequeña escala. El tiempo que va a hacer en Madrid, Casablanca o las Baleares. El tiempo que va a hacer dentro de seis horas, dos días. Todo lo dicho es aplicable a este tipo de predicciones locales y a corto plazo. (De uno a cinco días). Para plazos más amplios el panorama es diferente. Ya no estamos hablando de pequeñas inestabilidades sino de grandes tendencias. Lo que hoy podemos empezar a augurar a dos, tres meses vista son grandes rasgos, incrementos notables de temperatura, ciclos de lluvia monzónica, situaciones a gran escala. Si nos aventuramos a predecir lo que va a ocurrir dentro de un siglo tenemos que utilizar la cautela, pero hay algo que decir.

Los modelos climáticos pueden llegar a ser suficientes para predecir si el atractor se desplaza por ejemplo a lo largo de uno de los ejes de referencia, o si desarrolla trayectorias inesperadas o desconocidas bajo la influencia de efectos ya previsibles como el efecto invernadero, el invierno nuclear, una posible época glaciar etc. La humanidad ha tomado conciencia de la responsabilidad inherente al enorme gasto energético del mundo industrializado. La profusión de fuentes de polución perjudiciales para el ciclo vital de la atmósfera ya empieza a provocar daños sensibles y difícilmente recuperables. La Carta de Río o Documento de la Tierra que se persigue estos días en la Conferencia mundial de Medio Ambiente aspira a promocionar un desarrollo sostenible limpio y transferible a países menos desarrollados.

Para el neófito en las ciencias atmosféricas la no predictibilidad del tiempo puede convertirse en una maldición, para el meteorólogo esto precisamente convierte el tema en lo más fascinante y divertido como base de estudio. La convergencia de las más recientes tecnologías en ordenadores y las bases teóricas científicas están conduciéndonos a visiones sin precedente en los manejos de la frágil capa gaseosa que nos rodea y mantiene.
 
 


FRACTALES





¿Que es un fractal? La palabra está bien escogida. Un fractal es un diseño de estructura y complejidad infinitas. Patrones infinitos restringidos a un espacio finito. Una construcción geométrica cuya complejidad se mantiene al incrementar la escala de observación. Lejos de ser abstracciones esotéricas, los fractales están más cercanos de lo que parece. De hecho son los objetos no fractales los que constituyen una idealización abstracta y lejana a nuestra experiencia. Desde nuestra infancia nos han acostumbrado a adoptar categorías simplificadas para organizar nuestro mundo. Esto en el fondo es necesario pues sin las simplificaciones no cabría entendimiento ni diálogo. En la vida diaria manejamos constantemente "mentirijillas" para abrcar el enorme detalle presente en el mundo. Nuestra mente es incapaz de absorber todo el detalle presente en una flor, nuestro lenguaje es incapaz de describir los manejos de la mente, las abstracciones simplifican el lenguaje.


Fractal IFS (Iteration Formula System)

Una característica típica de los fractales es el poder acercarse y ver cada vez más detalle. Utilizar un microscopio de creciente potencia que desvele las tramas repetitivas. Atomos que se convierten en universos.




Veamos un ejemplo natural de este efecto. Benoit Mandekbrot nos propone la siguiente pregunta en su libro "La Geometría Fractal de la Naturaleza". ¿Cuanto mide la costa de Inglaterra?

Si recurrimos al modelo simplista de calcular la "costa" de un círculo de radio uno, sabemos resolver fácilmente la cuestión. La Geometría de la escuela primaria nos enseñó que esta era aproximadamente 6,28. Otro método de llegar al mismo resultado por aproximaciones sucesivas sería inscribir polígonos de cada vez más lados en el círculo, y acercarnos poco a poco al valor límite que es la circunferencia real.
 
 
 

Nº de 
Lados
3
4
8
16
32
64
Longitud
de un lado
1,732
1,414
0,765
0,390
0,196
0,098
Perímetro
5,20
5,66
6,12
6,24 
6,27
6,28 

 
 

La tabla nos muestra los valores sucesivos de crecientes perímetros de polígonos inscritos en un círculo de radio unidad.

Vamos a emplear el mismo método para calcular la longitud de la costa de España con un patrón de longitudes de 300 Kms. primero, y de 50 Kms después. Si continuáramos reduciendo el patrón sucesivamente notaríamos que el valor de la costa crece sin fin. Nunca alcanza un límite. La diferencia entre esta costa real y la curva abstracta es que la costa de España es una curva con las características de un fractal.

Curvas de características similares llegan a plantear el problema de establecer su dimensión en el sentido clásico de la palabra. En este sentido toda curva por muy intrincada e irregular que fuera se consideraba de dimensión 1. Bajo la nueva óptica fractal la dimensión de ciertas curvas puede adquirir el valor de una fracción no entera. Este valor será una medida de su irregularidad a cualquier escala. Nos indicará la medida de crecimiento de su perímetro en función de la escala de magnitud en que medimos. De hecho podemos encontrar curvas, como el atractor extraño de Lorenz, que en su densa complejidad llegan a cubrir completamente una superficie, o expresado de otra forma su dimensión se aproxima, alcanza y supera el valor 2.

Podemos encontrar ejemplos de estos monstruos en la matemática clásica, como el triángulo de Sierpinsky, el polvo de Cantor o las curvas de Koch o de Peano. Más recientemente se han podido visualizar gracias al ordenador estas estructuras y Benoit Mandelbrot bautizó con su nombre a la estructura más compleja y bella de esta categoría, el conjunto de Mandelbrot, que constituye un universo ilimitado por el que podemos viajar con la ayuda de un ordenador personal de sobremesa, explorando sus rincones con una certeza casi absoluta de ser los primeros visitantes de la zona escogida.

La fórmula generadora de este conjunto es biém simple:

Su simpleza es engañosa. Nos sirve para deducir si un punto del plano complejo pertenece o no al conjunto de Mandelbrot. La evoluciones ocurren en el plano complejo centrado en el origen 0 + 0i y limitado por el círculo de radio 2. El algoritmo de pertenencia o no al conjunto se resuelve al iterar la fórmula para cada punto del plano. Si tras un número razonable de iteraciones (con 100 nos bastan) comprobamos que la órbita no escapa del círculo de radio 2, podemos asignar el punto inicial al conjunto de Mandelbrot. ¿Como se calculan las órbitas?. Para cada punto del plano complejo, c = a + bi, limitado por los valores +2 y -2 realizamos las siguientes series.

series que van definiendo puntos del plano que agrupados, constituyen la órbita o evolución iterativa del punto inicial.

La precisión numérica alcanzable hoy en los ordenadores personales caseros, nos permiten el manejo de cifras decimales en rangos que abarcan desde la unidad hasta un orden de billonésimas partes de la unidad. Con esta limitación, vamos a intentar calcular la escala alcanzable en los mapas del conjunto de Mandelbrot que podemos explorar. La pantalla de un ordenador personal medio viene a medir un cuarto de metro, 25cms. La porción del plano complejo a explorar está limitada por los valores +2 y -2, una longitud total de 4 unidades. Un programa elemental, como el incluido en el anexo, es capaz de realizar un zoom de esta porción del plano de forma que el círculo de radio 2 que antes se visualizaba completo en la pantalla del ordenador, tenga una extensión de... ¿Se atreve a intentar adivinarlo?.

Si aventuramos como respuesta el tamaño de un campo de fútbol, seguramente alguien dirá que para eso no merece la pena hacer el cálculo. Si nos decidimos por un círculo de radio 5 Kms. podemos deducir que en efecto, los pequeños parches posibles de 25 cms. de lado que podemos explorar en un círculo de 5 kms. de radio serían nada menos que 1.600 millones!. Pero no, aún no hemos alcanzado nuestro límite de exploración. La respuesta correcta es... El conjunto de Mandelbrot ampliado por un ordenador casero puede llegar a ser tan grande como la órbita de Júpiter, un billón y medio de kilómetros de ancho, como diez veces la distancia de la tierra al Sol. ¿Cuales son las probabilidades de que la zona escogida por nosotros no haya sido nunca visitada?. De hecho no solo son elevadas, son casi absolutas.

El Profesor Michael Fielding Barnsley imparte un curso en la 'School of Mathematics' del Instituto de Tecnología de Atlanta llamado -Geometría Fractal- , y ya lo advierte en la introducción:

"La Geometría Fractal les hará ver las cosas de modo diferente. Existe un riesgo si continúan leyendo. Se juegan la pérdida de su visión de la infancia de las nubes, bosques, galaxias, hojas, plumas, rocas, montañas, torrentes de agua, ladrillos y muchas otras cosas. Nunca más su interpretación de estos objetos será la misma" ... "...La esencia de este texto reside en como utilizar la geometría fractal para modelizar objetos reales del mundo físico. Más que dedicarse a los aspectos aleatorios en la generación de un fractal, la intención es comenzar con un objeto natural y buscar el fractal específico que mejor lo simule.", y a continuación enumera los desarrollos en aplicaciones biológicas, fisiológicas, geografía, medición de costas, estudios de turbulencia, formación de espuma, plumas, imágenes de ordenador y gráficos por ordenador, haciendo mención del desarrollo en compresión de imágenes digitales para su tele-transmisión y reconstrucción.

En el campo de las aplicaciones puramente meteorológicas, Lovejoy ha publicado un par de estudios confirmando la sospecha de la posibilidad de modelizar nubes mediante fractales. Pocos gráficos de los comúnmente manejados en Meteorología resultan tan 'rectos' como la figura XI en la que se muestran relaciones Area-Perímetro de nubes y zonas de precipitación. Los datos provienen de observaciones Radar en zonas Atlánticas tropicales con precipitaciones superiores a los 2 mm./hora, y de la banda infrarroja de satélites geoestacionarios sobre el Océano Indico con lecturas inferiores a los  . Las áreas oscilan entre uno y un millón de Kilómetros cuadrados. La dimensión del perímetro, ajustada en un rango de seis órdenes de magnitud es 4/3.



Para terminar, les propongo un ligero ejercicio teórico. Consideremos la siguiente conclusión: "La vida es un fractal en el espacio de Hilbert".

Los matemáticos utilizan el espacio de Hilbert cuando quieren desenvolverse en un espacio de dimensiones infinitas. Si consideramos cada encrucijada de nuestra vida con una fuente de infinitas posibilidades en cuanto a su desarrollo, estaremos definiendo un fractal en el que cuanto más nos aproximamos al detalle, más riqueza descrubriremos. Si identificamos cada línea posible de desarrollo con una dimensión, tiene sentido el hablar del fractal de nuestras vidas en el espacio de Hilbert. Visto desde fuera, esto se convierte en una aproximación interesante sobre lo que es la vida en sí. Un proceso mental en el que el hardware es solo accidental. Lo que cuenta realmente es el tinglado maravillosamente complicado del enorme fractal que nuestros softwares consiguen en su totalidad interdependiente.
 
 




Bibliografía

-Deterministic Nonperiodic Flow - Edward Lorenz.
Journal of the Atmospheric Sciences. Vol.20. Pág.130

-CHAOS -
James Gleick. - 1987

-Serie "Chaos Reigns" - Diversos autores.
Revista New Scientist Oct.1989 - Sept.1990

-The fractal geometry of Nature.
Benoit Mandelbrot. - 1982

-A random walk through Fractal Dimensions.
Brian H. Kaye - 1989

-Sur l'iteration des fonctions rationnelles. Gastón Julia
Journal deMath. Pure etAppl. 8 (1918) Págs.47-245

-Fractal properties of rain, and a fractal model.
S. Lovejoy & B. Mandelbrot. Tellus 37A(1985) Págs.209-232

-Mind Tools.
Rudy Rucker - 1987

-Fractals Everywhere.
M. Barnsley - 1988

-Exploring the geometry of nature.
Edward Rietman. - 1989