FILOSOFIA: Javier del Arco
14votos

El Tesoro de la alfombra mágica

El Big Bang la supuesta la gran unificación, suponen un hiato antes de iniciar la recta final de los principios que rigen la Teoría Holónica. Los últimos años han visto el desarrollo de un marco radicalmente nuevo para una teoría unificada de todas las interacciones, una teoría cuántica de la gravedad y las otras fuerzas: la teoría M. Esta teoría es la primera con condiciones para convertirse en la teoría madre.


Teoría M: hipótesis para la explicación del Universo

La teoría M es el nombre de la hipótesis que pretende explicar todo el universo, desde las partículas elementales y los átomos hasta las galaxias y el big bang ¿Por qué M, un título tan breve para un objetivo tan ambicioso? Hay varias acepciones posibles, según las preferencias del físico que lo justifica. La M de madre o matriz refleja la intención de ser el origen de todas las explicaciones o de contener las leyes primordiales de la física.

La M de magia, misterio o milagro refiere, en cambio, al asombro que despiertan sus propiedades y su aparente capacidad de unificar todas las interacciones o fuerzas fundamentales de la naturaleza, una meta perseguida durante mucho tiempo y considerada quizás inalcanzable. La más modesta, M de membrana, ilustra ciertas características técnicas de la teoría ¿En qué sentido pretende M explicar todo?

El objetivo esencial de la física es descubrir, sacar a la luz, las verdades universales sobre la naturaleza. Cuando estas verdades se encuentran, se trata de explicarlas apelando otras verdades previas más fundamentales a partir de las cuales se puedan deducir las anteriores. Estas certezas más esenciales, a su vez, se tratan de comprender recurriendo a razones todavía más básicas. Y así sucesivamente. Es lo mismo de siempre, unos holones que incluyen y trascienden a otros.

Si analizamos explicaciones concatenadas, aquellas que van desde la vida cotidiana hasta el mundo microscópico, determinadas preguntas de siempre como ¿por qué el cielo es azul? o ¿por qué el agua es líquida y se evapora al hervir?, han podido responderse mediante el conocimiento actual de las propiedades de los átomos y de la luz. Estas propiedades, por su parte, se deducen de sus componentes, las partículas elementales, cuyas propias peculiaridades se pueden deducir a partir de estructuras más simples.

El punto inicial de todas las explicaciones es lo que se entiende por teoría matriz. Este mal llamado reduccionismo, quizá debería haberse utilizado el de hermeneusis o búsqueda de principios cada vez más elementales más fundamentales, se ha dado en la física históricamente a través de unificaciones de teorías. La tendencia a la descripción unificada de fenómenos considerados previamente independientes, la búsqueda de principios aglutinadores, permitió a lo largo del desarrollo de la disciplina explicar más hechos que los contenidos originalmente en las partes que se intentaba amalgamar y se convirtió en la guía orientadora de la evolución de esta ciencia. Una verificación más, si bien muy importante de que la totalidad es mucho más y diferente que la suma de sus partes.

La idea de encontrar un principio fundamental a partir del cual derivar las leyes del universo no es reciente. La humanidad ha buscado desde épocas muy remotas comprender las diversas manifestaciones de la naturaleza como diferentes aspectos de un mismo fenómeno (o conjunto de fenómenos). En Occidente, el origen de estas ideas se remonta a los filósofos presocráticos, quienes buscaban las explicaciones de todos los fenómenos naturales en términos de algún elemento fundamental: agua, aire, tierra o fuego.

Además del acierto de Thales que hacía surgir la vida del agua, la primera teoría matriz, elaborada por Leucipo y Demócrito en el siglo V a.C., postulaba que los constituyentes últimos e indivisibles de la materia eran los átomos. Esos átomos eran muy diferentes de los que conocemos hoy, pero hay una diferencia más importante entre aquellas teorías antiguas y la ciencia moderna: la actual exigencia de verificación experimental.

Una explicación científica moderna debe contener una comprensión cuantitativa de los fenómenos ¿Cuánto progresamos en el conocimiento de la naturaleza si aceptamos que el agua o los átomos son los constituyentes fundamentales de la materia, si no podemos calcular propiedades como la densidad, la resistencia o la conductividad eléctrica? Y por lo tanto, sin la capacidad de hacer predicciones experimentales, nunca podríamos comprobar si la explicación presocrática y la de Demócrito, son acertadas.

En la actualidad, los cuatro últimos siglos de desarrollo de la física han permitido acumular gran cantidad de información y reducir drásticamente el número de principios fundamentales. Hoy sabemos que todos los fenómenos naturales, por muy variados y diferentes que parezcan, se pueden explicar en términos de cuatro interacciones o fuerzas fundamentales: la gravitatoria, la electromagnética y las subatómicas fuerzas nucleares fuerte y débil. Pero a pesar de haber logrado restringir tan abruptamente la complejidad del problema, todavía no se ha encontrado la teoría original, la que unifica estas cuatro interacciones fundamentales. Sólo hay algunos indicios que guían la búsqueda.

Estas son las pistas que trata de organizar la teoría M y que nosotros intentaremos describir, sólo describir, en este artículo. Como el tema es muy técnico, introducimos algunos conceptos e ideas que resultan necesarios a través de una breve historia de la física. Este recorrido histórico, con especial atención a las unificaciones logradas, nos ayudará a explicar por qué la búsqueda de la teoría matriz se realiza en el contexto de la física de altas energías. En la segunda parte describimos la teoría M, indicando sus logros y debilidades y resumiendo la manera en que resuelve los problemas que presentan teorías previas.

Las cuatro interacciones fundamentales

Gravitación. La mecánica clásica, cuyos principios básicos fueron establecidos por Newton en el siglo XVII, marca el comienzo de la ciencia moderna y representa el primer paso en la búsqueda de la teoría matriz. La mecánica newtoniana unificó las leyes que rigen el movimiento de los cuerpos celestes y de los terrestres, las leyes de la dinámica y de la gravitación universal.

No es casual que la gravedad inicie el camino, ya que es la más familiar de todas las fuerzas. Es la única interacción universal, pues actúa entre todas las partículas sin excepción. Newton concebía a la gravedad como una acción a distancia, una fuerza de atracción instantánea entre partículas masivas con una fuerza F directamente proporcional al producto de dichas masas e inversamente proporcional a cuadrado de la distancia que las separa (r2) El origen de esta fuerza, su fuente, es la masa de las partículas y su rango de acción es muy grande, llegando a alcanzar distancias enormes (planetarias, estelares, galácticas, intergalácticas y hasta cosmológicas).

La concepción actual postula en cambio que la gravedad es algo geométrico. La teoría de Relatividad General considera a la gravedad como un campo de distorsión geométrica o una curvatura. Einstein modificó las nociones de espacio y de tiempo absoluto de Newton, para resolver una paradoja: la velocidad de propagación de las ondas de luz es independiente del movimiento del observador.

En la teoría de Relatividad Especial (1905), introdujo el concepto de espacio-tiempo, según el cual el tiempo es una dimensión más, que debe considerarse en un pie de igualdad con las espaciales. Y en la Relatividad General (1915) trató de encajar la gravedad en esta nueva visión del espacio y el tiempo. Tenía para ello algunos indicios, como el notable descubrimiento de Galileo sobre el movimiento de cuerpos pequeños debido a la gravedad, que resulta ser independiente de la naturaleza de los cuerpos. Esto le sugirió que la gravedad podría ser una propiedad del propio espacio-tiempo. En lugar de la imagen newtoniana de la gravitación como una atracción entre todos los cuerpos masivos, la Relatividad General describe la gravitación como un efecto de la curvatura del espacio-;tiempo producida por la materia y la energía.

El concepto de campo, muy importante en la descripción de todas las fuerzas, tiene su fundamento en la noción de que toda partícula es la fuente de una onda de manera que cualquier otra partícula que se encuentre dentro de su rango de acción, experimenta una fuerza proporcional a la intensidad del campo en esa posición. Todas las partículas originan un campo gravitatorio. Así por ejemplo, el Sol curva el espacio-tiempo a su alrededor y la órbita terrestre es consecuencia de este efecto geométrico. Podríamos imaginar el espacio-tiempo como una gran sábana extendida. Cualquier objeto que se deposite sobre la sábana la deformará, creando un campo que modifica el movimiento de cualquier otro objeto sobre ella.

¿Por qué la Relatividad General reemplazó a la teoría de Newton? Inicialmente, resolvió un antiguo conflicto existente en el seno de la mecánica clásica: la precesión del perihelio de Mercurio. Además predijo nuevos fenómenos que fueron observados con posterioridad. Por ejemplo la curvatura en la trayectoria de los rayos de luz producida por el Sol, predicha por la teoría en 1915, fue medida por primera vez en 1919. Desde entonces se han acumulado más pruebas y hoy podemos afirmar que esta teoría describe satisfactoriamente el campo gravitatorio a distancias grandes comparadas con los tamaños atómicos, en el sentido de que ha superado exitosamente todos las pruebas experimentales a las que ha sido sometida.

Teorías comparadas

Es interesante comparar con mayor detalle estas dos teorías. La física de Newton explica virtualmente todos los movimientos observados en el sistema solar, pero introduce algunas suposiciones arbitrarias. Por ejemplo, en la mecánica clásica no hay nada que obligue a postular la ley del cuadrado inverso o dicho más claramente, la fuerza es inversamente proporcional al cuadrado de la distancia. Newton desarrolló esta idea para explicar hechos conocidos, como la ley de Kepler que relaciona el tamaño de las órbitas planetarias y el tiempo que les lleva a los planetas recorrerlas. Si se reemplazara el 2 por un 3 o un 5.8 nada cambiaría en el marco conceptual de la teoría aunque, por supuesto, las observaciones no podrían explicarse.

En la Relatividad General, en cambio, no hay tanta arbitrariedad. Para cuerpos en movimiento lento en campos gravitacionales débiles, para los cuales se puede hablar de una fuerza newtoniana, la teoría de Einstein requiere que esta fuerza sea de la inversa del radio al cuadrado. No es posible modificar la teoría para obtener otra cosa que no sea la ley del cuadrado inverso sin violar alguno de los principios básicos. También la proporcionalidad entre la fuerza de gravedad sobre objetos pequeños y su masa es muy arbitraria en la teoría de Newton.

Esta fuerza podría haber dependido de la composición química, el tamaño o la forma del objeto, sin afectar la base conceptual de la mecánica clásica. En Relatividad General, el efecto que la gravedad ejerce sobre cualquier objeto debe ser proporcional a su masa e independiente de cualquier otra propiedad. Si no fuera así, no se podría interpretar la gravitación como un efecto geométrico de la curvatura del espacio-tiempo. La teoría de Einstein se reduce a la de Newton cuando los campos son débiles. Pero es más rígida.

Electromagnetismo. Las siguientes fuerzas estudiadas cronológicamente fueron la electricidad y el magnetismo. Si bien estos fenómenos eran conocidos desde la antigüedad, fue en el siglo XIX cuando se los pensó y estudió en el marco de una teoría común. Así como la masa es la fuente de la interacción gravitatoria, la carga eléctrica es la fuente de estas fuerzas, y por eso no es ésta una interacción universal, sino que sólo actúa entre partículas cargadas. Su intensidad es enorme comparada con la gravitatoria (la fuerza gravitatoria entre un electrón y un protón, por ejemplo, es unas 10 elevado a cuarenta veces más débil que la fuerza eléctrica entre ellos), pero como las cargas son positivas y negativas, y las cargas iguales se repelen mientras que las distintas se atraen, hay una tendencia a la cancelación, y por eso la gravedad domina el universo a grandes escalas.

El electromagnetismo fue formulado por Maxwell al descubrir, alrededor de 1850, que la electricidad y el magnetismo son en realidad aspectos distintos de un único campo. Un cuerpo cargado crea un campo electromagnético que ejerce fuerzas eléctrica y magnética sobre otros cuerpos cargados. Un imán ejerce una fuerza sobre otro, porque ambos son fuente de un campo electromagnético. Maxwell calculó que la velocidad de propagación de este campo es la de la luz y propuso entonces que la luz es un fenómeno electromagnético. Como las cargas pueden oscilar con cualquier frecuencia, concluyó también que la luz visible forma sólo una pequeña parte de todo el espectro de radiación electromagnética. Hoy sabemos que éste incluye además ondas de radio, luz ultravioleta, infrarroja, rayos X, rayos g, etc.

Una propiedad importante del electromagnetismo, que reaparecerá en la teoría M, es la simetría de dualidad. Si en las ecuaciones de Maxwell se intercambia el campo eléctrico E por el magnético B y simultáneamente se intercambian las cargas eléctrica e y magnética g, las ecuaciones no se modifican. Es decir, nada cambia en la teoría si se hace la transformación de dualidad: E y B, y el cuadrado y g. En esta teoría el producto e por g es constante, entonces cuando e es pequeña, le corresponde a g ser grande. Y esta es la propiedad interesante. Supongamos que tenemos una ecuación matemática que depende de g a y que no se puede resolver exactamente. El truco usual es aproximar la solución con un desarrollo denominado perturbativo: g al cuadrado más g a la cuarta más g a la sexta... Siempre que g sea menor que 1, cada término del desarrollo en serie es menor que el anterior, y el valor total converge hacia una única cifra. Pero si g es mayor que 1, entonces la serie se hace más y más grande, y la aproximación no sirve. Aquí es donde se hace evidente la importancia de la dualidad. Si g es grande, mayor que 1, entonces e es menor que 1, y la serie e al cuadrado más e a la cuarta más e a la sexta más... da un valor razonable. Esto significa que usando la perturbación en e se pueden resolver problemas en la región no perturbativa de g y viceversa.

Dimensiones extra

Con el electromagnetismo se alcanzó una sensación de plenitud. Se pensaba que sólo había que realizar un cálculo más preciso, aproximar con más cifras decimales, pero que no había más principios ni leyes por descubrir. La gravedad y el electromagnetismo son efectivamente las fuerzas más familiares y con estas leyes podían explicarse todos los fenómenos cotidianos. No por casualidad, la primera teoría unificadora del siglo XX involucró la Relatividad General y el electromagnetismo. Se hizo en el marco de una idea que actualmente se retoma en la teoría M: suponer que el número de dimensiones del espacio-tiempo es mayor que cuatro.

Poco después de que Einstein publicara su teoría, el alemán Theodoro Kaluza, matemático y filólogo, publicó en 1919 –aunque la publicación del artículo que conozco es de 1922- un estudio de las ecuaciones de Einstein generalizándolas para un espacio-tiempo de cinco dimensiones en que la quinta dimensión «extra» era compacta: configurada por un circulito. Kaluza supuso que en cada punto del espacio-tiempo tetradimensional ordinario había un pequeño círculo, lo mismo que lo hay en cada punto a lo largo de la línea de un cilindro bidimensional.

Kaluza intuyó que las interacciones gravitatoria y electromagnética podrían tener un origen común y propuso unificarlas agregando una dimensión espacial. Imaginó que en cinco dimensiones sólo hay gravedad, no hay electromagnetismo. El resultado fue muy interesante: reducida a cuatro dimensiones, la Relatividad General reproduce las ecuaciones gravitatorias y además otro conjunto de ecuaciones que resultan ser precisamente las del campo electromagnético. Así, la gravedad en cinco dimensiones se divide en gravedad y electromagnetismo en cuatro dimensiones

Pero ¿por qué no percibimos la quinta dimensión? Entonces, en el año 1926, aparece el físico sueco Oskar Klein; sus cálculos indicaron que ésta es muy pequeña y está enrollada. Como al mirar un caño de lejos: parece ser una línea, pero si nos acercamos vemos que en realidad se extiende en otra dimensión. Este proceso de enrollar dimensiones se conoce como compactación.Con el descubrimiento de las interacciones fuertes y débiles la teoría de Kaluza-Klein perdió mucho de su atractivo: una teoría unificada debería contener cuatro fuerzas, no sólo dos. Las cinco dimensiones eran insuficientes.

Cuantos de energía

Fuerzas nucleares. A fines del siglo XIX las leyes de la mecánica clásica y el electromagnetismo parecían explicar todos los fenómenos conocidos. Pero en 1895 se descubrieron los rayos X, en 1896 la radiactividad, Thompson observó el electrón en 1897, y esto indicó que había nuevas cosas por descubrir. Aparecieron también algunos problemas teóricos en el electromagnetismo de Maxwell. Un objeto caliente emite radiación electromagnética con una intensidad bien definida para cada frecuencia. La suma de las energías de la radiación en todas las frecuencias era infinita, un resultado absurdo. Max Planck observó entonces que si la energía, en lugar de tener una distribución continua, se emitía en paquetes discretos o cuantos, la suma sería finita y postuló que la radiación electromagnética existe en cuantos de energía.

En la teoría cuántica, un campo no sólo está asociado a ondas sino también a partículas; por ejemplo, el campo electromagnético está asociado al fotón. Así surgió la idea de la dualidad onda-partícula y de la Mecánica Cuántica. En este marco se sucedieron varios avances importantes. En 1911 Rutherford presentó su modelo atómico, semejante al sistema solar: pequeños núcleos de protones y neutrones rodeados de nubes de electrones; en 1913, Bohr explicó el espectro del átomo más sencillo, el hidrógeno.

La materia, a nivel microscópico o atómico y nuclear, se modeló en términos de partículas, identificadas por sus propiedades como la masa, carga, momento angular intrínseco o espín, etc. Todas ellas son de naturaleza cuántica, en el sentido de que sólo pueden tomar ciertos valores discretos. La noción de que los átomos, moléculas y núcleos poseen niveles discretos de energía es uno de los conceptos básicos de la Mecánica Cuántica.

Con esta nueva concepción de la materia fue posible calcular las propiedades, no sólo de los átomos individuales y sus interacciones con la radiación, sino también de átomos combinados en moléculas. Se hizo evidente que las reacciones químicas se deben a interacciones eléctricas de los electrones y núcleos atómicos.

Otro ingrediente de esta teoría es el resultado de Dirac de 1928 según el cual para cada tipo de partícula cargada (el electrón, por ejemplo) debe haber otra especie con igual masa pero carga opuesta: la antimateria. Cuatro años más tarde la predicción de Dirac fue confirmada cuando se observó la antipartícula del electrón: el positrón.

La teoría cuántica de los electrones y los fotones, la electrodinámica cuántica (QED), se usó en los años 20 y principios de los años 30 para calcular varios fenómenos -colisiones de fotones con electrones, de un electrón con otro, la aniquilación o producción de un electrón y un positrón, etc.- y produjo resultados coincidentes con los experimentos. Pero pronto apareció un nuevo problema: la energía del electrón resultaba infinita. Y aparecieron otros infinitos en los cálculos de las propiedades físicas de las partículas. Estos problemas de consistencia interna indicaron que la QED era sólo una aproximación a la teoría completa, válida únicamente para procesos que involucraran fotones, electrones y positrones de energía suficientemente baja

Unificación Cuántica y Relativista

La solución al problema de los infinitos apareció a fines de los años 40 y fue consecuencia de otra unificación: la Mecánica Cuántica con la Relatividad Especial. Los principios que sustentan estas dos teorías son casi incompatibles entre sí y pueden coexistir sólo en un tipo muy limitado de teorías. En la mecánica cuántica no relativista era posible imaginar cualquier tipo de fuerzas entre los electrones y los núcleos atómicos, pero esto no es posible en una teoría relativista. Las fuerzas entre partículas sólo pueden aparecer por intercambio de otras partículas, las mensajeras de las interacciones. Una representación intuitiva de la interacción electromagnética cuántica es que los electrones intercambian fotones y así se origina la fuerza electromagnética entre ellos.

Las ecuaciones de esta nueva teoría se aplican a campos y las partículas aparecen como manifestaciones de esos campos. Hay un campo para cada especie de partícula elemental. Hay un campo eléctrico cuyos cuantos son los electrones, un campo electromagnético cuyos cuantos son los fotones.

Los electrones libres y en los átomos están siempre emitiendo y reabsorbiendo fotones que afectan su masa y su carga y las hacen infinitas. Para poder explicar las propiedades observadas, la carga y masa que aparecen en las ecuaciones de la teoría cuántica de campos, llamadas desnudas, deben ser infinitas. La energía total del átomo es entonces la suma de dos términos, ambos infinitos: la energía desnuda, que es infinita porque depende de la masa y carga desnudas, y la energía de las emisiones y reabsorciones de fotones, que también es infinita porque recibe contribuciones de fotones de energía ilimitada. Esto sugirió la posibilidad de que estos dos infinitos se cancelaran, dejando un resultado finito. Y los cálculos efectivamente confirmaron la sospecha.

Estos cálculos eran terriblemente complicados, pero Feynman desarrolló un formalismo que permitió simplificarlos notablemente. Los diagramas de Feynman pueden pensarse como la historia real de partículas puntuales que se propagan en el espacio y a lo largo del tiempo, y que se unen y se separan en los puntos de interacción. Las líneas representan trayectorias de partículas y los vértices corresponden a las interacciones. Los infinitos o divergencias se originan en estos vértices. Son molestos pero pueden eliminarse en la QED, y las propiedades físicas resultan bien definidas y finitas. Este proceso de sustracción de infinitos se denomina renormalización.

Se usaron estas técnicas para hacer varios cálculos, y los resultados mostraban una coincidencia espectacular con el experimento. Por ejemplo, el electrón tiene un pequeño campo magnético, originalmente calculado en 1928 por Dirac. Los cálculos modernos del desplazamiento en la intensidad del campo magnético del electrón, causado por emisiones y reabsorciones de fotones y otros efectos similares, dan por resultado que éste aumenta un factor 1.00115965214 -con un error o incertidumbre de 3 en el último dígito- respecto de la predicción de Dirac, que había ignorado estos efectos. En un experimento reciente, el factor que se midió fue 1.001159652188, con un error de 4 en el último dígito. ¡Esta coincidencia numérica entre teoría y experimento es quizás la más impresionante de toda la ciencia!

Teoría aceptada

Con semejante éxito no es sorprendente que la QED se convirtiera en la teoría aceptada de los fotones y electrones. Sin embargo, aunque los infinitos se cancelan cuando se los trata adecuadamente, el hecho de que aparezcan divergencias produce cierta desconfianza. Dirac se refería a la renormalización como el proceso de barrer los infinitos debajo de la alfombra. El requerimiento de una teoría finita es parecido a otros juicios estéticos que se realizan a menudo en física teórica. Encontrar teorías que no tengan infinitos parece ser un camino apropiado para avanzar en la búsqueda de la teoría matriz.

a) Fuerza débil. El siguiente gran progreso realizado por la teoría cuántica de campos fue la unificación del electromagnetismo con la fuerza nuclear débil. Esta fuerza, mucho más débil que la electromagnética pero mucho más intensa que la gravitatoria, se manifiesta especialmente en la transmutación de partículas. Fue postulada inicialmente para explicar el decaimiento beta, un tipo de radiactividad de ciertos núcleos atómicos inestables, en el cual un neutrón se convierte en un protón, un electrón y un antineutrino, mediante un cambio de sabor de un quark. El término sabor es el equivalente de la masa o carga en las otras fuerzas.

La fuerza nuclear débil no es tan evidente en nuestra vida cotidiana como las magnéticas, eléctricas o gravitatorias, pero juega un papel decisivo en las cadenas de reacciones nucleares que generan energía y producen los elementos químicos en los núcleos de las estrellas. Esto es algo que ninguna otra fuerza puede explicar. Ni la fuerza nuclear fuerte que mantiene los protones y neutrones unidos en los núcleos, ni la fuerza electromagnética que trata de separar los protones, pueden cambiar las identidades de estas partículas, y la fuerza gravitatoria tampoco puede hacer algo así. Entonces la observación de neutrones que se convierten en protones y viceversa fue lo que puso de manifiesto la existencia de un nuevo tipo de fuerza en la naturaleza.

A fines de los años 50 del pasado siglo, las interacciones débiles se explicaban en el contexto de la teoría cuántica de campos, pero aunque la teoría funcionaba bien para el decaimiento beta, al ser aplicada a otros procesos más exóticos aparecían nuevamente infinitos; por ejemplo al calcular la probabilidad de colisión de un neutrino con un antineutrino. Los experimentos no podían hacerse porque las energías necesarias superaban las que se podían alcanzar en el laboratorio, pero obviamente los resultados infinitos no podían coincidir con ningún resultado experimental. Estas divergencias ya habían aparecido en QED y se habían solucionado con la renormalización. En cambio, la teoría de Fermi que describía las interacciones débiles no era renormalizable. Otra dificultad con esta teoría era que tenía muchos elementos arbitrarios. Las ecuaciones de la interacción débil se habían inferido básicamente de los experimentos, pero podrían haber sido muy diferentes, aun sin violar ningún principio físico conocido.

La solución de estas cuestiones condujo a una nueva unificación. Así como la fuerza electromagnética entre partículas cargadas se debe al intercambio de fotones, una fuerza débil no podía actuar instantáneamente. Weinberg y Salam propusieron la existencia de otras partículas, los gluones W y Z, nuevas mensajeras que se introducían en la teoría como los fotones. Esto no sólo convirtió a la teoría en renormalizable, sino que permitió explicar, además de las interacciones débiles, las electromagnéticas. La nueva teoría unificada se llamó electrodébil. Su verificación experimental llegó mucho después: en 1983 se descubrieron las partículas W y en 1984 la Z, cuyas propiedades habían sido predichas correctamente en 1968. Nuevamente una unificación resolvía problemas y permitía explicar más fenómenos que los contenidos en la teoría previa.

b) Fuerza fuerte. ¿Por qué no se separan los protones y no se desintegra el núcleo atómico debido a la fuerza de repulsión eléctrica? Esto se debe a la fuerza nuclear fuerte, una interacción que se extingue más allá de 10 elevado a menos 13 cm., y cuya fuente es el color, que en este caso es de tres tipos: rojo, verde y azul. La fuerza fuerte actúa también entre otras partículas pesadas llamadas hadrones, que proliferaban por los años 60 del siglo XX. Para reducir todo este enorme jardín botánico de partículas y su taxonomía, y en la mejor tradición de explicar estructuras complicadas en términos de constituyentes más simples, Murray Gell-Mann y Zweig propusieron elementos más fundamentales, llamados quarks. Los quarks se aplicaron a una gran variedad de problemas físicos relacionados con las propiedades de los neutrones, protones, mesones, etc. y la teoría funcionaba bastante bien. Pero todos los intentos experimentales de extraerlos de las partículas que supuestamente los contenían, fracasaron. La tarea parecía imposible. Desde que Thompson extrajo los electrones de los átomos siempre había sido posible separar cualquier sistema compuesto, una molécula en átomos o un núcleo en protones y neutrones. Pero parece imposible aislar los quarks. Esta característica fue incorporada en la teoría moderna de las interacciones fuertes, la cromodinámica cuántica, que prohibe a los quarks quedar libres, mediante un proceso denominado confinamiento.

Gran Unificación

Las interacciones electrodébil y fuerte se describen actualmente con una teoría cuántica de campos basada en una gran cantidad de partículas, organizadas en una estructura de simetría llamada grupo basada en la estructura matemática del mismo nombre. De la inmensa cantidad de estructuras posibles, los datos experimentales han permitido seleccionar una, que se conoce como el Modelo Estándar. Las partículas del Modelo Estándar se dividen en dos clases con funciones muy diferentes, de acuerdo a su espín: los bosones, de espín entero, medido en unidades cuánticas, son los mensajeros de las fuerzas; y los fermiones, de espín semientero, constituyen la materia. Una combinación de teoría y experimento conduce a tres grupos de simetría, correspondientes a las tres fuerzas que describe: SU(3) por SU(2) por SU(1). Este modelo matemático explica toda la física de partículas que se ha observado hasta el presente. Sus predicciones han sido confirmadas con asombrosa precisión.

El Modelo Estándar y la Relatividad General han superado todas las pruebas a que han sido sometidos. Los físicos experimentales y astrónomos han explicado cada vez mejor coincidencia entre sus resultados y observaciones y las predicciones de estas teorías. Con ellas, las fuerzas fundamentales de la naturaleza se explican, entonces, satisfactoriamente. Todas las cadenas de preguntas sobre fuerzas y materia conducen al Modelo Estándar de las partículas elementales y la Relatividad General.

Sin embargo éstas, claramente, no pueden constituir la teoría matriz. Por un lado, aunque las interacciones nucleares fuertes están incluidas en el Modelo Estándar, aparecen como algo bastante diferente de la fuerza electrodébil, no como parte de una descripción unificada. Además, este modelo contiene muchas características que no están dictadas por principios fundamentales, sino que deben ser tomadas del experimento. Estos rasgos aparentemente arbitrarios incluyen el menú de partículas y simetrías, varias constantes e incluso los propios principios que lo sustentan. Por otro lado, no contiene a la gravedad, que se describe con una teoría muy diferente, la Relatividad General. Esta funciona bien clásicamente, cuando puede ser probada experimentalmente, pero pierde su validez a energías altas. Los efectos cuánticos de la gravedad se hacen relevantes a la energía de Planck, 10 elevado a 19 GeV. (El electronvoltio, abreviado eV., es una unidad de energía.

Utilizando la equivalencia entre masa y energía, es útil expresar la masa de las partículas elementales en esta unidad: la masa del electrón es me=0.511 MeV., y del protón mp = 938 MeV. El megaelectronvoltio y gigaelectronvoltio, MeV. y GeV., son múltiplos del eV., 1 MeV.= 10 elevado a 6 eV., 1 GeV.=10 elevado a 9 eV.), una energía tan grande que nos coloca frente a un nuevo problema: no podemos suponer que podrá alcanzarse experimentalmente. Tampoco se entiende teóricamente la física a esas energías, ya que hay obstáculos matemáticos muy fuertes para describir la gravitación cuántica en el mismo lenguaje que las otras fuerzas.

Se pueden aplicar las ecuaciones de la teoría cuántica de campos a la Relatividad General, pero el resultado es una teoría no renormalizable. Aparecen otros problemas: los agujeros negros, objetos predichos por la relatividad clásica, parecen desafiar los postulados básicos de la mecánica cuántica. Los dos pilares fundamentales de la física del siglo XX, la Relatividad General y la Mecánica Cuántica resultan incompatibles en el contexto de las teorías de partículas. Estos son los problemas que intenta resolver la teoría M, y para ello hubo que postular nuevos principios, desarrollar nuevas ideas.

Para finalizar esta introducción histórica, veamos en un ejemplo sencillo de qué manera comprender las fuerzas fundamentales que hemos descrito permite entender la naturaleza y hasta dónde se puede llegar con el Modelo Estándar y la Relatividad General. Consideremos para ello algunas cadenas de preguntas sobre un pedazo de tiza blanca, ejemplo tomado de S. Weinberg, S., "Dreams of a Final Theory".

Preguntas, siempre preguntas

¿Por qué la tiza es blanca?

Todos sabemos que los colores del arco iris se asocian con luz de determinada longitud de onda, el rojo con la más larga, el violeta y el azul con la más corta. La luz blanca es una mezcla de diferentes longitudes de onda. Cuando la luz choca contra un objeto opaco como la tiza sólo una parte se refleja; el resto es absorbido. Una sustancia es de determinado color porque absorbe ondas de ciertas longitudes: vemos el color que refleja. La tiza absorbe en el infrarrojo y el ultravioleta, que son rangos del espectro invisibles, y refleja todos los otros, los visibles. Por eso es blanca.

¿Pero por qué la tiza absorbe las longitudes de onda invisibles y refleja todas las visibles?

La respuesta tiene que ver con las energías de los átomos y de la luz. Los fotones de la luz no tienen masa o carga pero tienen cierta energía, que es inversamente proporcional a la longitud de onda de la luz. Los estados de un átomo son discretos, no se pueden cambiar excepto en ciertas cantidades definidas. Normalmente, un átomo está en su estado de mínima energía; cuando absorbe luz salta a un estado de mayor energía y cuando emite salta a un estado de energía menor. Entonces sólo absorbe o emite fotones de esas energías particulares. La tiza es blanca porque las moléculas que la componen no tienen un estado al que puedan saltar absorbiendo fotones de cualquier color de luz visible.

Pero ¿por qué los átomos y moléculas tienen estados discretos con energía definida? ¿Por qué la luz tiene fotones de energía definida?

Estas preguntas se respondieron con la Mecánica Cuántica. Las partículas de un átomo sólo pueden tener cargas, masas y energías en ciertos valores discretos. Los fotones también, por su naturaleza cuántica, sólo pueden existir con determinadas energías. Las moléculas de carbonato de calcio que forman la tiza no tienen electrones que puedan cambiar su energía absorbiendo luz visible.

¿Y por qué las ecuaciones de la Mecánica Cuántica que gobiernan a las partículas en los átomos son así? ¿Por qué la materia consiste de átomos, electrones y núcleos? ¿Por qué hay algo como la luz?

Las respuestas nos remontan al Modelo Estándar y para eso fue necesaria la reconciliación de la Mecánica Cuántica con la Relatividad Especial en 1940. ¿Por qué hay un neutrón y un protón, uno neutro y otro cargado de masas casi iguales y mucho más masivos que el electrón?

Los quarks más livianos se llaman u (up) y d (down) y tienen cargas 2/3 y –1/3 en unidades en que la carga del electrón es –1. Los protones consisten de dos u y un d y entonces tienen carga 2/3 más 2/3 menos 1/3=1. Los neutrones consisten de un u y dos d, entonces su carga es 2/3–1/3–1/3=0. Las masas de los neutrones y protones son casi iguales porque se originan en fuerzas fuertes que mantienen a los quarks unidos y estas fuerzas son iguales para un u y un d. El electrón es más liviano porque no siente estas fuerzas fuertes. Todos los quarks y electrones son paquetes de energía de varios campos, y sus propiedades se siguen de las propiedades de estos campos.

¿Pero por qué el mundo consiste sólo de estos campos, los quarks, electrones, fotones? ¿Por qué tienen las propiedades que les atribuye el Modelo Estándar? ¿Por qué la naturaleza parece comportarse de acuerdo a esta teoría?

Estas preguntas todavía no tienen respuesta. Son algunos de los interrogantes que intenta responder la teoría M.

Otra dirección

Vayamos ahora en otra dirección: ¿Por qué hay suficiente calcio, carbono y oxígeno aquí en la tierra para formar la tiza? Estos elementos existen en todo el universo, fueron creados en las estrellas. Según el modelo del big bang, que describe la evolución del universo desde la gran explosión hasta nuestros días, la materia se formó en los primeros minutos en una proporción de ¾ partes de hidrógeno y ¼ de helio y otros pocos elementos livianos. Este es el material crudo del que se formaron los elementos más pesados en las estrellas. Los cálculos de reacciones nucleares en las estrellas muestran que los elementos más abundantes son aquellos cuyos núcleos están más ligados, y éstos incluyen el carbono, oxígeno y calcio. Las estrellas mandan este material al medio interestelar mediante explosiones de supernovas y vientos estelares. Y en este medio, rico en constituyentes de tiza, se forman las estrellas de segunda generación, como el Sol y sus planetas. Por eso hay tiza en la tierra.

Hay una teoría bastante aceptable de la evolución estelar. Sabemos que las estrellas se agrupan en galaxias y las galaxias en cúmulos y supercúmulos. Entendemos cómo y cuándo se formaron los elementos, cómo era el universo cuando tenía unos pocos segundos de vida. Pero este escenario depende de que haya habido un big bang hace 12 a 15 mil millones de años, según se deduce de la Relatividad General y el Modelo Estándar. Y todavía no sabemos si realmente lo hubo ni por qué.

En definitiva ¿por qué rigen los principios de la relatividad y la mecánica cuántica? Estas son otras incógnitas que pretende resolver la teoría M. Pero para poder presentar el modo en que intenta responderlas, todavía necesitamos introducir algunas otras ideas previas.

El concepto que dominó las unificaciones que desembocaron en el Modelo Estándar es que las fuerzas intrínsecas de las tres interacciones (débil, fuerte y electromagnética) se funden en una sola a alguna energía muy alta y evidencian sus diferentes identidades a energías menores. Esta propuesta explota una propiedad de las teorías cuánticas de campos: su manifestación física depende de la escala de energía de las partículas involucradas. A energías grandes, una teoría parece describir un conjunto de partículas con ciertas simetrías, mientras que a energías más bajas éstas pueden cambiar drásticamente.

En particular, las simetrías presentes a energías altas pueden estar rotas a energías menores. La energía predicha para esta gran unificación es muy alta (10 elevado a 16 GeV) comparada con la escala de unificación electrodébil (unos cientos de GeV), y esto nos enfrenta a un nuevo problema: si las fuerzas se unifican a una escala de energía (o equivalentemente de masa) tan alta, hay que explicar por qué las partículas conocidas son tan livianas. Esta observación puede parecer poco importante al neófito, pero los especialistas consideran que una jerarquía poco natural de escalas de energía es un signo de inconsistencias teóricas graves.

Supersimetría

Una posible solución se obtuvo apelando a una nueva idea: la supersimetría. Esta postula que para cada bosón hay un fermión y viceversa, con la misma masa. Para cada partícula de espín entero hay otra de espín semientero. La supersimetría vincula estos dos tipos de partículas de un modo fundamental, avanzando un paso más en la tradición reduccionista. Lamentablemente esta simetría no se observa en la naturaleza. Las compañeras supersimétricas de las partículas conocidas no han sido detectadas todavía.

Pero podría suceder que la naturaleza fuera supersimétrica a escalas de energía altas y que esta simetría estuviera rota a las escalas que podemos alcanzar en los aceleradores de partículas. Esta idea es muy atractiva porque la supersimetría debería verificarse en el rango de energías en que operará la nueva generación de aceleradores y esta propuesta, que no tiene ningún sustento experimental, podría entonces ser corroborada (o no) en un futuro cercano.

Combinando la supersimetría con la gran unificación se logra que la ruptura de la simetría de gran unificación suceda a muy altas energías pero la ruptura de la supersimetría ocurra a energías considerablemente menores. Si así fuera la supersimetría resolvería el problema de las jerarquías: en teorías unificadas supersimétricas es natural que algunas partículas sean livianas, aunque la escala natural de energía sea muy alta. Estas propuestas resultan muy prometedoras, pero todavía la gravedad queda fuera de la gran amalgama.

La teoría de cuerdas

A fines de la década de los 60, las propiedades de las partículas hadrónicas no podían explicarse en el contexto de la teoría cuántica de campos. Buscando una expresión matemática que describiera los resultados experimentales, se descubrió accidentalmente que aquella que mejor reproducía los datos, no correspondía a la interacción de partículas puntuales, sino de objetos extendidos en una dimensión. Este fue el origen de la teoría de cuerdas.

Este descubrimiento representa una importante ruptura con las teorías previas que, invariablemente, modelaban la materia en términos de partículas elementales puntuales. El tamaño de las cuerdas es muy pequeño (10 elevado a menos 33 cm.), pero lo importante es que no son puntuales, tienen una dimensión. Pueden ser abiertas y con extremos, o cerradas formando un lazo.

A diferencia de las cuerdas ordinarias compuestas de partículas, como protones, neutrones y electrones, estas cuerdas fundamentales son ellas mismas los elementos de los que están hechos los protones, neutrones y todas las partículas.

Así como las cuerdas de los instrumentos musicales vibran y producen diferentes sonidos, las cuerdas fundamentales pueden estar en cualquier estado posible de infinitos modos de vibración. Los distintos armónicos de una cuerda de violín son esenciales para la riqueza musical. En el caso de las cuerdas fundamentales, todos estos modos se comportan como partículas de distintas masas, correspondientes a las frecuencias de oscilación de la cuerda. Entonces, una única especie de cuerda producirá montones de excitaciones de partículas: el electrón, el protón, el fotón, el gravitón, la partícula del campo gravitatorio, etc. Surge así un nuevo cimiento en la cadena de explicaciones: de las cuerdas surgen las partículas, de éstas los átomos, y de éstos la moléculas.

La diferencia crucial con las teorías de partículas es que la propia naturaleza de las cuerdas, el hecho de que sean extendidas y no puntuales, cura las divergencias que plagan las teorías cuánticas de campos. Mientras en el caso de las partículas hay un punto bien definido en el que ocurre la interacción, los vértices de los diagramas de Feynman donde se originan las divergencias, cuando una cuerda se separa en dos, o dos cuerdas se unen en una, no hay una noción bien definida de cuándo y dónde esto sucede.

La interacción se suaviza al considerar objetos de una dimensión. Y esta diferencia tiene muchas consecuencias. En primer lugar, en la teoría de cuerdas el electrón ya no es puntual, sino una pequeña cuerda vibrante. La dimensión extra de la cuerda permite darle sentido al campo gravitatorio del electrón. Y lo mismo sucede con todas las partículas elementales, que en esta teoría son pequeñas cuerdas oscilantes. La teoría cuántica de cuerdas es finita: no aparecen en esta teoría magnitudes físicas divergentes como en las teorías de campos de partículas puntuales.

Entusiasmo entre los físicos

El entusiasmo de los físicos con estas teorías creció cuando se mostró que a bajas energías, donde las cuerdas se pueden considerar puntuales, la teoría reproducía la Relatividad General. En efecto, la teoría de cuerdas predice que a bajas energías los modos de vibración que corresponden a las partículas de la gravedad, los gravitones, interactúan de acuerdo a las leyes de la Relatividad General. Y no es posible que lo hagan de otro modo sin violar algún postulado básico de la teoría. De la misma manera en que la Relatividad General se reduce a la teoría de Newton para campos débiles, la teoría de cuerdas se reduce a la Relatividad General para bajas energías.

Pero la teoría de Einstein podría modificarse, introduciendo pequeñas correcciones que no arruinen su consistencia ni sus exitosas verificaciones experimentales. Por el contrario, la teoría de cuerdas no puede cambiar, es más rígida, no tiene parámetros libres para ajustar. Las correcciones que predice quedan determinadas por la consistencia matemática, así como la ley del cuadrado inverso es arbitraria en la teoría de Newton, pero queda determinada al deducirla de la Relatividad General. Como además la teoría de cuerdas es una teoría cuántica finita, se considera que es la primera, y quizás la única posible, teoría cuántica consistente de la gravedad.

Aunque se podría pensar en muchas teorías de cuerdas, así como hay incontables teorías de partículas puntuales, resulta que sólo cinco tipos pasan la prueba de consistencia matemática ¿Cómo logran las matemáticas restringir tan fuertemente la teoría? Como las partículas, las cuerdas deben ser relativistas, es decir deben estar sujetas a las leyes de la relatividad. Y también, al igual que en el caso de las partículas, hay que desarrollar una mecánica cuántica de cuerdas. La consistencia de la teoría cuántica de cuerdas relativistas es posible sólo en unos pocos modelos.

Las matemáticas que describen cuerdas relativistas son bastante elementales al nivel de la teoría clásica. Pero al intentar aplicar a la teoría los postulados de la Mecánica Cuántica, a fines de la década de los 70, se descubrió que el número de dimensiones del espacio tiempo debía ser 26. Es decir, las cuerdas cuánticas relativistas sólo pueden existir en un mundo de 25 dimensiones espaciales además del tiempo. Por primera vez una teoría predice el número de dimensiones del espacio-tiempo. Las teorías anteriores, basadas en partículas puntuales, postulan las tres dimensiones espaciales que se manifiestan cotidianamente. En la teoría de cuerdas la dimensionalidad del espaciotiempo es una predicción, una consecuencia de la consistencia matemática. Pero lo absurdo del resultado, el excesivo número de 26 dimensiones, empañaba la satisfacción.

El entusiasmo se moderaba también porque la teoría tiene otra característica desagradable: entre todos los modos de vibración que aparecen, hay uno que corresponde a una partícula cuya masa al cuadrado es negativa. Es decir, la masa no es un número real sino imaginario. Estas partículas se llaman taquiones y son objetos indeseables en las teorías cuánticas porque conducen a resultados ilógicos e inexplicables. Además, estas cuerdas que viven en 26 dimensiones sólo tienen grados de libertad bosónicos, no incluyen fermiones, y entonces no pueden explicar la materia que conocemos.

Agregar supersimetría

Todos estos problemas se solucionaron agregando supersimetría a la teoría, es decir incorporando compañeros fermiónicos para cada bosón. Así, se encontraron otras formulaciones que no contienen taquiones y no requieren tantas dimensiones para el espaciotiempo. Estas son las cinco teorías de supercuerdas, que viven en 10 dimensiones espaciotemporales. En ellas, el objeto fundamental es una cuerda con grados de libertad adicionales, modos fermiónicos agregados de manera supersimétrica. Resulta que sólo hay cinco teorías consistentes de supercuerdas, que se distinguen porque contienen cuerdas cerradas y abiertas (Tipo I) o sólo cuerdas cerradas (Tipo IIA, IIB, heterótica SO(32) y heterótica E8 por E8). Las siglas SO(32) y E8 por E8, indican el grupo de simetrías, las letras A y B se refieren al tipo de supersimetría y los números I y II la cantidad de supersimetrías.

Todas estas teorías se reducen a la Relatividad General a bajas energías y una de ellas se parece notablemente al Modelo Estándar de las partículas elementales. Pero no tienen ninguno de los problemas que presentan las teorías de partículas, son finitas y no tienen anomalías (otras dificultades típicas de las teorías cuánticas de campos). Comenzó así, con estos resultados, lo que se llamó la Primera Revolución de la teoría de cuerdas en 1984.

A pesar de estos logros impresionantes, a principios de los años 90, el entusiasmo decayó, principalmente porque la teoría no podía responder una pregunta esencial. ¿Por qué nuestro universo es sólo una de las muchas soluciones de la teoría de cuerdas? Cualquier análisis de viabilidad u obtención de predicciones experimentales requiere comprender cómo se relaciona la física en las 3 dimensiones espaciales con el mundo en las 9 que predice la teoría. Para poder extraer conclusiones realistas es necesario suponer que 6 de ellas son invisibles.

El mecanismo era conocido: la compactación introducida por Kaluza y Klein para unificar la gravedad y el electromagnetismo. Las predicciones experimentales dependerán de cómo sean las dimensiones extra, de cómo se realice esta compactación. Las propiedades físicas, las masas y cargas de las partículas de materia y radiación, serán diferentes para distintas compactaciones. Y aquí está uno de los problemas más importantes que debe resolver la teoría de cuerdas: existen muchas, demasiadas posibilidades de realizar esta transición de 9 a 3 dimensiones. Y muchas de ellas son consistentes con la fenomenología observada experimentalmente.

La dimensión del espaciotiempo es variable en la teoría de cuerdas, en el sentido de que hay que entender y resolver las ecuaciones de la teoría para determinarla. Esto representa un avance muy importante para una teoría fundamental. Si los cálculos indicaran que es 4, se podría explicar uno de los misterios más profundos de la naturaleza: ¿por qué nuestro universo tiene 4 dimensiones? Pero las ecuaciones eran muy complicadas y no podían resolverse. La teoría no permitía elegir entre distintas posibilidades de otra manera que no fuera el contraste con el experimento, seleccionando la versión que ajustara mejor a la naturaleza. No había un criterio, un principio, que condujera a nuestro universo. Esto llevó a pensar que en realidad todavía no existía una buena formulación de la teoría. En particular, como los cálculos podían hacerse sólo de manera aproximada, perturbativa, se pensaba que una formulación exacta eliminaría muchas de estas soluciones. La esperanza era que eliminara todas excepto una: la que corresponde a la naturaleza.

En el año 1994 comenzaron a descubrirse nuevas propiedades y relaciones entre las cinco teorías de supercuerdas que reavivaron el interés y permitieron suponer la existencia de una única teoría, la teoría M, que reemplazó a la anterior teoría de cuerdas. Las cinco supercuerdas parecen ser muy diferentes cuando se describen perturbativamente, cuando sus interacciones son débiles. La gran revelación de las simetrías de dualidad que se descubrieron entonces es que son simplemente distintas manifestaciones de una sola teoría, aproximaciones a la teoría M, válidas en ciertas condiciones particulares. Esta es otra mejora sustancial respecto de las teorías de partículas, que son tantas. La unicidad es un requisito indispensable que debe poseer la teoría primordial y la verificación experimental de sus predicciones se transforma así en una prueba decisiva para la viabilidad de la teoría. Tan importante fue el descubrimiento de estas simetrías de dualidad y de la teoría M, que 1994 se considera el año de la Segunda Revolución de las Cuerdas.

Unificación de las simetrías de dualidad

¿Cómo logran esta unificación las simetrías de dualidad? Dos teorías se consideran duales cuando describen la misma física. Las dualidades son difíciles de aceptar a primera vista. Por ejemplo, según la dualidad T, las distancias muy cortas son equivalentes a las muy largas y según la dualidad S, las interacciones muy débiles son equivalentes a las muy fuertes. Estas propiedades contrastan con nuestra experiencia cotidiana, pero no se puede descartar que la naturaleza las posea. Este tipo de predicciones cualitativas podrían ser relevantes para explicar el universo primitivo y el big-bang y, con suerte, podrían permitir encontrar alguna verificación cosmológica de la teoría.

La dualidad T relaciona una teoría con una dimensión compactada en un círculo de radio R con otra teoría compactada en un círculo de radio 1/R. Entonces, cuando la primera teoría tiene una dimensión muy pequeña, la otra tiene una dimensión muy grande, pero ambas describen la misma física. Las teorías Tipo IIA y IIB están relacionadas por dualidad T, y también lo están las teorías heterótica SO(32) y E8xE8.

De acuerdo a la dualidad S, los estados de vibración de una cuerda que corresponden a partículas muy ligeras, se relacionan con otros correspondientes a partículas muy pesadas en la teoría dual y viceversa. Esta simetría vincula las teorías Tipo I y Heterótica SO(32). La teoría IIB es autodual S: todos los estados livianos tienen su correspondiente pesado y viceversa. Esta nueva relación, aunque parece más simple, resulta ser extremadamente poderosa. Significa que una teoría de cuerdas caracterizada con g y definida para g grande, que es usualmente imposible de describir usando la matemática que conocemos, es equivalente a otra teoría de cuerdas para g pequeño, que se describe fácilmente usando teoría de perturbaciones. Entonces dos teorías de cuerdas que parecen diferentes, son en realidad duales entre sí. En la región no perturbativa de la teoría de cuerdas hay otra teoría de cuerdas que puede describirse perturbativamente. Este es el modo en que se prueba la equivalencia de las cinco teorías.

Branas y Teoría M

La dualidad S permitió descubrir también que las supercuerdas no constituyen tan sólo una teoría más refinada de cuerdas. Poseen objetos de mayores dimensiones, llamados p-branas, tan fundamentales como las cuerdas, las cuales se transforman ahora en 1-branas. Las partículas puntuales son 0-branas, los objetos de 2 dimensiones son membranas o 2-branas, etc. La teoría de cuerdas ha evolucionado hacia una teoría más general, la teoría M, donde conviven objetos de distintas dimensiones. ¿Cómo aparecen estos nuevos objetos?

Lo que distingue a las cuerdas de las p-branas es que la teoría cuántica de campos que describen objetos de una dimensión son renormalizables, mientras que para p>1, estas teorías son no renormalizables. Esta característica coloca a las cuerdas en una posición privilegiada. Como dijimos, las cuerdas pueden ser cerradas o abiertas. Las cuerdas abiertas tienen dos puntos especiales: los extremos. Estos puntos pueden moverse libremente o pueden estar restringidos a ciertas condiciones. Las superficies sobre las cuales están obligados a moverse los extremos de las cuerdas abiertas son las Dp-branas. Por ejemplo, si estos puntos sólo pueden moverse en dos dimensiones, estas superficies son las D-membranas o D2-branas; si los puntos están libres, las D9-branas llenan todo el espacio. Las D-branas son en realidad objetos dinámicos que, al igual que las cuerdas, vibran y pueden moverse en el espacio-tiempo.

Otra sorpresa que revelaron las simetrías de dualidad es que la teoría M tiene una dimensión adicional, es decir que el espaciotiempo es de 11 dimensiones. En el límite de bajas energías, la teoría M se reduce a una teoría de gravedad supersimétrica, la supergravedad en 11 dimensiones.

Para estudiar las cuerdas se usaban aproximaciones perturbativas, que tienen grandes limitaciones. Las simetrías de dualidad ofrecen una ventana a la física no perturbativa, exacta. Estudiando estos efectos no perturbativos se llega a la conclusión de que sólo hay una teoría cuántica, M. En esta teoría conviven objetos de distintas dimensiones en un pie de igualdad, las D-branas. La elaboración de M está en plena ebullición y nuevas propiedades se están descubriendo permanentemente. La idea que existe entre los físicos es que no se conocen todavía los principios fundamentales que sustentan las ecuaciones.

Conclusiones

Los últimos años han visto el desarrollo de un marco radicalmente nuevo para una teoría unificada de todas las interacciones, una teoría cuántica de la gravedad y las otras fuerzas: la teoría M. Esta teoría es la primera con condiciones para convertirse en la teoría madre.

Según M, el Modelo Estándar y la Relatividad General son aproximaciones a energías bajas, también llamadas teorías efectivas, de una teoría fundamental que no es una teoría de partículas solamente, sino también de cuerdas y D-branas. Esta ruptura drástica con las ideas que dominaron la física hasta la década de 1980, marca el comienzo de una nueva era postmoderna en física.

Una diferencia fundamental que distingue a la teoría M de cualquier teoría previa es que los principios no se ponen a dedo; son consecuencia matemática del modo particular de satisfacer las reglas de la mecánica cuántica. No hay ningún parámetro libre en la teoría M; no hay nada que se pueda ajustar. Todos los elementos de la teoría quedan determinados por la consistencia matemática. M predice que el espaciotiempo tiene 11 dimensiones y es supersimétrico. Como el gravitón parece ser una característica inevitable de M, se puede decir que esta teoría explica por qué existe la gravedad.

Hasta ahora sólo hay una formulación muy elegante, pero para ser verdaderamente exitosa la teoría debe tener una única solución a partir de la cual podamos saber qué tipos de partículas existen a bajas energías, sus masas, las intensidades de sus interacciones y probabilidades de todo tipo de procesos. Sólo realizando estos cálculos y comparándolos con el experimento podremos saber si M es correcta. Todavía no hay un test decisivo de la teoría, no hay predicciones cuantitativas. Pero es la única candidata para ser la teoría madre. Se puede pensar en M como la instancia inicial de un programa que contiene la primera teoría matemáticamente satisfactoria de la gravedad cuántica unificada con las otras fuerzas fundamentales de la naturaleza.

Un incentivo para recorrer el duro camino de comprender la teoría M, de embarcarse en esta nueva “aventura del pensamiento”, es que, si realmente constituye una explicación cuantitativa de todas las partículas e interacciones de la naturaleza, representará uno de los mayores éxitos científicos de la historia de la humanidad.

Pero no todos los físicos comparten este optimismo. Algunos piensan, filosófica y científicamente, que estos esfuerzos están dirigidos en la dirección equivocada. Entre ellos, Richard Feynman dijo, refiriéndose a la teoría de cuerdas: “...creo que todo esto es un disparate.”

Javier Del Arco
Domingo, 18 de Junio 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

13votos

El Tesoro de la alfombra mágica

El mundo en el que hoy vivimos se caracteriza por sus interconexiones a un nivel global en el que los fenómenos físicos, biológicos, psicológicos, sociales y ambientales, son todos recíprocamente interdependientes. Está emergiendo un nuevo paradigma que afecta a todas las áreas del conocimiento. Es de esperar que el nuevo paradigma emergente sea el que nos permita entrar en una ciencia más universal e integradora, en una ciencia verdaderamente interdisciplinaria. Evidentemente, estos cambios en los supuestos básicos, filosóficos y metodológicos de las ciencias, guiarán inevitablemente hacia otros cambios en las ciencias mismas: el emplazamiento relativo de los holones no cambia el sentido de superior e inferior en el nuevo esquema. Lo inferior establece las posibilidades o el marco de referencia dentro del que tendrá que operar lo superior, pero tal marco no es limitante ni condicional.


Ilya Prigogine
Ilya Prigogine
Releyendo el último artículo, veo que se me quedó en el tintero una idea importante que es aquella que sostiene que en todos los niveles de la organización holística se observa con carácter general el siguiente fenómeno: En las holarquías normales, el nuevo patrón o totalidad puede hasta cierto grado organizar la libertad o limitar la indeterminación de los holones menores porque los trasciende e incluye.

Puede establecerse que los procesos de la evolución cósmica hacen surgir una gran variedad de sistemas materia-energía; estos sistemas definen la gama de restricciones y el campo de posibilidades dentro de los que pueden evolucionar los sistemas superiores. Los sistemas de los agrupamientos inferiores permiten la evolución, pero nunca pueden determinar la naturaleza de los sistemas en los agrupamientos superiores.

La evolución de los sistemas físicos de materia-energía, establece el escenario y especifica las reglas del juego para la evolución de las especies biológicas y ésta última establece el escenario y especifica las reglas del juego para unos sistemas que son probabilísticos.

Esto quiere decir que lo inferior establece las posibilidades o el marco de referencia dentro del que tendrá que operar lo superior, pero tal marco no es limitante ni condicional. No hay nada en las leyes que gobiernan las partículas físicas que puedan predecir la emergencia del reloj de pulsera, pero no hay nada en este, que viole las leyes de la física.

El heterodoxo Sheldrake, cuya mera alusión puede ser tomada por algunos como una provocación, establece en su libro Una nueva ciencia para la vida que lo superior restringe la probabilidad de lo inferior diciendo que los campos de holones son probabilísticos y los procesos materiales dentro del holón ocurren más bien al azar, son indeterminados.

Los campos superiores pueden actuar sobre los holones inferiores de forma que sus estructuras de probabilidad se modifiquen. Puede decirse que estamos ante una restricción de su indeterminismo: De los muchos patrones de sucesos que pudieran haber ocurrido, algunos son ahora mucho más probables como resultado del orden impuesto por el campo superior. Este campo organiza y estructura el indeterminismo que mostraría si permaneciesen aislados.

Dentro de una holarquía, un nivel puede ser establecido según diversos criterios objetivos:

-Por una emergencia cualitativa (Popper).

-Por asimetría o rupturas asimétricas (Prigogine y Jantsch).

-Por un principio inclusivo: lo superior incluye a lo inferior, pero no al revés (Aristóteles).

-Por una lógica evolutiva en lo que lo superior preserva y niega lo inferior, pero no al revés (Hegel).

-Por un indicador cronológico ya que lo superior viene cronológicamente después de lo inferior, pero no todo lo posterior es superior (Saint Gregory).

Emergencias y anomalías

La realidad es el punto crítico de todo conocimiento, en el sentido de lo dado o de lo construido y es, además, el límite virtual de nuestros problemas científicos-epistemológicos. Es el problema más amplio y relevante de las filosofías de las ciencias es aquel que se refiere a la verdad, a los principios del conocimiento científico, a los tipos de explicación científica y a la naturaleza de las ciencias.

Las ciencias se inician a partir de un sentido a-crítico de lo real y avanzan hacia un sentido crítico de lo verdadero. Se desplazan progresivamente los límites históricos de la realidad dada gratuitamente a nuestros sentidos -fase descriptiva de las ciencias por evidencia directa- hacia una concepción de la realidad construida y dependiente de teorías.

Para Popper y Bachelard, entre otros, el conocimiento es teóricamente dependiente, en la descripción y la explicación.

En el estado actual de las ciencias éstas se confunden en el fenómeno (E. Nicol), el sujeto con el objeto de conocimiento, siendo imposible indicar o mostrar una suerte de realidad externa que sea el correlato específico de nuestro conocimiento.
La ciencia es eminentemente eidética y su búsqueda comprensiva de lo real está indisolublemente ligada a la teoría.

Así, para M. Bunge las teorías científicas esbozan objetos modélicos, muy simples y relevantes y que ulteriormente, con el desarrollo de la disciplina, se tornan más complejos. Tales modelos son una abstracción de la realidad.

Los nexos entre teoría y realidad en las ciencias son establecidos por conceptos abstractos que tienen una función integradora. Son así unidades descriptivas y explicativas, que hacen posibles las relaciones de identidad y diferencia como la base de toda sistemática. Las unidades integradoras en las ciencias biológicas Vg.: célula, evolución, especie, molécula o gen, tienen una relación histórica interna primordial con la disciplina y a veces también una relación extradisciplinaria.

Especie y lucha por la existencia

Desde el desarrollo de una investigación se postulan o construyen estas unidades que se relacionan lógicamente unas con otras. Por otra parte, importantes conceptos, originalmente al menos, no aluden a un fundamento ontológico de lo real. Como ejemplo, los conceptos de especie y lucha por la existencia, definidos por Charles Darwin, son notables en este sentido.

"(...) considero el término de especie como un término dado arbitrariamente, por razón de conveniencia, a un grupo de individuos muy semejantes entre sí, y que no difiere esencialmente del término variedad, que se da a formas menos precisas y más fluctuantes."

"La expresión ‘lucha por la existencia’ se usa en un sentido amplio. Debo hacer constar que empleo esta expresión en un sentido amplio y metafórico, que incluye la dependencia de un ser respecto de otro, y -lo que es más importante- incluye no sólo la vida del individuo, sino también el éxito al dejar descendencia."

La formulación histórica de los conceptos integradores deviene desde la filosofía presocrática con el postulado de un principio de unidad de la materia: átomo, agua, fuego, cambio, logos... Pareciera ser que esto es una constante en el desarrollo de las ciencias como una condición lógica y necesaria para el conocimiento.

Si la diversidad del universo debe tener un orden, tal orden se establece epistemológicamente por unidades que hagan posible la integración y la inteligibilidad de las cosas en los fenómenos. De tal forma, las ciencias no son pasivas, sino constructivas de un universo para lograr su comprensión. Explican lo real (o lo aparente) apelando conjeturalmente a otra realidad que no es evidente en principio. Son conjeturas acerca del mundo invisible para explicar lo visible.

Naturaleza ontológica

¿Cuál es la naturaleza ontológica de estas unidades?, ¿Han tenido que asumir las ciencias posturas ontológicas derivadas de su propio desarrollo teórico aproximándose a la filosofía en una relación más intima? Estas interrogantes nos impelen a revisar las bases ontológicas de las ciencias en un sentido originario, a saber cuando el grado de distinción o demarcación entre ciencia y filosofía se hace sutil y prácticamente imperceptible.

Tal es la fuerza de integración de estas unidades que no sólo hacen posible, en algún grado, la comprensión en su propio ámbito de análisis, sino además, sobre pasan sus propios límites virtuales de realidad, integrando las ciencias a un universo más amplio y complejo del saber y del hacer. Así, objetos y fenómenos configurados por conceptos teóricamente independientes son el límite hipotético de nuestro saber actual, pero no el límite ontológico de lo real.

"A nuestro conocimiento no se ofrece jamás el mundo cerrado como una unidad, sino más bien dividido, desgarrado. La investigación está orientada por las ideas de unidad, válidas en determinados ámbitos del mundo; pero hasta ahora no hay ninguna idea de unidad que pueda ser científicamente fructífera aplicándola a la totalidad del mundo."

El objeto no es el límite de las ciencias, quizá lo es en el orden de la acción práctica, pero no lo es en el orden del saber. Pues, una vez configurado su objeto, el mismo hecho de su configuración promueve, por decirlo así, otros requerimientos comprensivos o explicativos que no se resuelve en el saber acumulado sino en el saber de lo desconocido una vez más.

Las unidades no son inteligibles por sí mismas y una vez que se las demuestra en algún grado, surge el requerimiento lógico de conjeturar otras unidades (concretas o abstractas) en el universo invisible y oscuro a nuestra experiencia: unidades cada vez mayores en la dirección del integracionismo y unidades menores en la dirección del reduccionismo.

Lo conocido del mundo no es autárquico, porque la inteligibilidad de la realidad es en alguna medida una compleja ilusión simbólica, puesto que no resuelve el saber en el límite de su pregunta; al contrario, la inteligibilidad de lo real amplifica el límite de la pregunta en su dimensión ontológica y esto a su vez amplifica la inquietud en su dimensión racional.

Metabiología

La investigación biológica debería definir el reduccionismo de modo metodológico y no ontológico, porque de cualquier forma la noción de organismo (concepto de uso ineludible por los reduccionistas) es más integradora y, además, en el contexto de la evolución, las unidades menores de los niveles microfísicos son también unidades evolucionadas en relación íntima con el proceso global del organismo.

Este proceso al parecer es multidireccional bajo la perspectiva de la causalidad o causación descendente, que establece que el efecto repercute sobre su causa modificándola en algún sentido. Tal proceso hace posible las emergencias, las novedades biológicas.

La causalidad ascendente y descendente del proceso es interna al organismo o a la especie y externa al medio ambiente. Ambos, organismo y medio, poseen a su vez autonomías relativas que posibilitan cambios en el organismo en el transcurso su desarrollo evolutivo –adaptación- y cambian posteriormente el propio medio, lo que se denomina influencia efectiva de los organismos en el medio, principalmente la causada por la especie humana.

Se establecen pues relaciones de influencia dinámicas entre medio interno y externo, hasta el punto que la separación entre ambos es tan sólo virtual. Cualquier cambio de la relación sin valor adaptativo puede tener una profunda incidencia en la persistencia de especies.

A partir del equilibrio de la relación que no es estable en el tiempo, se definen las diferencias cualitativas entre diversas especies; unas se extinguen por selección natural y, por la misma causa, otras evolucionan. Ahora, las leyes de selección natural y adaptación al medio ya no operan en el mismo sentido.

Distorsión humana de las leyes

La intervención humana, cada vez más masiva y cualitativamente efectiva, distorsiona tales leyes de manera que “emergen” nuevas leyes de selección artificial y adaptación al medio artificial. Si el medio es artificial, ya no podemos considerar las leyes adaptativas.

Las restricciones espaciales del hábitat natural y las alteraciones de los ecosistemas producen la necesidad, en aquellos casos en los que tal hecho es posible, de la “domesticación” parcial de especies. Un nuevo zoológico para la preservación.

Así, las leyes fundamentales de la teoría de la evolución no siempre se cumplen, o no lo hacen según el patrón no-teleológico que, en principio las gobierna. La evolución no tiene telos, es cierto; pero las transformaciones de la naturaleza son tan profundas que han promovido un cambio conceptual y epistemológico sustantivo en el curso de la ciencia y de la técnica actual, en la medida que muchos de los cambios generados en nuestro medio ambiente son estimados como irreversibles y están fuera de toda posibilidad de corrección por las leyes naturales de la evolución.

Aún más, las investigaciones biotecnológicas han podido intervenir, y de hecho esto ha ocurrido, las estructuras más íntimas de los seres vivos, su código genético; estructuras que contienen la identidad evolutiva de cada especie, de la compleja organización vital, cobijando y preservando su estabilidad.

No cabe duda, por lo tanto, que las modificaciones a nivel del código genético pueden generar imprevistas anomalías morfológicas y funcionales, alterando el equilibrio adaptativo natural con repercusiones incalculables en los sistemas bióticos involucrados para cada individuo.

Esto es una intervención drástica en un delicado proceso de ajustes de la naturaleza por ensayo y error, que le llevó un tiempo enorme, difícilmente estimable, para lograr producirlo.

Dinámica compleja

No podemos imaginarnos la compleja dinámica de las ilimitadas acciones y reacciones que han quedado sumidas en la historia de cada individuo. Sin embargo, sí tenemos la experiencia de algunas consecuencias significativas inmediatas de nuestra intervención y, a mayor abundamiento, la incógnita queda abierta para el futuro, en tanto que estos cambios son hereditarios y perfectamente reproducibles fuera de toda posibilidad de control científico-técnico.

Ante la emergencia del mundo 3 de Popper, el mundo de todas nuestras creaciones culturales, descubrimientos científicos y aportes filosóficos y artísticos, es al parecer necesario destacar una nueva emergencia, de un mundo 4. En la medida que hemos constatado objetivamente que el avance científico y técnico tiene un efecto real y concreto sobre el curso de las leyes de la naturaleza, el mundo 4 es la resultante de la evaluación objetiva de las consecuencias que nuestro conocimiento ha introducido directa o indirectamente como cambios radicales en nuestro hábitat y particularmente en la intimidad genética de los organismos. El mundo 4 representa el impacto sustantivo en la existencia y , por lo tanto, constituye un dilema ético de primer orden. Es el punto crítico del debate de la sustentabilidad, la conservación, la preservación y previsión de futuro.

La ciencia y la técnica han provocado y son parte de un profundo giro epistemológico-ético. Queda en evidencia que es imposible la neutralidad ética en todo universo gnoseológico y epistémico.

Orden y anomalías

Ahora, el conocimiento e investigación de la ciencia y técnica contemporáneas tienen como preocupación preferente no el estado natural de las cosas; las leyes o mecanismos que regulan o hacen posible tal estado de equilibrio o homeostasis... La ciencia, al contrario, ha orientado su preocupación hacia el estado de las situaciones anómalas.

Es un giro sustantivo de la epistemología del orden de lo natural a una epistemología de lo alterado, de lo patológico, de lo anómalo respecto del orden descubierto o modelado de lo real. A partir del propósito de inteligibilidad originario del mundo, se suscita hoy un urgente reconocimiento de los cambios inespecíficos, atípicos, generados en la naturaleza de las cosas.

Esta nueva condición lleva, por una parte, a comprender el antiguo estado natural (inexistente), así como la patología en la medicina permite comprender el estado de normalidad fisiológica u orgánica. Así, entonces, esta alteridad de los procesos sugiere también otra forma de organización inédita en la naturaleza ‘normal’ como consecuencia de la intervención humana.

De alguna forma, la naturaleza alterada abre un universo de problemas inéditos en el orden normal de las cosas y que promueve otros niveles de comprensión e inteligibilidad de organizaciones extrasistémicas en un curso evolutivo desconocido. Es posible quizá procurar sólo equilibrios locales y no sistémicos.

Donde la lógica del programa viviente cambia de curso, pierde su sentido originario para generar, sobre el recuerdo o resonancia de su pasado, otras formas lógicas de programación, ante el cambio que nunca se contempló en el curso del orden primario. Esto, visto así, es original, nuevo y diferente; sin embargo, es a su vez de alto riesgo si no logra obtener un equilibrio sistémico mínimo en el tiempo para su propia autocorrección y reproducción.

Enorme diversificación

Si bien la naturaleza biológica contempla el error o el fallo dentro de los cánones de su propio ensayo, no parece que puede asimilar los fallos o alteraciones producto del artificio inteligente del ser humano, que tecnifica instrumentalmente los procesos biológicos para procurar efectos inesperados para la propia naturaleza de la vida.

En este sentido, son aberraciones y anomalías que luego son traducidas al interior del programa como condición normal de los procesos. Esto es la maximización de una razón instrumental que no tiene límites en éste juego del experimento científico.

Con los experimentos genéticos que crean nuevas especies se abre la posibilidad de una enorme diversificación que altera la organización taxonómica del orden primario, en cuanto no encajan en el sistema tradicional de la organización natural de las cosas, del orden establecido.

Las anomalías presentan tres orígenes generales de producción:

a.- La intervención humana que agota los recursos y es desequilibrante en la relación de producción y consumo.

b.- La aplicación de tecnologías que hacen más eficiente la explotación de los recursos a escalas de velocidad incompatibles con la regeneración y sustitución.

c.- La investigación científica que ensaya nuevos conocimientos y técnicas para ampliar los usos y eficiencia de los recursos.

Ciencia extraña y ajena

La investigación científica actual se debate por un lado entre el descubrimiento y explicación de un estado supuestamente natural y, por el otro, con la corrección de las anomalías que se incrementan en un volumen descontrolado y aleatorio.

En estas condiciones, la ciencia y la técnica son para el hombre y la mujer comunes sumamente extraños y ajenos. Queda excluido y marginado de toda posible comprensión epistemológica de un universo que le era familiar en alguna medida e indeterminado en sus posibilidades creadoras, emergentes. Ahora, se trata, de un saber que afectando su propia realidad existencial no participa de su albedrío, de su conciencia personal.

Los saberes cada vez más específicos, sumamente especializados en su lenguaje (metalenguaje) y técnicamente crípticos son intraducibles para el hombre y la mujer comunes, para los cuales no tienen código de equivalencia. Sin embargo, estos saberes deciden prácticamente sobre la existencia humana y los demás seres vivos.

El nuevo giro hacia la epistemología de las anomalías es la opción más honesta del racionalismo crítico contra la racionalidad instrumental, en la medida que comprende y asume la responsabilidad ética en torno a la existencia. Asume los problemas que emergen del propio desarrollo y crecimiento global y del impacto del saber en el curso de las acciones.

Es el intento, al menos, por el reencantamiento del mundo a través de la restauración, preservación y protección de una naturaleza, a pesar de todo, ignota y misteriosa. Esta nueva epistemología de las anomalías puede ser la base ético-filosófica para un nuevo y profundo programa de la investigación científico-técnica del futuro que ha sobrepasado la metáfora de lo real.

Asimetría y rupturas asimétricas

Algunos sistemas muestran en condiciones muy alejadas del equilibrio, un comportamiento particular: dan lugar a la aparición de estructuras macroscópicas, regularidades, periodicidad espacial y/o temporal, es decir ruptura de la homogeneidad característica de los estados de equilibrio.

Se trata de un comportamiento coherente de gran número de elementos del sistema, concordancia que la "ley de los grandes números" prohibiría en condiciones de equilibrio. Hay situaciones de este tipo en física, química y biología.

El análisis de estos fenómenos y los modelos matemáticos desarrollados permiten extraer varias conclusiones:

- Estas transformaciones ocurren en sistemas no aislados, con intercambio de materia y energía con el medio circundante, justificando la denominación de estructuras disipativas.

- Las estructuras ordenadas surgen como amplificación de fluctuaciones en el sistema. Fluctuaciones que predominan y dan una nueva organización al mismo. Por esta razón se llama orden por fluctuaciones al proceso que conduce a este cambio.

- Las estructuras se forman en presencia de fuerzas de largo alcance o de mediadores químicos que comunican a los elementos a distancias de orden de magnitud mayor a los elementos del sistema.

- Para la amplificación de las fluctuaciones hasta el punto de que éstas dominen el sistema, es necesaria la existencia de mecanismos moleculares que la refuercen, oponiéndose a los procesos de difusión que, a través del medio, tienden a la restauración del estado de equilibrio, a la anulación de las diferencias, que son predominantes en situaciones cercanas al equilibrio.

- La competencia entre ambos procesos impone un límite, una dimensión crítica a partir de la cual las fluctuaciones pueden estabilizarse como norma, ya que los mecanismos que se oponen a la fluctuación actúan en el borde de la zona, desde el exterior, mientras que los procesos que realimentan la estructura diferenciada actúan desde el interior.

Es de remarcar el papel dual del medio en relación con la estructura en formación: ésta solo existe merced al intercambio de materia y energía con el medio circundante, pero debe desarrollarse contra la acción del mismo medio que intenta oponerse a toda variación.

Cuestiones nuevas

Las estructuras disipativas plantean cuestiones nuevas a la investigación científica. Una de ellas es la redefinición del mismo sistema, que ahora debe ser descrito en términos de nuevos elementos, que tienen que ser identificados, delimitados y estudiados en sus interacciones. Digamos también que en los sistemas biológicos, otro tipo de acontecimientos, las mutaciones generan nuevos modos de funcionamiento en el sistema y provocan la inestabilidad del mismo.

El desarrollo de las ciencias naturales en los tres siglos siguientes a su fundación por Galileo, Newton, Leibnitz y Descartes fue guiado por la búsqueda de principios fundamentales y eternos, esquemas globales en los que todo lo existente apareciera relacionado lógica y causalmente; en los que cualquier cosa que ocurriera fuera, al menos en principio, explicable racionalmente en término de leyes generales inmutables.

La ciencia clásica sólo queda satisfecha cuando consigue reducir una novedad a simple apariencia, retrotrayéndola a principios de un nivel más; triunfo de esta ciencia es la reducción de la diversidad cualitativa al análisis cuantitativo, es el devenir convertido en apariencia. Aún hoy muchos científicos mantienen esta pretensión, pero paulatinamente se extiende la sensación de que tal reducción no es posible.
La vida, ¿un accidente único?

La materia muestra su capacidad de autoorganización espontánea, ya no sólo de soporte pasivo de las leyes dinámicas. Los niveles superiores de organización surgen como creación desde los niveles más bajos.

La reciente discusión sobre posible evidencia de vida en Marte tiene un trasfondo muy ligado a esto: se trata de elucidar si la vida es un accidente único, producto de un encuentro fortuito infinitamente improbable de unas cuantas moléculas, o por el contrario aparece casi necesariamente cuando se dan ciertas condiciones químicas y ambientales.

Es de esperar, especula Prigogine, que el concepto de evolución sea aplicable al universo todo. Así lo sugieren hallazgos como la inestabilidad de las partículas elementales y la radiación residual del cuerpo negro, producto de la explosión que dio origen al mundo que indicaría que la materia no fue siempre tal como la conocemos, y que las pocas partículas a las que pretendíamos reducir la materia son en realidad estructuras complejas.

Horizonte finito

El dilema que se presenta es cómo afirmar el principio creador del universo sin renunciar al concepto de causalidad que es lo que nos permite comprender. Hay que admitir que la predictibilidad de la evolución de los sistemas reales tiene un horizonte finito. Esta limitación es intrínseca a los sistemas materiales.

No se trata de deficientes medios técnicos, ni de insuficiente conocimiento de las condiciones iniciales de un sistema. Las limitaciones están expresadas en leyes como la cuántica, con la constante de Planck; la relatividad, con la velocidad máxima de propagación de las interacciones; el Segundo Principio de la termodinámica y el aumento constante de entropía.

Por otro lado, los modelos matemáticos muestran que en determinadas situaciones los estados posibles dejan de ser únicos: aparecen dos o más configuraciones accesibles al sistema que son compatibles con los parámetros que lo caracterizan; aquí interviene el azar para decidir cual de ellas se presentará en la realidad.

Al surgir la teoría cuántica se especuló con que la incertidumbre introducida por la constante de Planck podría generar el elemento aleatorio que actuara en la selección de una u otra configuración. No es necesario recurrir a ella, sin embargo, dado que en problemas de física clásica como la gravitación de tres cuerpos aparecen también multiplicidad de soluciones posibles.

Es posible imaginar un observador externo al universo, con un conocimiento infinito e instantáneo de todo, a la manera de un dios, y suponer que tal observador no estuviera sujeto a las leyes naturales.

Tal observador podría calcular exactamente la evolución del mundo para cualquier instante posterior, y en tal sentido afirmar la hipótesis determinista absoluta. Esta suposición sin embargo no sirve. La ciencia es una construcción de los hombres para los hombres y sólo una descripción que acepte las limitaciones del orden natural tiene sentido para nosotros.

Modelos sociales y naturales

No es nuevo el empleo en ciencias sociales de modelos y analogías tomados de las ciencias naturales. El paradigma científico impuesto por la física alentó la creación en economía y sociología de modelos inspirados en la dinámica de partículas, con funciones de potencial, fuerzas conservativas, etc. Se ubica al individuo como apoyo inerte de fuerzas externas ya dadas que escapan al análisis del propio modelo. El objetivo era introducir en las ciencias humanas los métodos precisos, cuantitativos de las ciencias exactas.

El problema es que estos métodos simplifican hasta tal punto el objeto de estudio que terminan destruyéndolo. Un peligro de signo contrario es recurrir a metáforas y analogías verbales a modo de sustituto de la comunicación interdisciplinaria; generalmente buscando en el concepto de "sistema" un denominador común a todas las ciencias.

Hoy podría vislumbrarse la posibilidad de una colaboración más fecunda entre las ciencias naturales y humanas. Presuponiendo que la sociedad es asimilable a un sistema inestable el estudio de los procesos disipativos puede guiar en la elaboración de modelos que expliquen el surgimiento de las estructuras sociales y económicas.

Es preciso para ello evitar analogías triviales; reconocer que los individuos son en sí estructuras complejas cuya subjetividad se forma dentro de la misma trama social; incorporar las relaciones asimétricas de poder, relaciones de dominación, rivalidades, colisiones; identificar los efectos de acoplamiento que amplifiquen las novedades dentro del cuerpo social.

Elemento innovador

El objetivo será caracterizar las condiciones del surgimiento y supervivencia de los núcleos sociales, de los espacios económicos. En una teoría así tiene peso el elemento innovador, que sea capaz de adoptar un comportamiento nuevo o una creencia nueva; la trama de relaciones sociales decidirá el futuro de esta singularidad: si se propaga y llega a promover una evolución social, o si por el contrario es ahogada antes de prosperar (recordar la cuestión del tamaño crítico de una fluctuación).

Las actividades de los individuos no son insignificantes dentro del todo social; un comportamiento innovador puede amplificarse y llegar a dominar el sistema, pero ello necesita un quiebre, muchas veces violento, del estado existente. También en las ciencias sociales se plantea la relación ambivalente entre individuo y medio; el hombre definido en su entorno social es el origen de los cambios estructurales, en un contexto que al mismo tiempo se opone a la innovación.

En la ciencia clásica la creación de lo nuevo no tenía cabida. El hombre se siente extraño al universo creado por la ciencia; su experiencia personal del tiempo y de la creación desafía la racionalidad científica. Se produce así una dicotomía entre ciencia y filosofía.

Hace notar Prigogine que las filosofías naturalistas de principios del siglo XIX no nacen del espiritualismo sino del materialismo más radical como en el caso de Diderot, que reclama que la materia sea definida como capaz de una actividad intrínseca coherente.

Para el materialismo, las investigaciones de Prigogine tiene la enorme trascendencia de dar una respuesta positiva a las críticas provenientes del irracionalismo a la manera de Bergson y Nietzsche (respondiendo a una insatisfacción fundamentada sobre los resultados logrados por la ciencia de su época), que negaban la capacidad de la ciencia y el abordaje racional para la comprensión del mundo.

Hoy podemos entender que creatividad, la proyección hacia el futuro no es exclusividad de los seres humanos; es también un atributo de la materia. Como Prigogine podemos terminar con la frase optimista: La historia no tiene fin.

Lo superior y lo inferior

El mundo en el que hoy vivimos se caracteriza por sus interconexiones a un nivel global en el que los fenómenos físicos, biológicos, psicológicos, sociales y ambientales, son todos recíprocamente interdependientes.

Para describir este mundo de manera adecuada necesitamos una perspectiva más amplia, holista y ecológica que no nos pueden ofrecer las concepciones reduccionistas del mundo ni las diferentes disciplinas aisladamente; necesitamos una nueva visión de la realidad, un nuevo "paradigma", es decir, una transformación fundamental de nuestro modo de pensar, de nuestro modo de percibir y de nuestro modo de valorar.

Un nuevo paradigma instituye las relaciones primordiales que constituyen los supuestos básicos, determinan los conceptos fundamentales, rigen los discursos y las teorías. De aquí nace la intraducibilidad y la incomunicabilidad de los diferentes paradigmas y las dificultades de comprensión entre dos personas ubicadas en paradigmas alternos.

Por otro lado, es evidente que el saber básico adquirido por el hombre, es decir, el cuerpo de conocimientos humanos que se apoyan en una base sólida, por ser las conclusiones de una observación sistemática y seguir un razonamiento consistente, —cualesquiera que sean las vías por las cuales se lograron— debieran poderse integrar en un todo coherente y lógico y en un paradigma universal o teoría global de la racionalidad.

Popper dice: "La aspiración propia de un metafísico es reunir todos los aspectos verdaderos del mundo (y no solamente los científicos) en una imagen unificadora que le ilumine a él y a los demás y que pueda un día convertirse en parte de una imagen aún más amplia, una imagen mejor, más verdadera"(Popper K.-Eccles J. El yo y su cerebro, Labor, Barcelona, 1980)

Pero un paradigma de tal naturaleza no podría limitarse a los conocimientos que se logran por deducción (conclusiones derivadas de premisas, postulados, principios básicos, etc.) o por inducción (generalizaciones o inferencias de casos particulares), sino que se apoyaría en una idea matriz: la coherencia lógica y sistémica de un todo integrado, similar a la coherencia que tienen todas las partes de una antigua ciudad enterrada, que se va descubriendo poco a poco. Esa coherencia estructural, sistémica, se bastaría a sí misma como principio de inteligibilidad.

Geocentrismo y heliocentrismo

Así, la epistemología emergente no postularía un punto arquimédico del conocimiento sobre el cual descansar, y del cual se deducirían jerárquicamente todos los demás conocimientos. Esto sería sólo algo similar a una revolución copernicana: pasar de un geocentrismo a un heliocentrismo.

Más bien, estaríamos aquí siguiendo el esquema astronómico de Hubble, quien demostró que el universo carecía de un centro. En consecuencia, cada sistema subsistiría gracias a su coherencia interna. De igual forma, un cuerpo de conocimientos gozaría de solidez y firmeza, no por apoyarse en un pilar central, sino porque ellos forman un entramado coherente y lógico que se auto sustenta por su gran sentido o significado.

En fin de cuentas, eso es lo que somos también cada uno de nosotros mismos: un "todo físico-químico-biológico-psicológico-social-cultural" que funciona maravillosamente y que constituye nuestra vida y nuestro ser. Por esto, el ser humano es la estructura dinámica o sistema integrado más complejo de todo cuanto existe en el universo.

Y, en general, los científicos profundamente reflexivos, ya sean biólogos, neurólogos, antropólogos o sociólogos, como también los físicos y matemáticos, todos, tratan de superar, implícita o explícitamente, la visión reduccionista y mecanicista del viejo paradigma newtoniano-cartesiano y de desarrollar este nuevo paradigma, que emerge, así, en sus diferentes disciplinas con una exigencia integradora y con un enfoque netamente interdisciplinario.

Como dice Beynam (1978), "actualmente vivimos un cambio de paradigma en la ciencia, tal vez el cambio más grande que se ha efectuado hasta la fecha... y que tiene la ventaja adicional de derivarse de la vanguardia de la física contemporánea". (Beynam, L., The emergent paradigm in science, ReVision Journal, 1, 2, 1978).

Nuevo paradigma integrador

Está emergiendo un nuevo paradigma que afecta a todas las áreas del conocimiento. La nueva ciencia no rechaza las aportaciones de Galileo, Descartes o Newton, sino que las integra en un contexto mucho más amplio y con mayor sentido.

En consonancia con todo lo dicho, este artículo trata de un paradigma universal, de un metasistema de referencia cuyo objetivo es guiar la interpretación de las interpretaciones y la explicación de las explicaciones. Por lo tanto, sus "postulados" o principios básicos de apoyo serán amplios; no pueden ser específicos, como cuando se trata de un paradigma particular en un área específica del saber.

Todo ello le da al artículo un enfoque básicamente gnoseológico, es decir, que trata de analizar y evaluar la solidez de las reglas que sigue nuestro propio pensamiento, aunque, en muchos puntos, la actividad gnoseológica no puede desligarse del análisis de la naturaleza de las realidades en cuestión.

La Philosophia perennis, es decir, el conjunto de las grandes tradiciones filosóficas y espirituales, ya sean de Occidente como de Oriente, presenta la naturaleza de la realidad como una jerarquía de niveles que va desde las esferas más bajas, densas y fragmentarias hasta las más altas, sutiles y unitarias.

Básicamente, se darían al menos tres niveles esencialmente diferentes: el nivel 1, de las realidades fisicoquímicas que constituye el cosmos material de las cosas inertes y posee el más bajo nivel de organización; el nivel 2 sería la esfera de la biología o estudio de los procesos vivos, y el nivel 3, que incluiría todas las actividades del intelecto, de la mente, del pensamiento operativo, es decir, la acción propia del espíritu humano.

La naturaleza propia de los niveles superiores trasciende e incluye a los niveles inferiores, pero no viceversa: así, todo lo del mundo mineral está en la planta, pero no al revés, como todo lo del reptil está en el hombre, pero no lo contrario. Hay, pues, una jerarquía de niveles.

Como cada nivel superior está constituido por características, propiedades y atributos definidores, propios de cada uno, nunca se podrá explicar en términos del nivel inferior: las fuerzas físicas, por ejemplo, no serán suficientes para explicar la fuerza que mueve la economía o los impulsos sexuales o la que mueve a la gente a suicidarse; los componentes químicos de la pintura nunca explicarán la expresión de la Monna Lisa, ni los componentes físicos de la obra el significado de Hamlet.

Como decía Whitehead, si se quieren conocer los principios básicos de la existencia, hay que utilizar lo superior para iluminar lo inferior, y no al revés, como hace la reflexión reduccionista corriente.

La ciencia tradicional ha prestado, sin duda alguna, muchos servicios al hombre: le ha ayudado a superar mucha pobreza, enfermedades, trabajo deshumanizante y, en general, a alargar su vida.

Ciencia y arte

Pero el querer llevar el método científico a todos los campos, ha hecho que, hablando de refracción de ondas luminosas, pigmentación y colores espectrales, la ciencia haya anulado las puestas de sol, los paisajes y los arco-iris; que, tratando de ser científicos, los estructuralistas hayan desfigurado la prosa y la poesía; que, analizando computacionalmente el Nuevo Testamento, los estudiosos bíblicos destruyan la fe y la conciencia religiosa.

Por esto, Bertrand Russell dice que: "la ciencia, como persecución de la verdad, será igual, pero no superior al arte" (En V.V. A.A., Miguel Martínez Miguélez Las Ciencias Sociales: Reflexiones de Fin de Siglo. Fondo Editorial Trópikos, Caracas, 2001)

Asimismo, Goethe dice: "el arte es la manifestación de las leyes secretas de la naturaleza" (En V.V. A.A., Miguel Martínez Miguélez Las Ciencias Sociales: Reflexiones de Fin de Siglo. Fondo Editorial Trópikos, Caracas, 2001)

Y para eminentes físicos, como el Premio Nobel Paul Dirac, la belleza de una teoría determinaba si ésta sería aceptada o no, aun contra todas las pruebas experimentales existentes hasta el momento.

Es más, Dirac "sostenía que cualquiera que tuviera algún juicio debería rechazar los experimentos y considerarlos incorrectos si iban contra la belleza de una teoría fundamental como la teoría especial de la relatividad. Y, en efecto, así quedó probado después de haberse afinado los experimentos" (En V.V. A.A., Miguel Martínez Miguélez Las Ciencias Sociales: Reflexiones de Fin de Siglo. Fondo Editorial Trópikos, Caracas, 2001)

Estas posiciones llevan a Polanyi a afirmar que en la física "está llegando a ser casi un lugar común, que la belleza de una teoría física es frecuentemente una pista más importante hacia su verdad que su correspondencia con los hechos, los cuales pueden constituir una dificultad temporal" (En V.V. A.A., Miguel Martínez Miguélez Las Ciencias Sociales: Reflexiones de Fin de Siglo. Fondo Editorial Trópikos, Caracas, 2001)

Esto es debido a que con el arte no sólo expresamos las formas de las realidades que pueblan nuestro mundo, sino que también las simbolizamos con altos grados de abstracción: el arte trata de conocer y expresar lo universal. Por ello, es muy probable que la nueva síntesis del conocimiento que buscamos sea una integración potencial de ciencia, filosofía y arte, como áreas complementarias, al estilo de lo que ocurrió durante el Renacimiento Italiano.

Superar el realismo ingenuo

Es de esperar que el nuevo paradigma emergente sea el que nos permita superar el realismo ingenuo, salir de la asfixia reduccionista y entrar en la lógica de una coherencia integral, sistémica y ecológica, es decir, entrar en una ciencia más universal e integradora, en una ciencia verdaderamente interdisciplinaria.

El modelo de ciencia que se originó después del Renacimiento sirvió de base para el avance científico y tecnológico de los siglos posteriores. Sin embargo, la explosión de los conocimientos, de las disciplinas, de las especialidades y de los enfoques que se ha dado en el siglo XX y la reflexión epistemológica encuentran ese modelo tradicional de ciencia no sólo insuficiente, sino, sobre todo, inhibidor de lo que podría ser un verdadero progreso, tanto particular como integrado, de las diferentes áreas del saber.

Por lo tanto, cada disciplina deberá hacer unas revisiones, una reformulación o una redefinición de sus propias estructuras lógicas individuales, que fueron establecidas aislada e independientemente del sistema total con que interactúan, ya que sus conclusiones, en la medida en que hayan cortado los lazos de interconexión con el sistema global de que forman parte, serán parcial o totalmente inconsistentes.

Las diferentes disciplinas deberán buscar y seguir los principios de inteligibilidad que se derivan de una racionalidad más respetuosa de los diversos aspectos del pensamiento, una racionalidad múltiple que, a su vez, es engendrada por un paradigma de la complejidad.

Estamos poco habituados todavía al pensamiento "sistémico-ecológico". El pensar con esta categoría básica, cambia en gran medida nuestra apreciación y conceptualización de la realidad.

Nuestra mente no sigue sólo una vía causal, lineal, unidireccional, sino, también, y, a veces, sobre todo, un enfoque modular, estructural, dialéctico, gestáltico, interdisciplinario, donde todo afecta e interactúa con todo, donde cada elemento no sólo se define por lo que es o representa en sí mismo, sino, y especialmente, por su red de relaciones con todos los demás.

Niveles arbitrarios

Evidentemente, estos cambios en los supuestos básicos, filosóficos y metodológicos, de las ciencias, guiarán inevitablemente hacia otros cambios en las ciencias mismas: cambios en los diferentes problemas dignos de investigar, en la formulación de hipótesis de naturaleza diferente y en la metodología y técnicas a utilizar.

A pesar de la claridad del concepto de niveles y los significados de “superior” e “inferior”, algunos críticos han afirmado que el concepto mismo no se puede mantener debido a que el número de niveles dentro de un holón es totalmente arbitrario.

Es definitivamente cierto que el número de niveles en un holón tiene en sí un elemento de arbitrariedad, simplemente porque una holarquía manifestada no tiene límite superior o inferior y por lo tanto no tiene un referente absoluto.

El emplazamiento relativo de los holones mismos no cambia y por lo tanto tampoco se modifica, en lo más mínimo, el sentido de superior e inferior.

Tengamos en cuenta también que podemos contar cualquier cualidad emergente como un nivel, lo que significa que podemos dividir y subdividir una serie de varias formas distintas.

La afirmación de los niveles significa simplemente que:

-la existencia de suelos y escalones no es en sí misma puramente arbitraria ya que en el universo hay “quantum” con o sin presencia de seres humanos;

-al hacer cualquier comparación usemos la misma medida para descartar así esa arbitrariedad concreta. Cuando nos referimos al “número de niveles” en un holón, usamos una escala relativa que aplicamos de forma consistente dentro de esa comparación particular.
Javier Del Arco
Sábado, 10 de Junio 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Arne Naess escribe que la concepción jerárquica es necesaria para contrarrestar tanto el holismo, -poner énfasis en las totalidades-, como el atomismo -ponerlo en las partes-, porque las gestalts son holones que emergen holárquicamente, generando diversos modelos ecofilosóficos. Las sendas que traza la ecología profunda están sobre la huella de la utopía, no ya como género literario, sino como actitud disidente. Nadie está obligado a amar al prójimo como a sí mismo, pero puede experimentar naturalmente tal sentimiento ampliando su yo más allá de sí mismo. También estará más convencido de luchar por el ambiente como parte de su autodefensa.


Arne Naess
Arne Naess
Los holones emergen holárquicamente. Es decir, jerárquicamente, como una serie ascendente de totalidades/partes. Los organismos contienen células pero no al revés; las células contienen átomos, pero no al revés. Y este “no al revés” en cada estadío lo que constituye una asimetría inevitable y una jerarquía –holarquía-.

Cada holón más profundo o más alto, abarca a sus predecesores y después añade su propio patrón nuevo y más abarcador, su totalidad, el nuevo código, canon o individualidad que lo definirá como una totalidad y no meramente como un ente amorfo (Aristóteles).

De aquí la importante afirmación de Whitehead: “Los muchos se convierten en el uno y son incrementados por el uno”.

Von Bertalanffy lo expresa llanamente en su Teoría general de sistemas: “La realidad en la concepción moderna aparece como un tremendo orden jerárquico de entidades organizadas que pasan a través de la superposición de muchos niveles, desde los sistemas físicos y químicos a los biológicos y sociológicos. Esta estructuración jerárquica y combinación en sistemas de orden cada vez más superior, es característica de la realidad como un todo y de importancia en biología, psicología y sociología”.

Francisco Varela en su libro Principles of Biological autonomy, afirma que: “la nueva biología parece ser un reflejo general de la riqueza de los sistemas naturales que las señales puedan ser repetidas para producir una jerarquía de niveles. La elección de considerar un nivel como superior o inferior corresponde a una elección de tratar al sistema como autónomo o restringido”.

Totalidad y parte

Es decir, cada holón es totalidad y parte y puede ser considerado en términos de su autonomía –individualidad-, o en términos de su restricción por los otros holones -en comunión-, siendo ambas visiones correctas aunque parciales.

El gran santón de la ecología profunda, Arne Naess, escribe en su libro Ecología, Comunidad y estilo de vida, que la concepción jerárquica es necesaria para contrarrestar tanto el holismo, -poner énfasis en las totalidades-, como el atomismo -ponerlo en las partes-, porque las gestalts son holones. Son tanto totalidades como partes dispuestas en un orden jerárquico de superior a inferior.

Él lo expresa así: “Esta terminología -una vasta jerarquía de gestalts de órdenes superiores e inferiores- es más útil que hablar de totalidades y holismo porque induce a la gente a pensar con más interés sobre las relaciones entre totalidades y partes. También facilita la emancipación de las tendencias fuertemente mecanicistas y atomistas del pensamiento analítico”.

Tomen nota ecologistas profundos y ecofeministas, porque si analizaran profundamente las ideas de Naess, toda la discusión con ellos avanzaría muy rápidamente y se podría atacar en conjunto y con mucha más eficacia el atomismo, el determinismo y el reduccionismo materialista.

El desconocimiento que de la ecología profunda existe en nuestro país, me lleva a incluir una discusión algo extensa sobre ésta.

No voy a pronunciarme en sentido estricto sobre esta visión ecofilosófica, o simplemente ecosófica, del mundo, pero dada la repercusión que ha tenido y tiene en muchos países, sobre todo aquellos de cultura escandinava, me atrevo a realizar un pequeño resumen de estas ideas de la mano de los magníficos trabajos de la profesora Alicia Irene Bugallo, de la Universidad Tecnológica Nacional Universidad del Salvador Área San Miguel.

De esta forma, además de hacer justicia a pensadores iberoamericanos emergentes, demostramos la calidad y rigor con que, pese a carecer de medios, se puede pensar y trabajar en aquellas tierras. Además, Íbero América es una gran región donde parece estar arraigando la ecología profunda.

Pernetarianismo, el ecologismo posmoderno y el movimiento ecología profunda

La creciente expansión de la conciencia ambiental en los últimos treinta años del siglo XX y en los primeros cinco años del nuevo siglo, ha influido, como por otra parte no podía se de otra manera, en el ideario filosófico vigente, en especial de la filosofía práctica, a través del cuestionamiento de creencias, valores y metas de la civilización industrial y post-industrial. En el ámbito de reflexión de la ecofilosofía emergente, la idea de un cambio de paradigma cultural es ya casi un tópico.

Así, diversos autores suelen ofrecer múltiples descripciones del paradigma de la modernidad que se quiere reemplazar, a partir del reconocimiento de sus limitaciones, inconsistencias o anomalías. Las evaluaciones respecto a la situación a que nos ha llevado la aceptación y puesta en práctica de dicho paradigma moderno, son también abundantes. Y en particular, lo son en relación a la crisis ambiental y social que enfrenta hoy la humanidad.

A modo de ejemplo podemos mencionar distintas propuestas, tales como el pernetarianismo, el ecologismo postmoderno o el movimiento de la ecología profunda. La idea de paradigma, como bien se sabe, cobró especial relevancia a partir del excelente libro de Thomas Kuhn, La Estructura de las Revoluciones Científicas, publicado en 1962.

Este filósofo de la ciencia y epistemólogo, vinculado al análisis del modo de operar de las ciencias fisico-matemáticas, en particular de la propia física, consideró fundamental el carácter estructural de todo paradigma científico, compuesto por:

-Leyes explícitamente establecidas y supuestos teóricos.

-Los procedimientos habituales de aplicar las leyes fundamentales a los diversos tipos de objetos.

-Algunos principios metafísicos muy generales.

El pernetarianismo

Surge del filósofo canadiense Alan Drengson. Compara dos visiones del mundo, a las que él que denomina paradigmas: una es la concepción del mundo tecnocrática hegemónica, materialista y mecanicista, que guía las políticas mayoritarias y orienta el poder tecnológico. En contraste, esta tomando cuerpo un paradigma organicista, personaplanetario; para Drengson el ecosistema se comporta como un cuerpo viviente.

Surge la denominación pernetarianismo, término que se compone por la contracción de las palabras persona, per, y planeta, neta, que sostiene el valor intrínseco de todos los seres, al menos de los vivos. (Véase Drengson, Alan, ‘Shifting Paradigm. From Technocrat to Planetary Person’, Environmental Ethics 3, (pp.221-240), 1980. Véase también Drengson Alan y Inoue Yuichi, An Introductory Anthology, North Atlantic Books, Berkeley, CA. (pág.74-100), 1995)

La propuesta se decanta por la creación de procesos sociales que estén en armonía con una percepción más amplia de la salud del ecosistema. Al considerar que el ecosistema es como un cuerpo viviente no queda claro si se trata realmente de un organismo vivo o es “como” un organismo vivo.

Esta ambigüedad está presente en otras aproximaciones del pensamiento ambiental, como es el caso de la famosa y ya mencionada Hipótesis Gaia de James Lovelock.

Lovelock describe al planeta como un organismo vivo, pero “Al describirlo así soy consciente de que el término es metafórico: la Tierra no está viva de la misma forma que las personas, o incluso en que lo está una bacteria (...) Mi uso del término “vivo” es similar al que emplean a menudo los ingenieros cuando llaman vivo -en el sentido de activo- a un sistema mecánico en funcionamiento, para distinguir su comportamiento cuando está desactivado o” muerto”" (Lovelock, James, Gaia, una ciencia para curar al planeta Barcelona, Integral, Pág. 6. 1991).

En efecto, algunos científicos y también varios ambientalistas de carácter socio-político, describen el planeta como si se tratara de una máquina cibernética, dotada de mecanismos de control homeostático, a menudo relacionados con la diversidad de las especies y con procesos fisicoquímico-biológicos que permitirían a los ecosistemas conservar su estructura funcional o restablecerla cuando ésta se haya alterado.

Para Lovelock la noción de biosfera es superada por la de Gaia, o como nosotros creo más bellamente decimos por la de Gea: una vez que la vida se extendió por el planeta, surgió Gaia o Gea, un supersistema autorregulado de materia viviente, atmósfera, océanos y superficie, capaz de controlar las funciones de la Biosfera como su temperatura media, el nivel de oxígeno, el pH del suelo, parámetros imprescindibles para la supervivencia.

Conciben a Gaia como una entidad autorreguladora, con la capacidad necesaria para mantener el planeta sano mediante el control del ambiente a nivel físico y químico; la vida sería algo así como el termostato de la Tierra o actuaría como un servomecanismo, exigiendo y creando condiciones relativamente constantes para el mantenimiento de la vida misma. Se usa el concepto de “vivo” para significar algo que está “funcionando”.

El ecologismo postmoderno

Una propuesta distinta es la del filósofo estadounidense Max Oelschlaeger, quien parte de las anomalías de la modernidad, a la que considera el paradigma de pensamiento y acción sobre el que descansa el mundo contemporáneo.

Según este pensador, un cambio de paradigma ya está emergiendo, aquel que fluye hacia una filosofía postmoderna de la naturaleza, entendida ésta como “algo más allá”, distinto, del materialismo mecanicista; más allá de la dicotomía sujeto/objeto y, de la disociación hecho/valor.

Esta perspectiva se apoya en las innovaciones que introduce la segunda revolución científica que se viene abriendo camino desde mediados del siglo XIX en Europa, complementando y superando los senderos abiertos por Galileo y Newton en la primera revolución científica.

En particular, Oelschlaeger destaca el evolucionismo de Charles Darwin y de los aportes fundamentales de Rudolf Clausius en el campo de la termodinámica. El nuevo paradigma debe contener, por un lado, una visión fuertemente religiosa sacralizante, que sea compatible, por el otro, con el saber científico actual sobre la condición material del mundo.

Se está ampliando, para Oelschlaeger, la perspectiva hacia un sinergismo cósmico. Esto debería conducir a una integración nueva de mitología y cosmología, que conduzca significativamente del homocentrismo (él lo dice así) u antropocentrismo moderno a un cosmocentrismo postmoderno. (Véase Oelschlaeger, Max, The Idea of Wilderness, New Haven- London, Yale University Press, 1991).

En estos ejemplos citados se equipara la idea de paradigma a la de concepción del mundo. Respecto al nuevo paradigma rival que se promueve y al que se adhiere, no se avanza más allá de ponerle un nombre y describir a grandes rasgos los supuestos metafísicos o ideológicos que lo caracterizarían. No quedan claros los principios y las vinculaciones de tales principios con el imprescindible campo de las aplicaciones prácticas.

El movimiento de la ecología profunda

Sin embargo hay excepciones, como sería el caso del movimiento de la ecología profunda (en adelante MEP). La diferencia estriba en que sus sostenedores han desarrollado y caracterizado más claramente la alternativa sugerida, a tal punto que se pueden reconocer en la estructura del MEP, un sistema de relaciones entre sus partes análogo al de los componentes de un paradigma kuhniano. Aunque debe quedar claro que en los casos comentados no se trata de la búsqueda del saber científico, sino más bien de un programa de acción social y política en sentido amplio.

Hagamos algunas aclaraciones previas respecto a la expresión “ecología profunda”. Fue introducida al comienzo de los setenta por un grupo de ambientalistas noruegos, entre ellos el filósofo Arne Naess, quien la incorpora en su artículo The shallow and the deep. Long-range ecology movements: a Summary presentado en 1972 en Bucarest, en ocasión de la Tercera Conferencia sobre el Futuro del Mundo. El trabajo fue publicado luego en la revista Inquiry 16, Oslo, 1973.

Sobre Arne Naess (1912- ) podemos decir brevemente que nació en Oslo, estudió filosofía, matemáticas y astronomía en la Universidad de Oslo, en la Sorbona y en la Universidad de Viena. Participó en Viena en los Seminarios Schlick del Círculo de Viena. Tras doctorarse en 1934, realizó su post-doctorado en Berkeley entre 1937-38. Entre 1939-69 ocupó la cátedra de filosofía de la Universidad de Oslo.

Ese período está caracterizado por sus numerosas contribuciones académicas en el área de la filosofía de la ciencia y del lenguaje, teoría de la acción comunicativa, escepticismo y epistemología de la investigación científica. A partir de 1970 llama la atención por su producción en el campo de la ecofilosofía. Es profesor emérito de la Universidad de Oslo y ha recibido innumerables premios internacionales como el de la Academia Sueca, el Sonning o el Mahatma Gandhi. Su obra se ha traducido a numerosos idiomas y está prevista la publicación Selected Works of Arne Naess, en 11 tomos, por Rowler Academic Publishers, Ámsterdam.

Crisis más profunda

Desde aquella primera propuesta del “72”, Naess se propuso ir más allá del ambientalismo reformista predominante destacando que la problemática ambiental revela una crisis más profunda del hombre actual, en relación a valores, actitudes culturales y pautas económicas que deberían reconsiderarse seriamente.

Se considera que el ambientalismo actual, centrado sólo en adoptar medidas correctivas –por cierto muy necesarias- no llega a cuestionar las raíces de la creencia moderna en el progreso puramente material. No llega a lo profundo, deep, y queda entonces caracterizado como menos profundo, shallow. (Naess, 1973, 1989a).

El objetivo es promover y sustentar líneas de acción alternativas, que puedan ser más eficaces que las vigentes en lo que hace a mitigar la actual crisis ambiental. [Véase Naess, Arne, 1973, “The Shallow and the Deep: A Long-Range Ecology Movement. A Summary”, Inquiry 16, (pp. 95-100), ahora en Drengson Alan, Inoue Yuichi, 1995, op. cit., (pp. 3-9)].

Para Naess la filosofía es un instrumento idóneo por excelencia para debatir sobre los fundamentos, pero habría que asumirla como sabiduría, sofía. Toda sabiduría es descriptiva y normativa a la vez, implica la aceptación de normas, postulados, además de reflexiones sobre el estado del mundo.

En aquel momento delineó el MEP con principios centrados en el respeto por la vida humana y no humana. Aspiraba a la creación de sistemas sociales que fueran diversos, simbióticos y compatibles con los sistemas naturales, sin clases, autónomos y descentralizados, consistente con el, en principio, igualitarismo biosférico.

Posteriores encuentros con pensadores tales como Bill Devall (Estados Unidos) Warwick Fox, Freya Mathews (Australia), Alan Drengson (Canadá), Michel Sèrres (Francia) entre otros, permitieron un enriquecimiento y mayor difusión del movimiento. Aquella primera versión fue reelaborada, entonces, en 1984, en colaboración con el filósofo estadounidense George Sessions.

En la búsqueda de analogías ente la idea de paradigma científico y MEP, ambos autores establecieron un núcleo de ocho postulados básicos, acordados entre sus mentores y aceptados por los seguidores, que ocuparía un lugar análogo al lugar que ocupan las leyes y teorías en un paradigma o programa científico.

Principios programáticos del MEP

Principio1º.- El bienestar y el florecimiento de la vida humana y no humana en la Tierra tienen un valor en sí mismo. Estos valores son independientes de la utilidad del mundo no humano para los objetivos humanos.

Principio 2º.- La riqueza y diversidad de las formas de vida contribuyen a la percepción de estos valores y son también valores en sí mismos.

Principio 3º.- Los humanos no tienen derecho a reducir esta riqueza y diversidad, salvo para satisfacer necesidades vitales.

Principio 4º.- El florecimiento de la vida y cultura humanas es compatible con un descenso sustancial de la población humana. El florecimiento de la vida no humana requiere ese descenso
.
Principio 5º.- La interferencia humana actual en el mundo no humano es excesiva y la situación continúa empeorando.

Principio 6º.- Por lo tanto deben cambiarse las políticas. Estas políticas afectan a las estructuras económicas, tecnológicas e ideológicas básicas. El estado de cosas resultante será profundamente diferente del presente.

Principio 7º.- El cambio ideológico consiste fundamentalmente en apreciar la calidad de vida (vivir en situaciones de valor inherente, cualitativo) más que adherirse a un nivel de vida cada vez más alto.

Principio 8º.- Quienes suscriben los puntos precedentes tienen la obligación directa o indirecta de tratar de llevar a cabo los cambios necesarios.

[Véase, Naess Arne, Sessions George, 'Platform Principles of the Deep Ecology' en Devlla Bill, Sessions, George en Deep Ecology, Living as if Nature Mattered, Gibbs Smith, Salt Lake City, 1985. Véase también, Naess Arne, Sessions, George (1985) “Platform Principles of the Deep Ecology Movement” en Drengson, Alan, Yuichi Inoue (edit.) The Deep Ecology Movement, An Introductory Anthology, North Atlantic Books, Berkeley, 1995].

Diagnóstico compartido

Como en todo paradigma, la adhesión a los principios implica, de algún modo, compartir un diagnóstico de situación, por ejemplo: que el impacto humano sobre los seres no humanos es excesivo.

Como en todo paradigma, los principios permiten señalar y destacar hechos que se consideran significativos, tales como la pérdida de calidad de vida para muchos humanos, la pérdida acelerada de diversidad natural y cultural, etc.

Como en todo paradigma, la puesta en común de postulados también revela un acuerdo en torno a valores compartidos, V.g.. que hay al menos un tipo de derecho en común a los seres vivos humanos y no humanos: el derecho a ser, a florecer, a evolucionar. (Ésta última consideración se halla en NAESS, Arne, “Spinoza and the Deep Ecology Movement”, Mededelingen vanwege het Spinozahuis 67, Delft, The Netherlands, 1991).

No todos los principios tienen el mismo peso ideológico. Unos significan el compromiso axiológico de la propuesta (Principios1º, 2º y 3º); otros describen un diagnóstico de situación (Principios 4º y 5º) y los últimos resultan vagamente prescriptivos (Principios 6º, 7º y 8º). Desde los tres primeros, se despliega una aproximación biocéntrica.

Biocentrismo, antropomorfismo fuerte y débil

El biocentrismo es, por cierto, una construcción antrópica aunque no antropocéntrica; visualiza al hombre como des-centrado, como una parte más de esa delicada trama de la biosfera de la cual depende. Esto permite comprender qué tipo de cambio de paradigma cultural está alentando el MEP: se trata de un cambio en la concepción del lugar relativo que ocupa la especie humana respecto a los seres no humanos.

El biocentrismo configura una tendencia antitética, por ejemplo, del planteamiento baconiano. Francis Bacon consideraba en la Instauratio Magna (1620) que las generaciones posteriores a Adán no tenían por qué pagar culpas ajenas, y que la nueva ciencia moderna y el dominio técnico de la naturaleza serían, según su criterio, el camino seguro para lograr una merecida reconciliación con Dios. Esto posibilitaría la restauración del hombre a la situación adámica anterior a la caída, restituyéndosele, como amo y señor, un poder pleno sobre el resto de las criaturas.

El biocentrismo lleva implícito el deseo de volver a instaurar a la humanidad, claro que no en el paraíso, sino en el proceso evolutivo mismo que le dio origen, entre muchas otras especies vivas que también ensayan sus propios senderos evolutivos.

Para los seguidores del movimiento, la especie humana no tiene ningún derecho a interferir, del modo en que lo está haciendo, en tales procesos. Esto redunda en un paradigma incompatible con el antropocentrismo hegemónico (o al menos incompatible con el antropocentrismo fuerte, según la distinción entre antropocentrismo fuerte y débil que realizara el filósofo estadounidense Bryan Norton).

El arquetipo ideal de actitud que se describe como antropocentrismo débil (weak anthropocentrism) tiene en cuenta las condiciones globales de la vida humana y no humana, en una perspectiva a largo plazo. El antropocentrismo débil no tipifica por cierto a mujeres u hombres light que transitan distraídamente por su época, sino todo lo contrario.

Norton subraya la multidimensionalidad existencial del antropocentrismo débil, que recuperaría para sí, además de la razón instrumental, la dimensión emotiva, estética, espiritual de una modernidad que, al decir de Jürgen Habermas, hemos asumido de forma “incompleta”.

El antropocentrismo fuerte (strong anthropocentrism), en cambio, se inclina por las preferencias, deseos o necesidades frecuentemente a corto plazo y además desconoce o niega que constituya una amenaza para la continuidad de la vida en la Tierra.

Se refleja en la postura economicista vigente, que alienta prácticas no sostenibles de agricultura, industria o turismo, que, entre otras cosas promueve urbanizaciones no planificadas, problema gravísimo éste hoy en España. [Véase Norton, Bryan, 1984, 'Environmental Ethics and Weak Anthropocentrism', Environmental Ethics, Vol. 6, summer fall. (pp. 131-148)].

Sobre las aplicaciones o relación entre los principios y la práctica concreta

Los últimos tres postulados del considerado núcleo programático subrayan la intencionalidad sociopolítica del movimiento (entendiendo “política” en un sentido amplio: no sólo en relación a lo que hacen los funcionarios del estado, sino, y sobre todo, al modo de conducirnos cada uno de nosotros en la polis). Una profusa bibliografía en esta línea de la filosofía ambiental destaca innumerables referencias a ejemplos reales, indicando al aspirante o seguidor diversas prácticas compatibles con los principios acordados.

Una visión panorámica de los distintos lineamientos se puede encontrar en los textos que se indican. [Devall Bill, Sessions George, 1985 Deep Ecology: Living as if Nature Mattered, Gibbs Smith, Salt Lake City. Véase también Devall Bill, 1988 Simple in Means, Rich in Ends. Practicing Deep Ecology, Peregrine Smith Books, Salt Lake City. Naess, Arne, 1989, Ecology, Community and Lifestyle: Outline of an Ecosophy, (traducción del noruego al inglés de Økologi, samfunn og livsstil, Universitetsforlagen, Oslo, 1976, realizada por David Rothenberg, Cambridge University Press, Cambridge, 1976].

En ellos podemos encontrar recomendaciones sobre:

-Usar medios sencillos, evitar medios innecesariamente complicados para alcanzar una meta o propósito.

-Evitar actividades meramente auxiliares, sin valor intrínseco, o que se encuentren a muchas etapas de distancia de las metas fundamentales.

-Luchar contra el consumismo y minimizar la propiedad personal.

-Esforzarse por mantener y aumentar la sensibilidad y apreciación de los bienes que existen en cantidad suficiente para ser disfrutados por todos.

-Reducir la “novofilia”, o sea el amor a lo que es nuevo meramente porque es nuevo y conservar los objetos viejos y gastados pero que estén en buenas condiciones.

-Intentar mantenerse en situaciones de valor intrínseco, más que meramente estar ocupado.

-Apreciar las diferencias étnicas y culturales entre las personas. No sentirlas como amenazas.

-Evitar un estándar de vida material demasiado diferente y más alto que el necesitado. Promover una solidaridad global de estilos de vida.

-Preferir los estilos de vida que sean universalizables, que no sean escandalosamente imposibles de sostener sin injusticia hacia el prójimo u otras especies.

-Procurar profundidad y riqueza de experiencias, más que intensidad.

-Apreciar y elegir, siempre que sea posible, un trabajo significativo, más que uno sólo para ganarse la vida.

-Cultivar la vida en comunidad más que en sociedad.

-Inclinarse a la producción primaria, agricultura de pequeña escala, forestación, pesca.

-Intentar vivir con la naturaleza y no simplemente visitar los lugares hermosos.

-Ante una naturaleza vulnerable, vivir en un estilo “liviano y sin dejar huellas”.

-Cuando haya un conflicto entre los intereses de los animales domésticos y las especies salvajes, tender a proteger estas últimas.

-Proteger los ecosistemas locales, no solamente las formas de vida individuales. Sentir la propia comunidad como parte del ecosistema.

-Tratar de actuar resueltamente y sin cobardía en los conflictos, pero permaneciendo no-violento en palabras y actos.

-Participar o apoyar la acción directa no violenta cuando otros medios de acción fracasan.

-Vegetarianismo, total o parcial.

A modo de una heurística positiva (al decir de Lakatos en relación a los programas de investigación), los ejemplos constituyen lineamientos y sugerencias de caminos a seguir, de estilos de vida y acciones compatibles con la plataforma de los principios. A menudo, las propuestas desde el MEP han resultado extrañas para algunos o poco comprensibles. Otros las han rechazado ácidamente, al no comulgar con los estilos de vida sugeridos.

El diagrama del delantal

El hecho de que el núcleo central de la plataforma se derive, de algún modo, de presupuestos filosóficos o visiones del mundo en general, no es algo que aquí se oculte.

Haciéndose eco de una idea intrínsecamente pragmática, el movimiento reconoce el valor de las creencias para la acción, cómo juegan un papel fundamental en nuestras elecciones y acciones, en especial cuando hay que decidir nuevos caminos que nos conduzcan de una situación actual considerada insatisfactoria hacia una situación vislumbrada como preferible. [Véase Bugallo Alicia Irene, “Las ideas de naturaleza en la Ecología Profunda y sus implicancias prácticas” en Revista Ludus Vitalis, Vol. X, núm. 17, 1er semestre 2002, México].

El llamado apron diagram, “diagrama del delantal”, representa gráficamente las relaciones entre los elementos de este programa. Según Naess, el diagrama del delantal simboliza un camino posible a recorrer, desde las preguntas filosóficas últimas hasta los juicios concretos y las actividades de todos los días que pueden llegar a producir cambios en la civilización tecnológica, como mitigar, reducir, la actual crisis ambiental que enfrentamos.

Ofrecemos una presentación esquemática del diagrama del delantal, tal como es diseñada en: Naess, Arne, 1988, "The Apron Diagram" en Drengson Alan, Inoue Yuichi 1995, op. cit. pp. 9-129. También en “Intuition, Intrinsic Values and Deep Ecology' en The Ecologist 14, 1984, o en 'Deep Ecology and Ultimate Premises” en The Ecologist 18, 1988.

Un delantal (como el que usamos en la cocina) tiene una parte superior o pechera, el cinturón que lo ciñe al cuerpo y lo sostiene, y la falda con su sobrefalda que pende de la cintura.

La parte superior del delantal sería el nivel 1. Corresponde a filosofías, religiones, sistemas de creencias o normas últimas de cada uno, que en el fondo colorean o guían el estilo de vida particular de cada persona. Son verdades consideradas últimas, no derivables de otras.

El nivel 2, la cintura del delantal, la parte que lo hace funcional al sujetarlo, contiene los ocho postulados del movimiento, que son compatibles con aquellas filosofías o creencias y pueden ser compartidos por todos, o al menos por una gran diversidad.

Desde la plataforma de los ocho postulados, a nivel 2, penden a su vez: el nivel 3 con los puntos de vista generales que guían proyectos de acción, y un nivel 4 de las realizaciones concretas particulares.

Nivel 1(la pechera del delantal).

La manera en que se relacionan las premisas últimas (nivel 1) y los postulados (nivel 2) refiere a ciertas ideas centrales del pragmatismo clásico, el cual ha inspirado –junto a otras influencias- el movimiento que estudiamos.

En particular, se destaca la influencia del pensamiento de William James y de varias de sus ideas, tal como fueran delineadas en un ciclo de conferencias recopilado como Pragmatismo. [Véase James, William, 1907, Pragmatism, (seguimos la 9ª edición de 1963 de Meridian Book, World Publishing Company, Cleveland, Ohio)].

En la parte superior del delantal podemos encontrar filosofías, religiones, sistemas de creencias o normas últimas como: el modelo cristiano de San Francisco de Asís, el budismo, las sabidurías indígenas, la ecosofía T (Naess), el pampsiquismo, el trascendentalismo (Emerson, Muir, Thoreau), la ecología transpersonal (Fox), etc.

Los seguidores del movimiento no necesariamente coinciden todos en sus posiciones dentro de este nivel que permite un movimiento de base más amplio que si se sustentase en una sola tendencia filosófica.

Según la ecología profunda, esas concepciones pueden sernos útiles, ya que estuvieron vigentes o están aún vigentes; fueron verdaderas o son verdaderas en tanto instrumentos apropiados para satisfacer la realización de la vida. Se aprecia una coincidencia con el criterio de verdad de las teorías o creencias tal como fuera presentado por James en Conferencia VI “Concepción de la verdad según el pragmatismo”.

Las verdades como creencias nacen de la experiencia vital de sus sostenedores, no tienen una validez originaria a priori y autónoma, sino que tienen una validez derivada e instrumental respecto de la práctica. [Véase Naess, Arne, “The Encouraging Richness and Diversity of Ultimate Premises in Environmental Philosophy”, Trumpeter 9, 4, (pp. 53-60), 1992].

Toda creencia tiene un cáracter intencional, no resulta un conocimiento reflejo pasivo del mundo sino un medio para convertir al mundo en la clase de ámbito que queremos que sea. Para James la vigencia de una verdad no es absoluta sino siempre contextualizada, por lo que al cambiar las circunstancias una creencia puede no responder tan satisfactoriamente al sostenimiento de nuevas experiencias. La utilidad de antaño, nos dice, puede quedar latente, y la creencia se integra en una reserva de verdades extra.

Del mismo modo puede suceder que, con el tiempo, aquella creencia resulte otra vez adecuada para una nueva necesidad. Nuestra fe en ella se vuelve activa, suponemos que nos proporcionará análogas ventajas que en el pasado, y solicita por lo tanto nuestro reconocimiento.

También, en concordancia con las ideas de James de Conferencia V “Pragmatismo y sentido común”, se acepta que hay distintos tipos de pensamiento acerca del mundo, tal como el sentido común por un lado, y la filosofía y la ciencia que rompen con el sentido común, pero es imposible decir cuál de ellas es más verdadera que las restantes.

Las nociones de cada etapa tienen un mérito que no tienen las otras; el sentido común puede ser mejor en una esfera de la vida, la ciencia en otra, la filosofía en otra. Pero no se puede decir en absoluto que una sea más verdadera que la otra.

El movimiento ecología profunda considera legítimo apoyarse tanto en figuras líderes del pensamiento occidental como pueden ser Spinoza, Heidegger o Whitehead, como así también en concepciones del mundo pre-científicas y pre-filosóficas de culturas muy distintas a la europea occidental moderna.

A nivel 1 es aceptable considerar válidas a una amplia gama de concepciones del mundo, mientras tengan “el mismo significado”. Y tener el mismo significado quiere decir, en el caso del movimiento ecología profunda, algo muy preciso: que todas las acciones derivables de ellas sean compatibles con un ambientalismo no-antropocentrista.

En este sentido, la pluralidad no es cualquiera, no se trata de tolerar cualquier propuesta. Está claro que desde la perspectiva de la ecología profunda se desalientan filosofías como el materialismo mecanicista, la filosofía de Francis Bacon en su Instauratio Magna, el positivismo, etc., todas las cuales tendrían tal vez el mismo significado práctico de favorecer el antropocentrismo, las aproximaciones desacralizadas de la naturaleza o la vocación tecnocrática que se pretende corregir. Podría ser compatible, por otro lado, con la caracterización que hace el filósofo estadounidense Bryan Norton del antropocentrismo débil.

El significado pragmático de una verdad, tal como es presentado por James en Conferencia III “Algunos problemas metafísicos considerados pragmáticamente”, permite dirimir interminables discusiones metafísicas y provee un criterio para elegir entre posturas supuestamente antagónicas, ya que todo debate metafísico conlleva algún resultado práctico. ¿Da lo mismo auspiciar el antropocentrismo (al menos el fuerte) que el biocentrismo? ¿Qué diferencia de orden práctico se desprendería de sostener una u otra postura?

Si no pudieran trazarse diferencias prácticas, entonces ambas alternativas significan prácticamente lo mismo, y toda disputa sería vana. La propuesta de Naess y Sessions deja traslucir que una aplicación del método pragmático ha inclinado al movimiento ecología profunda a favor del biocentrismo, implícito en sus ocho postulados, pensando en las consecuencias nefastas que pueden seguirse de continuar con la postura antropocéntrica predominante.

Si seguimos desplegando en la práctica el antropocentrismo salvaje vigente, asociado a una racionalidad instrumental y al poder económico, y a una concepción materialista mecanicista del mundo, puede que en el futuro desaparezca el hombre mismo. Podría decirse, con la lógica pragmática, que el antropocentrismo, si bien ha resultado útil en el pasado, al menos hasta cierto punto, se ha transformado en una creencia falsa que se contradice a sí misma.

Nivel 2 (es la cintura del delantal)

Habíamos partido del hecho de qué persona tiene una filosofía de vida, una cosmovisión desde la cual, aunque no tenga conciencia de ello, toma decisiones en su vida cotidiana. Pueden ser creencias intuitivamente sentidas. Articular esa filosofía de vida, verbalizarla tal vez, puede ayudar a comunicarla sistemáticamente a otros y apoyar decisiones responsables. Pero no siempre es posible explicitar una creencia o filosofía última, y su verbalización suele resultar parcial. Los postulados de la plataforma del movimiento (nivel 2) explicitan una pequeña parte de la riqueza implícita en las creencias últimas.

En la Conferencia VI mencionada, James destaca como una de las funciones del filósofo el buscar una teoría o principios que actúen, que puedan mediar entre todas las verdades previas y determinadas experiencias nuevas que requieren definir otros rumbos de acción.

Esos principios deben perturbar lo menos posible al sentido común y a las creencias previas, y deben conducir a algún término sensible que pueda verificarlos. No pueden estar desconectados de las verdades últimas. Nadie se adheriría a ellos si son incompatibles con sus paradigmas o creencias últimas. De modo análogo, para el MEP el sabio o ecósofo tiene la responsabilidad de proponer, dadas las circunstancias, un conjunto ni muy amplio ni demasiado limitante de postulados para la acción, compartidos por una gama de adherentes lo más amplia posible.

Entonces aparece menos como una solución que como un programa para un trabajo ulterior, y en particular, como una indicación de los modos en que las realidades existentes pueden cambiar. Los filósofos están bien equipados para ayudar a una articulación clara y convincente de las relaciones premisa/conclusión entre las verdades últimas y las consecuencias prácticas. [Véase Naess, Arne,1989, “The Systematization of the Logically Ultimate Norms and Hypotheses of Ecosophy T” en Drengson Alan, Inoue Yuichi 1995, op. cit., (pp.31-48)].

La plataforma de los 8 principios del Movimiento de la ecología profunda, está abierta siempre a futuras rectificaciones, modificaciones o ampliaciones. Supone una homogeneidad de postulados, aceptados por todos, coherentes y en continuidad con sus creencias y verdades últimas [Véase Bugallo, Alicia Irene, 2004, ‘Pluralismo y tolerancia en filosofía ambiental’, Ponencia presentada en el XV Congreso Interamericano de Filosofía, II Congreso Iberoamericano de Filosofía, 12-16 de enero de 2004, Lima, Perú].

Es un movimiento concebido por filósofos, pero no sólo basado en la filosofía sino también en distintas creencias y concepciones del mundo. No es una propuesta sólo para filósofos, sino también para todos aquellos seguidores que adhieran al núcleo de los principios.

No busca constituirse en un paradigma cerrado, compartido sólo por unos académicos iniciados. Se intenta que la base de sostenedores del movimiento sea amplia, y alcance más allá de los participantes del primer mundo o de los países más industrializados.

Nivel 3 (sobrefalda)

Planes y programas diseñados por instituciones gubernamentales o no gubernamentales, por agrupaciones como Greenpeace, Earth First!, Movimiento Biorregional, MABUNESCO, etc.

Nivel 4 (falda)

Proyectos y acciones concretas, propedéuticas o propiamente políticas, estrategias específicas sobre bosques, especies en peligro, conservación de la naturaleza virgen, reservas de biosfera, prácticas individuales o grupales compatibles con los principios, etc.

El diagrama del delantal muestra la perspectiva del funcionamiento de esta propuesta, como “movimiento”. En este punto nos damos cuenta que la categoría de “paradigma” es insuficiente si se la toma en sentido demasiado estático o sincrónico.

El epistemólogo Steve Fuller criticaba la idea kuhneana de paradigma, considerándolo un movimiento social retenido, paralizado. La expresión “movimiento” es, para Fuller, más apropiada a lo que debería ser la ciencia, un paradigma liberado, ciencia con la gente, haciéndose cargo de las implicancias y consecuencias de sus aplicaciones.

Estos criterios se aplican muy bien a la idea que tiene el MEP de la función de la filosofía, como una actividad de investigación y acción que deberá ser de algún modo validada en el futuro, de acuerdo con sus consecuencias.

No es una actividad académica exclusiva de una secta de “creyentes auténticos”, de comunidades paradigmáticas que discuten sólo entre quienes comparten las mismas actitudes. En principio es más abierta, hasta cierto punto pluralista. En los términos de Fuller (aplicados a la ciencia) no se constituye en una Alta iglesia indiferente a las necesidades de la baja iglesia, de la gente de la calle. (Ver por ejemplo Fuller, Steve, Social Epistemology, Indiana Univ. Press, Blumington, Indianapolis, 1988).

¿Están apareciendo anomalías?

El MEP mantiene ciertos aspectos problemáticos, en lo teórico y en lo práctico, que ya le son característicos, y que en distintas oportunidades han sido la causa de críticas o cuestionamientos a sus aspiraciones. Los aspectos problemáticos podrían resultar el equivalente de las anomalías que aquejan a todo paradigma científico, según lo veía Kuhn.

En efecto, durante los veinte años en que viene estando vigente la versión del movimiento que comentamos, se han producido situaciones en las cuales, la implementación de prácticas favorables al ambiente resulta problemática si se siguen ciertoscriterios implícitos en los principios.

Por ejemplo, los principios 4º, 5º y 6º, relacionados con el diagnóstico del excesivo impacto de la especie humana sobre las especies no humanas, se suelen manifestar en la práctica con una tendencia a la defensa de la preservación estricta, en la defensa de la idea de wilderness o de espacio natural primordial. Pero, de hecho, no todos los ambientes que se quieren aún conservar permiten sostener el ideal de una naturaleza prístina, virgen, no habitada.

Por ejemplo, en América Latina gran parte de las inmensas áreas “naturales” en el sentido de no modificadas por acciones humanas, desde selvas amazónicas hasta desiertos, tienen sin embargo algún tipo de población autóctona o indígena usufructuaria. Sus condiciones de productividad suelen ser muy bajas, por lo que dependen de grandes extensiones para subsistir y en muchos casos las áreas protegidas terminan siendo el último refugio de poblaciones nativas marginadas.

En este sentido, la expansión de políticas de preservación estricta amenaza la supervivencia cultural y física de pueblos campesinos o indígenas en América Latina y Caribe, África y Asia. [Véase Primack, Richard; Roízzi, Ricardo; Feinsinger, Peter; Dirzo, Rodolfo y Massardo, Francisca, Fundamentos de Conservación Biológica. Perspectivas Latinoamericanas, México, Fondo de Cultura Económica, 2001].

A su vez, se constata que no toda la diversidad que se desea conservar es producto sólo de la evolución biológica natural. La biodiversidad existente en los territorios de muchos pueblos indígenas resulta más bien producida o, por lo menos, estimulada por las técnicas de esas sociedades. Fueron las relaciones de estos grupos humanos con su ambiente las que mantuvieron particularidades de ciertos espacios vitales e incluso contribuyeron al desarrollo de las composiciones eco-biológicas allí existentes.

De todos modos, la adhesión a la biología de la conservación a partir de 1985, ha influido de modo significativo en las propuestas prácticas del movimiento, flexibilizando su perspectiva. Por lo que se ve, no son anomalías que socaven, al menos por ahora, la confianza en la propuesta del movimiento [Para una ampliación sobre estos conflictos véase Bugallo, Alicia Irene, “Ecología Profunda y conservación de la naturaleza; nuevos desafío”, ponencia leída en el Congreso Mundial de Filosofía, 2003, Estambul, Turquía, 2003].

Sobre la posibilidad misma de un cambio de paradigma existencial

Un ítem fundamental en filosofía ambiental es la preocupación por cómo lograr el cambio de paradigma, cómo hacer para que esa suerte de reconversión religiosa o cambio de gestalt llegue a ser algo deseado. Las simplificaciones voluntarias de los estilos de vida que promueven algunos ambientalistas radicales están probablemente dentro de nuestras capacidades, pero ¿están también dentro de nuestros deseos?, y los deseos cuentan. Nada va a forzarnos necesariamente a vivir en forma más humilde.

Uno de los aspectos distintivos de la propuesta analizada es ofrecer una vía gozosa y de plenitud auténtica como alternativa al mero consumismo y materialismo. No es un camino exclusivamente de privaciones, de pérdidas. Para muchos seguidores del movimiento la riqueza natural contribuye al bienestar personal en la medida que cada uno se identifique y se auto-despliegue en esa diversidad que enriquece el propio ser. Ante la maravilla, el prodigio, el valor estético y cultural de la diversidad, uno puede fortalecer a su vez el amor o sensibilidad por todo lo que existe.

El objetivo no es instalar una ética ambiental más. Su interés está relacionado con una aproximación psicológica más que moral. Se sugiere modificar intereses o deseos y sobre todo la percepción inadecuada que se tiene sobre la realidad, antes que subordinar las inclinaciones o intereses a una ética impuesta desde afuera. Si primero se fomentara una aproximación a la realidad en su ser profundo, interrelacional, no haría falta
imponer normas de conducta apropiadas desde afuera. La solidaridad, más que un deber es un hecho que se puede volver a reconocer.

Nadie está obligado a amar al prójimo como a sí mismo, pero puede experimentar naturalmente tal sentimiento ampliando su yo más allá de sí mismo. También estará más convencido de luchar por el ambiente como parte de su autodefensa. Las prácticas de identificación con seres vivientes más inmediatos o tangibles pueden llevar a una identificación con entidades cada vez más amplias como bosques, bioregiones, paisajes.

La consecuencia práctica deseable y esperable es que muevan al hombre a considerar la conservación de la naturaleza como un interés propio, en tanto vislumbre tal identificación como un camino para su propia autorrealización. No hay nada de misantropía en esto. El biocentrismo no implica decir que el ser humano no tiene importancia. Pero, como siempre ha pasado, el peso de los hábitos, el temor de lo desconocido, son obstáculos para la transformación de las mentalidades.

Por eso la transformación psicológica, por la cual el sujeto no se somete a un designio externo a su sensibilidad, sino que llega por sí mismo a la necesidad de tales cambios, parece apropiada. La clave es la reeducación, esa que está empezando a interpelar al antropocentrismo y al logocentrismo.

Las sendas que traza la ecología profunda están sobre la huella de la utopía, no ya como género literario, sino como actitud disidente. Su impacto real sólo se verá con el tiempo y, aunque no nos convenzan algunos de sus principios creemos que es un sendero explorable lejos del pseudo-cristianismo hipercapitalista de extrema derecha y de su homólogo, también de extrema derecha y por ende enemigo radical y en buena parte nutrido a sus pechos, el islamismo radical.

Evidentemente veneramos la figura de Jesús pero rechazamos frontalmente la los que, en su nombre y movidos por el poder y el dinero, la han convertido en cruel y mortífera caricatura. Del Islam salvamos aún menos, acaso ciertos pensamientos sufies y ciertas actitudes de respeto a niños y ancianos. Reivindicamos, una vez más, la figura de Francisco de Asís y Juan de la Cruz frente al resto de los modelos cristianos, desde el tomista dominicano a los movimientos evangélicos de Norteamérica. De Mahoma y sus seguidores, nada podemos reivindicar.
Javier Del Arco
Viernes, 2 de Junio 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

19votos

El Tesoro de la alfombra mágica

Como ya hemos explicado, la realidad está compuesta de totalidades/partes, es decir, de holones. Forman un contexto deslizante con significado y todos muestran una cierta capacidad para preservar su propia totalidad o autonomía. Ahora descubrimos que los holones se comportan como parte de otro holón mayor. Muestran dos tendencias opuestas, individualidad y comunión, que están presentes también en todos los dominios de la realidad, así como una capacidad de autoacomodación, autotrascendencia y autodisolución. La capacidad de autotrascendencia permite la emergencia de nuevos holones, que están fundamentalmente indeterminados en muchos aspectos, precisamente porque son autotrascendentes. Y cuando la autotrascendencia de un holón se acerca a cero, o lo que es lo mismo, su creatividad es mínima, las ciencias reconstructivas se transforman en ciencias predictivas. Hizo falta que llegara el Principio de Indeterminación de Heisemberg para recordarnos que ni siquiera los componentes de las rocas, partículas subatómicas, son tan predecibles y tan simples como pretendían los reduccionismos ingenuos.


Holones. Kuvat.
Holones. Kuvat.
Un holón funciona no sólo como una totalidad autopreservadora, sino también como parte de otro holón mayor, y precisamente esta última propiedad le conduce a adaptarse o acomodarse a otros holones -no autopoiésis sino alopoiésis; es decir, más que ausencia de asimilación, acomodación. El aspecto “parcialidad del holón”, se manifiesta en su capacidad de acomodarse, de registrar la presencia de otros holones, de encajar en el entorno existente.

Un ejemplo clásico: La capacidad de los electrones para acomodarse en un orbital en el que ya hay una determinada cantidad de esas mismas partículas. Lo que han hecho es registrar su entorno y reaccionar con él. Esto no implica intencionalidad por parte del electrón, tan solo la capacidad de reaccionar a las acciones de lo que le rodea. Como totalidad sigue siendo él mismo; como parte debe acoplarse con otros.

Podemos llamar a estas dos tendencias opuestas, individualidad y comunión del holón. Su individualidad -tendencias autoasertivas, autopreservadoras, asimiladoras- expresan su totalidad, su autonomía relativa. Su comunión por el contrario, concretada en sus tendencias participativas, conectivas y unificadoras, expresan su parcialidad, su relación con algo más grande.

Estas dos tendencias son absolutamente cruciales e igualmente importantes: el exceso de una de ellas destruirá al holón por desaparición de su patrón identificativo. Incluso un pequeño desequilibrio, le llevará a una deformación estructural, ya estemos hablando del crecimiento de una planta o de la evolución del patriarcado. Y anteriormente ya hemos sugerido que un desequilibrio de estas tendencias, se expresa como individualidad patológica, es decir alienación y represión, o comunión patológica, lo que supone fusión e indisociación.

Esta polaridad primordial está presente en todos los dominios de la existencia manifestada y fue expresada arquetípicamente como los principios taoístas del Yin (comunión) y Yang (individualidad). También serán aplicables estas tendencias a las teorías políticas de derechos individualidad, y responsabilidades, comunión.

Autotrascendencia o autotransformación

Cuando dos átomos de hidrógeno y uno de oxígeno se unen en unas determinadas condiciones, emerge un nuevo holón, en cierta manera sin precedentes: la molécula de agua. No se trata simplemente de asociación, autoadaptación o comunión de tres átomos; es una transformación cuyo resultado es un nuevo emergente: distintas totalidades se unen para producir una totalidad diferente. Creo sinceramente que es la única definición ejemplificada clara que ahora se me ocurre sobre una cuestión tan importante en filosofía de la ciencia.

Esto supone un giro creativo sobre lo que había ocurrido hasta ahora. Whitehead, en “Category of the Ultimate”, denomina Creatividad la “categoría última”, o la categoría necesaria para entender cualquier otra. En este libro, el filósofo norteamericano incluye tres conceptos fundamentales: creatividad, muchos y uno. En cierto sentido, hubiera podido reducirlo a creatividad y holón, ya que holón es uno/muchos, porque como bien sabemos, “muchos” y “uno” no pueden existir por separado.

La unificación aprehensiva de Whitehead es el holón presente, subjetivo, que pasa a ser objeto del holón subjetivo siguiente, de forma que cada holón aprehende su Universo real completo y sigue presente en la unificación aprehensiva de todos sus descendientes (causalidad). Por supuesto, toda la serie presenta distintos grados (jerarquía) dependiendo del grado de creatividad que se insufle en el flujo, en un momento dado.

El principio de la realidad

Conozco lo arriesgado de citar a Whitehead en estos tiempos. Y hacerlo además cuando sólo nos interesan ciertos aspectos de su filosofar. Pero estos artículos pretendo tengan algún contenido didáctico y este pensador, un tanto hermético y extraño cuando filosofa, presenta algunas facetas bastante poco conocidas pero a mi juicio interesantes

Hablar de Whitehead fuera del ámbito de la lógica matemática, es hacerlo de la llamada “filosofía del proceso”. Sir Alfred North Whitehead fue uno de los grandes intelectuales ingleses de la primera mitad del siglo XX. Murió en 1947 en Boston, ya que se había acogido a la jubilación en la universidad de Harvard, donde había trabajado desde 1924. Aunque era un eminente físico y matemático (con Russell publicó los Principia Mathematica de 1910 a 1913), desarrolló una complejísima ontología físico-metafísica, llena de términos nuevos, originales, que producen en el lector un fuerte efecto hermético.

Las ideas que iremos mencionando a continuación se derivan de la lectura de las obras de Whitehead, Process and Reality en la que este autor trata de entender la ontología de la realidad y de Science and theModern World también de este autor anglo-americano. El punto de partida de Whitehead no es la constatación de objetos o entidades estables, sino una referencia al “evento” (su terminología varía: acontecimiento, ocasión actual...).

El evento surge y se produce en el campo de la realidad: es el comienzo mismo de la constitución de la realidad. Pero el evento es un fluir, un acontecer temporal (no es un átomo o partícula como una entidad cerrada y estable). Los eventos deben ser entendidos más como campos que como puntos en un espacio discontinuo y métrico. El evento dinámico constituye lo que llama “prehensión” que origina la constitución de las entidades actuales (las prehensiones producen la relación de unos eventos a otros y de unas entidades a otras).

La organización de los eventos por prehensiones produce el mundo real, el mundo de los objetos que conocemos en toda su variedad. La forma y naturaleza de las prehensiones deriva a la variedad de entidades actuales en el universo: cada entidad tiene dos momentos, la interioridad y la exterioridad. Todas las entidades, incluso las más simples (partículas o átomos) tienen un factor de interioridad que se desarrolla a través de la jerarquía de los seres, células, organismos, hasta llevar a la conciencia humana superior.

El origen de las sensaciones

Las sensaciones se originan en las prehensiones. Pero plantas desintegradas o rocas, por ejemplo, no tienen, sin embargo, interioridad. El universo es así un sistema, una coordinación de estructuras integradas jerárquicamente, que se ha producido como un “estado momentáneo” del proceso universal de cambio y transformación fundado básicamente en el fluir de eventos primordiales. El universo, y sus objetos, no son substancia, sino proceso.

Por ello, permanecen momentáneamente las entidades actuales (diríamos las estructuras en proceso pero temporalmente estables), pero no los eventos primordiales que son puro proceso, puro fluir (aunque llenando en su lugar preciso las estructuras), en una línea de pensamiento heracliteana pero coordinada con la imagen científica del mundo microfísico.

Pero este mundo evolutivo en proceso siempre abierto necesita la referencia a una dimensión fundamental desde la que pueda producirse: esta exigencia de fundamento es lo que llama el “principio ontológico”. La realidad fundante, que nosotros denominamos Uno en honor de Plotino, pero que cada filósofo puede denominar como desee, incluso azar, aparece así como fundamento ontológico del proceso cósmico. Somos conscientes que al utilizar la senda neoplatónica del Uno nos apartamos de Whitehead el habla directamente de Dios.

En principio, desde la ontología del Uno podrían producirse muchas dinámicas procesuales; la teoría de los objetos eternos nos habla de las posibilidades creativas. Pero el Uno marca un camino productivo concreto: El Uno, en tanto que primer acontecimiento de todo, es eterno, distinto al mundo, pero es causa del acontecimiento eidético-matemático que concretado físicamente origina el universo.

Libertad de acción

La Naturaleza del Uno no participa –como pretende Whitehead- de la creación realizada y el Uno no prehende las entidades actuales producidas en el proceso continuo del mundo y, las novedades emergentes, son partes del proceso en el que él no participa pero que si desencadena.. El Uno, o lo que éste sea, ha puesto en movimiento el proceso para que dicho proceso se construya a sí mismo, el proceso es autoconfigurante, autocreador. Y en este sentido el Uno está abierto a lo que el proceso haga consigo mismo.

Hasta este punto nuestro acuerdo con Whitehead es claro. A partir de aquí él dice que este Dios –ya no decimos Uno, como puede verse, porque no tiene los atributos del Uno que es inmutable y por lo tanto inafectable- está afectado por el proceso del mundo, es un Dios dinámico abierto a la novedad que el mismo funda y que en alguna manera le limita. Así, según Whitehead, Dios tendría como dos naturalezas, una intemporal y la otra involucrada radicalmente en el tiempo. Parece también que Whitehead entendió que el mundo siempre había co-existido con Dios, aunque no en un sentido panteísta. Mi posición es otra, la plotniana, presentada en las Énneadas, que más adelante explicaremos.

Whitehead consideraba que el diálogo y conciliación ciencia/religión era esencial en el progreso de la humanidad. Pero esto no podía hacerse sin que la religión progresara en el mismo modo teológico de entender la religión; es decir, la experiencia religiosa presente diversificadamente en las tradiciones religiosas. Su filosofía de procesos era precisamente un esquema conceptual del mundo ofrecido por la ciencia que permitiría a la religión reformularse en términos propios de la cultura moderna. Barbour ha pretendido modelos científicos/religiosos.

Azar, necesidad, caos, estadística...

La referencia a la Causa Primera en el marco de Whitehead, pone en relación la estructura de eventos fluentes que supuestamente nacen del trasfondo de la divinidad, con una dinámica que confluye en prehensiones que producen un complejo nexo de entidades interrelacionadas en proceso continuo de transformación. Es el proceso de creación en que emerge el mundo microfísico como diseño especifico en que Dios se ha autolimitado haciendo una opción en el mundo de los objetos eternos.

Dios ha diseñado el proceso de interacciones para que éste se haga a sí mismo: la autocreación de cada entidad, en proceso evolutivo siempre abierto en que el azar, la necesidad, los grandes números, el caos, la estadística y la probabilidad juegan un papel específico (Hefner, Peacoke). Como plotino-wilberiano, no nos encontramos lejos de esta posición pero nos preocupa la expresión “estructura de eventos nace del trasfondo de la divinidad”.

Nosotros atribuimos al Uno -entidad filosófica que podemos asumir a una entidad matemática de orden superior no conocido- las atribuciones de ser simultáneamente generadora e inmutable, eidética, exacta, incorruptible impasible e inmutable y fuente del resto de las identidades de la proceden el nous o espíritu primero, y el alma en sentido global, después.

Mientras que el concepto de Uno es nuclear y filosófico, su primera e hipotética etapa consecuencial no ha podido ser verificada, pero si que puede su segunda etapa, partir de la gran explosión, re-interpretarse en una más panteísta Spinoziano ya que si el ente matemático Uno tiene atributos divinos, lo que de él proceda también habrá de tenerlos. Desde luego, nosotros con Hawking afirmamos un único acto físico generativo probado con consistencia matemática fue la gran explosión o Big-Bang.

Whitehead dice que Dios influye en el mundo, pero sin determinarlo. Nosotros limitaríamos esa influencia al ente primordial de los entes matemáticos que posibilitaron el que parece fuera el primer evento físico: el big-bang. No obstante, Whitehead dice que este un mundo con libertad autocreativa por su misma dinámica procesual; estamos de acuerdo, claro está. Pero también nos, al mismo tiempo, dice que Dios subyace al mismo proceso y puede controlar los eventos cuánticos, y sus indeterminaciones. Nosotros esta afirmación no la compartimos

Límites de la emergencia

Esta es la razón por lo que la “emergencia” en el sentido que la utiliza la ciencia convencional de originaria de los siglos XVII, XVIII y XIX, no explica realmente nada, sólo describe lo que ocurre de hecho. La explicación debe residir en algo similar a la “categoría última” de Whitehead, un rasgo de la realidad misma que explica la emergencia y que, en sí mismo, no puede ser explicado.

Este tema será recurrente en los artículos que seguirán a éste y se irá siendo matizado cada vez. Pero está claro que algún tipo de Eros atractivo, subyugador, está implicado en el proceso, porque si no, éste no habría podido comenzar.

Jantsch y Waddington denominaron a este giro creativo, autotrascendencia, por la que algo se convierte en una nueva totalidad que tiene sus propias formas nuevas de individualidad y comunión.

En su obra Self-organizing universe, Jantsch escribe: “No es suficiente caracterizar a estos sistemas simplemente como abiertos, adaptativos, sistemas del no-equilibrio, o sistemas con capacidad de aprendizaje –comunión-; son eso y más: son auto trascendentes, lo que nada menos significa que son capaces de transformarse a sí mismos. Los sistemas autotrascendentes son el vehiculo de la evolución para producir un cambio cualitativo y de esta forma asegurar su continuidad; a su vez, mantiene a los sistemas autotrascendentes que sólo pueden existir en un mundo de independencia. Para los sistemas autotrascendentes el ser se une al devenir.....”

Como dice Ilya Prigogine, premio Nóbel y renovador de las ciencias físicas, los distintos niveles y estadíos de la evolución son irreducibles unos a otros porque las transiciones entre ellos están caracterizadas por rupturas de simetría lo que significa simplemente que no son equivalentes a nuevas disposiciones del mismo material -sea lo que sea ese material-, sino que en parte son una trascendencia significante, un nuevo giro creativo.

Jantsch lo resume así: En el paradigma de la autoorganización, la evolución es el resultado de la autotrascendencia a todos los niveles.

Saltos evolutivos

En otras palabras, esto introduce una dimensión vertical que corta en ángulo recto, por así decirlo, con la horizontal de individualidad y comunión. En la autotrascendencia, la individualidad y la comunión no solo interactúan; más bien surgen nuevas formas de individualidad y comunión a través de rupturas de simetría, a través de la introducción de giros nuevos y creativos dentro de la corriente interactiva. En la evolución no sólo habría continuidad, sino importante discontinuidades, saltos, puntuaciones.

La naturaleza podría evolucionar tal vez a través de saltos repentinos y transformaciones profundas más que por la vía de pequeños reajustes -tesis que como ya hemos visto, también sostiene Gould-. El diagrama abierto del árbol de la vida ya no se parecería a las uniones en forma de “Y” de la teoría sintética sino que se representaría en forma de abruptos cambios... Habría pruebas, acumuladas en muchos campos de la ciencia empírica, por las que los sistemas dinámicos no evolucionan suavemente y con continuidad en el tiempo sino que lo hacen a través de saltos y estallidos comparativamente repentinos.

El paleontólogo George Simpson llamó a esto “evolución cuántica” porque estos estallidos, como se señala en el resumen de Murphy sobre los puntos de vista de Simpson, descritos en The future of the body, “implicaron alteraciones relativamente abruptas de la capacidad adaptativa o de la estructura corporal y dejaron muy pocas o ninguna prueba en el registro fósil de las transiciones entre ellas”.

Esta evolución cuántica condujo al “modelo puntuacional” de Niles Elgredge y de Stephen Jay Gould que discutimos anteriormente -todo lo que previamente se ha dicho guarda una conexión con lo que vendrá después; aunque parezca lo contrario, no nos perdemos en alardes eruditos innecesarios-. Michael Murphy lo resumió como “trascendencia evolutiva”.

Asimismo, Murphy señala que: “los teóricos evolutivos, T. Dobzhansky y Francisco Ayala les han llamado [...] sujetos que ejemplifican la trascendencia evolutiva porque de cada uno de ellos surgió un nuevo orden de existencia”.

Autotrascendencia

Ledyard Stebbins, uno de los principales arquitectos de la moderna teoría evolutiva, describió ciertas diferencias entre los pasos grandes y los pequeños dentro de la evolución orgánica, estudiando los avances de mayor o menor grado en plantas y animales. El término grado es usado por los biólogos para señalar una serie de características o habilidades que de manera clara dan a los descendientes de una especie ciertas ventajas sobre sus antecesores.

Según Stebbins, el desarrollo de las capacidades de polinización del algodoncillo y de las orquídeas, es un ejemplo de pequeños avances de grado, mientras que la aparición del tubo digestivo del sistema nervioso central, de los órganos de los sentidos, de los miembros en los vertebrados y del comportamiento social elaborado, representan grandes avances de grado. Él estimó que ha habido 640.000 de los pequeños y entre 20 y 100 de los grandes, durante los cientos de millones de años de la evolución de los organismos eucarióticos.

La cuestión es que no hay nada que sea especialmente metafísico y oculto en todo esto. La autotrascendencia es simplemente la capacidad que tiene un sistema para llegar más allá de lo dado e introducir en cierta medida algo innovador; una capacidad sin la cual, parece probable que la evolución no hubiese siquiera podido comenzar. La autotrascendencia, que llega a todos los rincones del Universo, significa nada más y nada menos que el Universo tiene la capacidad intrínseca de ir más allá de lo que fue anteriormente.

Autodisolución

Los holones que se van construyendo a través de la autotransformación vertical, también se pueden destruir. Obviamente, cuando los holones se “disuelven” o se “despegan”, tienden a hacerlo a lo largo de la misma secuencia vertical según la cual fueron construidos, aunque, como es natural en sentido opuesto. Como señala Jantsch en la obra citada anteriormente,

“si una estructura se ve forzada a retroceder en su evolución, mientras no haya fuertes perturbaciones, lo hace siguiendo el mismo camino por donde ha progresado [...]. Esto implica la existencia de un primitivo “sistema de memoria holística” que ya aparece en los niveles pertenecientes a las reacciones químicas”.

Esto es cierto en todo el recorrido, incluidos los holones psicológicos y lingüísticos que hemos convenido en llamar noosféricos. En el libro de Gardner, “Quest for mind”, se recoge una cita de Roman Jakobson en la que indica que:

“.....esos fenómenos estratificados que la psicología moderna descubre en distintas áreas del reino de la mente. Nuevas adiciones se superponen sobre las anteriores y la disolución comienza en los estratos superiores: El acuerdo sorprendentemente exacto entre la sucesión cronológica de estas adquisiciones y las leyes generales de solidaridad irreversible que gobiernan la sincronía de todas las lenguas del mundo”.

Para que se entienda: Lo que se construye verticalmente hacia arriba, puede desmoronarse verticalmente hacia abajo, y las rutas en ambos casos son básicamente las mismas.

Consideradas de forma conjunta, estas cuatro características: autopreservación o individualidad, comunión o autoacomodación, autotrascendencia y autodisolución, pueden ser representadas en un sistema de ejes cartesianos X e Y. El eje de abscisas –horizontal- tiene dos opuestos, individualidad y comunión; el eje de ordenadas –vertical- contiene otros dos opuestos, autotrascendencia y autodisolución. Si a partir del punto de origen O, suponemos que cada semieje es un vector fuerza, tendremos cuatro fuerzas, que en circunstancias normales, se hallaran en tensión constante y su resultante será nula.

Si aumenta el “vector individualidad”, disminuirá en módulo del “vector comunión” y viceversa. Cuanto más intensamente un holón preserva su propia individualidad, su propia totalidad, tanto menos contribuye a sus comuniones o a su parcialidad dentro de totalidades más amplias. Y viceversa naturalmente. Tomemos como ejemplo un elemento químico inerte como el Helio. Sabemos que se resiste tozudamente a unirse con otros elementos para formar compuestos debido a que su composición electrónica es muy estable. Este elemento, considerado como un holón, retiene su individualidad y resiste a la comunión. Sin embargo, el Cloro y el Sodio tenderán a la comunión para formar un holón superior que es la sal común.

Tensión constante

Esta es una tensión constante a lo largo de todos los dominios de la evolución y aparece en todas partes, desde la batalla entre la autopreservación y preservación de la especie hasta el conflicto entre derechos –individualidad- y responsabilidades –comunión-; identidad individual y afiliación; persona y comunidad; coherencia y correspondencia; autonomía y heteronomía... En resumen, ¿Cómo puedo ser simultáneamente mi propia totalidad y una parte de algo mayor sin sacrificar lo uno ni lo otro?

Como veremos, parte de la respuesta se halla en todos los estadios de la evolución, incluido el humano, e implica la autotrascendencia hacia nuevas formas de individualidad y comunión que integren e incorporen ambas partes, superponiéndolas: No solo se trata de una totalidad más amplia - expansión horizontal - sino de una totalidad más elevada o profunda, la emergencia vertical. Por esta razón la evolución es el resultado de una autotrascendencia a todos los niveles y es autorrealización a través de esa trascendencia.

Esta constante batalla entre individualidad y comunión, se extiende incluso a las formas de patología de cualquier nivel dado. Cuando hay un exceso de individualidad este lleva a cortar -léase reprimir y alienar- las ricas redes de comunión que mantienen esa misma individualidad; Por otra parte demasiada comunión, lleva a la pérdida de integridad individual, a la fusión con otros, a la indisociación, a borrar los límites y a fundirse perdiéndose la autonomía.

Si hemos hablado de batallas horizontales, la batalla vertical se encuentra entre la autotrascendencia y la autodisolución, las tendencias que construyen o destruyen. Y estas fuerzas interactúan con la individualidad y la comunión en cualquier nivel dado (recordemos que trabajamos sobre cuadrantes creados por ejes de coordenadas).

Riesgo de autodestrucción

Por ejemplo, demasiada individualidad y demasiada comunión, conducen a la autodestrucción y esto representa un problema constante en los asuntos humanos, donde el deseo de encontrar un “significado más amplio” a menudo lleva a un exceso de comunión o fusión con una “causa mayor”, y esa fusión es confundida con la trascendencia cuando se trata solo de una pérdida de autonomía, un abandono de responsabilidades.

Hemos dado ejemplos quizá complicados, especialmente en el ámbito humano, pero estas cuatro fuerzas operan también en los holones más simples. Cada holón es un holón dentro de otros, transfinitamente: Cada holón es simultáneamente un subholón -parte de otro holón- y un supraholón -que contiene otros holones-. Como holón, debe preservar su propio patrón o individualidad en el tiempo, y debe registrar y reaccionar a su entorno -sus comuniones en el espacio-. Si no responde adecuadamente es borrado: demasiada individualidad o demasiada comunión destruyen el patrón que le identifica.

Dado que cada holón es también un supraholón, cuando es borrado -cuando se autodisuelve en sus subholones- tiende a seguir el mismo camino descendente que estos han seguido en el camino ascendente: Las células se descompones en moléculas, que a su vez se descomponen en átomos y estos en partículas que desaparecen en las probabilísticas nubes transfinitas de la virtualidad. Burbujas dentro de burbujas...

Preservarse o acomodarse, trascenderse o disolverse. He aquí las cuatro tendencias a las que está sometido cada holón en el Kósmos.

Lo holones emergen

Emergen nuevos holones debido a la capacidad de autotrascendencia. Partículas subatómicas, átomos, moléculas, polímeros, células, y así sucesivamente. Los holones emergentes presentan cualidades que no pueden ser estricta y totalmente deducidas de sus componentes; por lo tanto, y esto es muy importante en el sistema que proponemos, ellos y sus descripciones no pueden ser reducidos simplemente a las partes que los componen.

Hofstadter lo expresa así: “Los niveles organizativos implican, ontológicamente, nuevas entidades más allá de los elementos de los que procede su proceso de autoorganización”. Y continúa: “Es importante darse cuenta que la ley de nivel superior no puede ser descrita en los términos que describe el nivel inferior”.

Y señala que esto es cierto tanto para las partículas de una gas como para las especies biológicas, los programas de ordenador o las réplicas de ADN, tanto para las escalas musicales como para las reglas lingüísticas.

Emergencia significa también que la indeterminación -y una de sus consecuencias, el grado de libertad- está enhebrada en el tejido mismo del Universo, porque emergencia sin precedentes significa no determinado por el pasado -aunque reconocemos que algunas partes del Universo pueden colapsar de forma determinista, como en la mecánica clásica-.

Los holones están fundamentalmente indeterminados en muchos aspectos, precisamente porque son autotrascendentes. Técnicamente esto puede expresarse así: La selección de entre el conjunto de estados estables alternativos y dinámicamente funcionales no está predeterminada. El nuevo estado no es decidido ni por las condiciones iniciales del sistema ni por cambios en los valores críticos de los parámetros ambientales; cuando un sistema dinámico es desestabilizado fundamentalmente, actúa de forma indeterminada.

Actualmente, parece prácticamente seguro que el determinismo surge solo como un caso límite cuando la autotrascendencia del holón se aproxima a cero o cuando esta misma hace pasar la situación de indeterminación a un holón superior.

Emergencia frecuente

La emergencia no es un fenómeno raro o aislado. Varela, Thompson y Rosch, resumen las pruebas disponibles de esta forma: “Esta claro que las propiedades emergentes han sido halladas en todos los dominios: Vórtices y láseres, oscilaciones químicas, redes genéticas, patrones de desarrollo, genética de poblaciones, sistemas inmunológicos, ecología y geofísica. Lo que todos estos fenómenos tienen en común es que en cada caso una red produce nuevas propiedades... La emergencia de patrones o configuraciones globales en sistemas de elementos interactuantes no es una rareza que solo se da en casos aislados. De hecho parece difícil que cualquier agregado densamente conectado escape a las propiedades emergentes” (Véase Francisco Varela y colaboradores, The embodied mind).

Ernst Mayr lo expresa así en su exhaustivo trabajo El desarrollo del pensamiento biológico (The growth of biological thought): “Los sistemas casi siempre tienen la particularidad de que las características de la totalidad no pueden ser deducidas, ni siquiera en teoría, del conocimiento profundo de los componentes tomados por separado o en combinaciones parciales. La aparición de nuevas características en las totalidades recibe el nombre genérico de emergencia. Esta ha sido invocada a menudo para explicar fenómenos tan difíciles como la vida, la mente, o la conciencia. Realmente, la emergencia es igualmente característica de los sistemas inorgánicos...es Universal, y como dijo Popper: vivimos en un Universo de novedad emergente”.

Todas las ciencias son reconstructivas. No podemos predecir el comportamiento de cualquier holón en el instante siguiente al de su consideración, ya que la emergencia autotrascendente conlleva siempre un cierto grado de incertidumbre. He aquí otra palabra mágica e importante: Incertidumbre.

Ciencias reconstructivas

Sin embargo, cuando la autotrascendencia de un holón se acerca a cero, o lo que es lo mismo, su creatividad es mínima, las ciencias reconstructivas se transforman en ciencias predictivas. Afirmación terrible, porque las ciencias empíricas comenzaron estudiando precisamente aquellos holones que mostraban una creatividad mínima -un montón de rocas en movimiento- y de esa forma, trastocaron la auténtica naturaleza de la ciencia haciéndola esencialmente predictiva y por lo tanto inexacta.

Las ciencias físicas Newtonianas fueron involuntariamente responsables de que el Kósmos se convirtiera y colapsara en Cosmos, de que la Gran Holarquía del Ser se redujera a las criaturas más simples y al estudio individualizado de estas, y del también tuvieron que ver con el aplastamiento de una realidad multidimensional hasta reducirla a un paisaje chato, plano y descolorido, máximamente predecible y mínimamente creativo.

Hizo falta que llegara el Principio de Indeterminación de Heisemberg para recordarnos que ni siquiera los componentes de las rocas, partículas subatómicas, son tan predecibles y tan simples como pretendían los reduccionismos ingenuos. He ahí el verdadero comienzo de la nueva y verdadera física y, como señala Ilya Prigogine, fue la mecánica cuántica la primera ciencia que se vio obligada a dejar de lado la descripción determinista.
Javier Del Arco
Sábado, 27 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

1 ... « 12 13 14 15 16 17


Editado por
Javier Del Arco
Ardiel Martinez
Javier del Arco Carabias es Dr. en Filosofía y Licenciado en Ciencias Biológicas. Ha sido profesor extraordinario en la ETSIT de la UPM en los Masteres de Inteligencia Ambiental y también en el de Accesibilidad y diseño para todos. Ha publicado más de doscientos artículos en revistas especializadas sobre Filosofía de la Ciencia y la Tecnología con especial énfasis en la rama de la tecno-ética que estudia la relación entre las TIC y los Colectivos vulnerables.




Archivo


RSS ATOM RSS comment PODCAST Mobile

Noticias de Filosofía