FILOSOFIA: Javier del Arco

Todos los holones muestran una cierta capacidad para preservar su propia totalidad o autonomía. Un átomo de hidrógeno, dentro del contexto adecuado, sigue siendo un átomo de hidrogeno. Preserva su individualidad a lo largo del tiempo, lo que en sí mismo ya es un logro notable. Un holón, en un entorno vivo como una célula, muestra una capacidad aún más sofisticada de autopreservación: La capacidad de renovación o autopoiésis por la que mantiene sus propias estructuras o patrones reconocibles, aunque sus componentes materiales sean intercambiados; se entiende que asimila el entorno a si mismo. Es lo que llamamos una estructura disipativa metaestable que trataremos a continuación pues contribuye a aclarar el concepto nuclear de autopoiésis.


Autopoiesis. Ken Rinaldo.
Autopoiesis. Ken Rinaldo.
Autopreservación y autopoiésis

Se dice que un sistema es disipativo si su energía se degrada en forma de calor, que en parte no es transformable en otras formas de energía menos degradada. Una estructura es disipativa en la medida que ayuda a los mecanismos disipativos. Según la clásica segunda ley de la termodinámica, un sistema aislado ha de ir perdiendo (disipando) toda la energía libre que posee con lo cual su entropía se maximiza.

Un sistema en equilibrio térmico ya no disipa más y se halla en un estado de máxima entropía. Si un sistema se halla en las cercanías del equilibrio, sus tendencias espontáneas e irreversibles lo son hacia el equilibrio. La fuerza impulsora es la de producir entropía. Por definición, en el equilibrio ya no puede producir más entropía (principio de la mínima producción de entropía).

Pero no abundan los sistemas aislados, por lo cual puede haber sistemas alejados del equilibrio (como el planeta iluminado o el cerebro con nutrimentos) que no pueden llegar a él - aunque lo buscan espontáneamente - porque mientras tanto siguen recibiendo aportes de energía externa (el sol, la glucosa en sangre). Con esos aportes las ecuaciones diferenciales descriptivas de la dinámica, ya no son más lineales. No están en el equilibrio sino en el desequilibrio. Como hay sistemas disipativos con estructuras, es lícito llamarlas, con Prygogine, "estructuras disipativas", aunque a primera vista su estudio parezca poco interesante. Pero hay algo muy real: las condiciones "lejos del equilibrio" o "en el desequilibrio" implican leyes no-lineales.

La única regla general para las ecuaciones diferenciales no-lineales es que no hay reglas generales. El caos es una posibilidad, como también la presencia de atractores, repulsores, bifurcaciones, autoorganizaciones o sistemas autopoiéticos. Lo que afirma Prygogine es que aunque no halló para esta rama de la física incorporada a la mecánica estadística, una nueva constante universal, por lo menos ha encontrado una desigualdad matemática, un "criterio de evolución universal".

Transiciones

Así como hay transiciones de fase en la física lineal, con roturas de simetría, muy cercanas al equilibrio (como el hielo que se funde), también las hay en la física no-lineal donde las estructuras disipativas se vuelven inestables y tienden a veces hacia patrones de organización coherente que minimizan la energía libre y disminuyen los grados de libertad. Prygogine propone que dentro de un sistema complejo no-lineal lejos del equilibrio existen subsistemas fluctuantes. De vez en cuando se combinan y amplifican las fluctuaciones y se disrrumpe la estructura previa, ocasión en la cual aparece una bifurcación, un punto de bifurcación.

La teoría no puede predecir, por adelantado, si el resultado será una estructura de dinámica caótica o una estructura autoorganizada con un orden "superior", un "orden por fluctuaciones". En este último caso, como la estructura necesita de energía externa para seguir organizada, es aceptable llamarla "estructura disipativa", puesto que necesita más energía externa que la estructura no-disipativa (más simple) previa reemplazada.

Tiene un límite para su evolución y es la falta de capacidad para eliminar más y más calor. Los seres vivientes funcionan como sistemas disipativos, autoorganizados por fluctuaciones ambientales. Cabe destacar que no todos los autores aceptan incondicionalmente estas afirmaciones. Por ejemplo, un crítico de las ideas de irreversibilidad de Prygogine es Jean Bricmon.

Concepto clave en la Biología

El concepto de autopoiésis es clave en la Biología moderna y creemos que es nuestra obligación aclararlo porque además, guarda determinadas relaciones con la Teoría Sociológica nada desdeñables, se esté o no de acuerdo con ellas. Además, se trata de un concepto muy manejado a lo largo de este ensayo.

El creador del principio de autopoiésis fue el biólogo chileno Humberto Maturana, que estudió medicina en la Universidad de Chile y biología en Inglaterra y Estados Unidos. Obtuvo el doctorado en Oxford y en la actualidad es docente en la Facultad de Ciencias de la Universidad de Chile. En el MIT, realizó experimentos que alcanzaron resonancia internacional sobre fisiología de la percepción. En el Biological Computer Laboratory, en Illinois, publicó su informe sobre biología de la cognición. Ha desarrollado una hipótesis que intenta situar la circularidad del hecho reproductivo de la vida, en el centro de una teoría epistemológica del conocimiento. Su concepto esencial, autopoiésis, expresa la auto producción de la vida, a través de elementos que son a su vez, reproducidos por la vida.

En la introducción a la obra de Humberto Maturana, “La Realidad: ¿Objetiva o Construida?, Javier Tomás Nafarrate dice: ”En las introducciones de los libros de Maturana existe una práctica (no pretendida) de dejar que la emoción se deslice sobre el texto, como en la antigua retórica, para hacer sentir la importancia de la obra”.

Y no es para menos. Maturana es el pensador actual que ha formulado quizá el principio teórico más radical capaz de explicar un gran número de problemas de la sociedad contemporánea. Estamos, ante todo, ante un biólogo, un gran biólogo, diríamos mejor. Sin embargo el principio teórico que aborda, la explicación de la vida, se aplica a muchos campos de lo que la tradición ha venido llamando ciencias del hombre. Maturana dice que el principio constitutivo de la célula, en calidad de ultraelemento de los organismos, se mantiene en todos los niveles de complejidad que tienen que ver con lo vivo: células, organismos, sistema nervioso, comunicación, lenguaje, conciencia, sociedad. En otras palabras, no hay discontinuidad entre lo social, lo humano y sus raíces biológicas. Porque todos son holones, dentro de holones, dentro de... (Esto lo decimos nosotros).

Moléculas diferentes

Pero, ¿cómo entendemos la autopoiesis como teoría fundamental de la vida? Partiendo de un estado primitivo abiótico del planeta Tierra, existían diferentes tipos de moléculas. Algunas de ellas tenían la propiedad de “clausurarse” frente al medio ambiente. Este hecho fue posible mediante la generación de unas estructuras moleculares, a la vez englobantes y aislantes, a partir de ahora llamadas membranas, suficientemente estables y dotadas de plasticidad.

Este tipo de moléculas -y sólo este- fue capaz de formar barreras efectivas y, al mismo tiempo, disponer de la capacidad de realizar intercambios con el entorno para difundir átomos y/o moléculas cargadas eléctricamente, los iones, durante tiempos relativamente largos con respecto a las velocidades moleculares. A este tipo molecular -o macromolecular- pertenecen las proteínas cuya flexibilidad y capacidad de asociación es prácticamente ilimitada. Cuando en la historia del planeta Tierra se dieron las condiciones para la formación de este tipo de moléculas, surgió la vida.

El punto decisivo que ha permitido trazar un límite entre la continua producción molecular abiógena -todavía sin las características que definen “lo vivo”- que se llevaba a cabo en la superficie de los mares y en la atmósfera, y la irrupción de lo viviente, estriba en que hubo momentos en los que fue posible la formación de cadenas de reacciones moleculares de un tipo peculiar. Esta peculiaridad, en la que reside la clave del asunto, es denominada por Maturana, Autopoiesis. Esta denominación sirve para describir un fenómeno radicalmente circular por el que las moléculas orgánicas forman redes de reacciones que producen a las mismas moléculas que las integran. Tales redes e interacciones que se producen a sí mismas y especifican sus propios límites, no son sino seres vivos.

Definiríamos, siempre según Maturana, los seres vivos como aquellos entes que se producen a sí mismos y la organización que los define la llamamos autopoiética. Todo sistema autopoiético goza de cinco propiedades importantes, denominadas: Autonomía, Emergencia, Clausura de Operación, Autoconstrucción de Estructuras y Reproducción autopoiética.

Descripciones

Aún a costa de alargarnos en exceso, no resistimos la tentación de describirlas:

-Autonomía: La célula pone de manifiesto la superación de la correspondencia, punto por punto, con respecto al medio ambiente. Ya no es la célula un componente constituido solo por átomos y moléculas, sino la forma específica de la combinación de dichos componentes (el holón superior abarca e incluye a los holones inferiores y el resultado es más extenso/profundo que la suma de sus partes). Esta-forma-especifica-de-combinación, exige una perspectiva de autonomía, en el sentido que la célula requiere de la creación a distancia con respecto al mundo circundante. La autonomía de lo orgánico, en último término, significa que solo desde la perspectiva celular se puede determinar lo que es relevante y sobre todo lo que le es indiferente. Ejemplo de ello es el transporte activo y selectivo a través de las membranas.

-Emergencia: La aparición de un orden cualitativo en la célula, distinto al de las moléculas que integran un mineral, no puede deducirse a partir de sus características materiales o energéticas. La emergencia señala la aparición de un orden nuevo, cuyas características solo pueden ser advertidas después de su constitución. Lo que es emergente en la célula es su “operación”, la forma en como están organizadas y como esa organización se lleva a efecto

Siempre que se habla de un orden emergente, queda presupuesto -pero no incluido- el continuo de energía o de materiales sobre el que una unidad se sostiene. La emergencia del orden modifica la composición interna de la materia: por ejemplo, la electrónica interna del átomo se transforma en cuanto surge el orden emergente de las macromoléculas. De aquí que la energía atómica no forme parte del proceso químico que constituye la célula. Si se emplea un diseño de teoría como la de Sistemas, que se orienta por la distinción sistema/entorno, entonces se tendrían que considerar a los átomos como entorno del sistema de organización autopoiética de la célula.

-Clausura de operación: Los sistemas autopoiéticos son sistemas cuya operatividad es cerrada y cuyos componentes son productos en el interior de un proceso recursivo, llevado a cabo en el interior de un retículo clausurado. Clausura no debe entenderse aquí como lo opuesto a apertura, sino como la condición de su posibilidad. Lo que está clausurado en la autopoiésis es el control mismo mediante el cual los elementos se organizan de manera emergente. Ese-control-mismo-de-la-organización, se puede visualizar en la siguiente cadena de la evolución: átomos que se convierten en moléculas; moléculas inorgánicas que devienen en cristales y soluciones; macromoléculas que pasan a ser células; células que se transforman en organismos pluricelulares.

La clausura de la operación en la autopoiésis está en relación directa con el nivel de estabilidad que alcanza una operación dada, bajo unas determinadas condiciones y en la que necesariamente esta operación tiende a formar un cálculo recursivo que siempre debe volver sobre sí mismo, es decir ser auto referente.

La clausura operacional supone que las células produzcan operaciones exclusivas reproductoras de vida por las que se mantienen en la vida. Esto quiere decir: el sistema solo puede disponer de sus propias operaciones; o con otras palabras, no existe otra cosa que su propia operación. Esta operación única logra conformar dentro del sistema dos acontecimientos fundamentales: La construcción de sistemas y la autopoiésis.

-Autoconstrucción de estructuras: Dado que la operación en una célula está, en un determinado momento clausurada, no puede captar estructuras: ella misma debe construirlas. Por lo tanto el proceso de autoconstrucción deberá entenderse, en primer lugar, como producción de estructuras propias, mediante operaciones propias. Los sistemas clausurados en su operación producen sus propios elementos y, por consiguiente, sus propios cambios estructurales. No existe, y esta afirmación de Maturana es muy fuerte, ninguna operación causal del entorno del sistema, sin que el mismo sistema la provoque: todo cambio de estructura, trátese de adaptación o rechazo, es en última instancia, autoinducido.

-Reproducción autopoiética: Autopoiésis significa determinación del estado siguiente del sistema a partir de la estructuración anterior a la que llegó la operación.

Sistema nervioso

Porque será objeto de atención en próximos capítulos, no quiero soslayar, en la continua elevación que supone el recorrido por la escala de la complejidad, la relación existente entre el Sistema Nervioso y el principio fenomenológico que hemos dado en llamar clausura de operación.

Se tiene la idea que el Sistema Nervioso obtiene información del medio circundante y que luego la utiliza para construir una representación del mundo que le rodea y con ello elaborar una conducta adecuada que le permita sobrevivir en él. Esto inicialmente parece obvio, pero las cosas son más complicadas porque así, solo hemos descrito en el fondo, los sentidos e incluso las intuiciones/percepciones, pero no más allá.

El rendimiento del Sistema Nervioso posibilita la expansión del campo de estados posibles del organismo. De esa manera, se trata de un aumento de la configuración de los estados internos que, después, un observador puede enjuiciar en correlación acoplada con el mundo, pero que, en sentido restringido, no son sino formas del modo interno de operación de un sistema.

Debido a la característica expansiva del comportamiento interior que se logra mediante el Sistema Nervioso, el fenómeno de conocer no es exclusivo del ser humano. En la organización de lo viviente, desde una bacteria al hombre, todo operar orgánico supone conocimiento como acertadamente opina la importante bacterióloga Lynn Margulis. Todo hacer es conocer. El conocimiento no opera y no puede operar valiéndose de una representación que se efectua en el medio ambiente. Conocer es pues el operar de los componentes de un sistema, dentro del dominio de sus estados internos y de sus cambios estructurales.

En la lógica del Principio de Clausura de Operación, la evolución desarrolla una primera línea formada por unidades orgánicas individuales que operan con autonomía. Las vinculaciones colectivas surgen en el momento en que las interacciones de una misma especie, a lo largo de su historia, adquieren un carácter recurrente. De tal manera, que se puede afirmar que estos organismos quedan acoplados en el plano de la estructura, lo que a su vez permite la conservación de su capacidad autopoiética en la larga historia de las interacciones.

El colectivo es biológico

Lo colectivo, entonces, no es un fenómeno esencialmente humano, sino biológico; no cultural sino natural. A partir de unidades individuales autónomas, surge un orden que coordina el comportamiento de las unidades individuales orgánicas cuando entran en reacciones recurrentes. El sustrato biológico de la vida, no contrapone individuo y sociedad.

Como se señala en la obra de Maturana y Varela “El árbol del conocimiento” : “se es altruistamente egoísta y egoístamente altruista porque la realización individual incluye la pertenencia al grupo que lo integra”.

La comunicación, en su sentido más general es la coordinación de conductas que, por sí mismas, no podrían crear actos colectivos recurrentes. De aquí que la comunicación no transfiera contenidos, sino más bién coordine comportamientos. Dicen Maturana y Varela “hay comunicación cada vez que hay coordinación conductual en un dominio de acoplamiento estructural”.

Aunque la comunicación no se agota con la aparición de conductas lingüísticas, es evidente que el lenguaje es un fenómeno inédito por el significado inmensamente abarcador para el ser humano, aunque haya, en otros niveles del ámbito de la biosfera, equivalentes de comportamientos lingüísticos.

El lenguaje introduce una doble dimensión en la historia del ser humano: primero, porque del lenguaje emerge la experiencia de lo mental y la conciencia humana como expresión del centro más íntimo del hombre; segundo, y esto es quizá lo más sorprendente, es que al situar al individuo en el plano de las interacciones recurrentes frente a otros, despoja al individuo de toda certidumbre absoluta de lo personal y lo invita a situarse en una perspectiva más amplia: la de la creación del mundo junto con otros.

¿Una utopía?

Muchos consideran esta cosmovisión como una utopía, sobre todo en vista de la situación real de la sociedad y de las desigualdades, tan crasas, que se dan en su seno. La Teoría de la Autopoiésis es algo controvertido. Nosotros mismos albergamos reservas sobre ella, no tanto en su fundamento biológico, como en sus extrapolaciones. No hemos tratado de hacer un alarde erudito. Hemos pretendido, quizá con menos acierto que voluntad, relatar una hipótesis poco explicada, pero influyente, en la filosofía de la biología actual.

En la edición alemana de la obra de Maturana, Schmidt, recomienda: “todo aquel que desee una mejora del sistema social, le haría bién pensar que sin un cambio en las disposiciones cognitivas, no es posible transformación política o social alguna. Las revoluciones sociales presuponen revoluciones culturales”.

Medítese bién esa frase última, cuando hoy estamos inmersos en una impresionante revolución tecnológica, científica y cultural.

Autopoiesis y teoría del conocimiento

Estos supuestos teóricos, llevados a diferentes áreas del conocimiento, pueden producir conmociones importantes, toda vez que pueden inducir a pensar que el conocimiento se halla sustentado en operaciones que carecen de contacto con el entorno. Fuerte deducción pero obvia de lo anteriormente expuesto. No nos pronunciamos, pero invitamos encarecidamente a que se investigue con velocidad.

Aunque la teoría del conocimiento la hemos tratado con cierta profundidad vamos, de una manera tosca y rápida, a comentar los dos ejes, por cierto mal avenidos, sobre los que hasta ahora ha discurrido, y relacionarlo todo con la cuestión que nos ocupa.

El primer eje, el racionalismo, sostiene que el conocimiento no puede partir de la realidad inmediata, sino exclusivamente de la realidad escueta. Posibilidad significa solamente inteligibilidad exenta de paradojas. De aquí que el conocimiento sea algo puramente deductivo que se desprende de conceptos primeros o axiomas, procurando siempre el caer en contradicciones.

En el polo opuesto, se encuentra el empirismo que funciona bajo el supuesto que es la realidad la que ha de decidir lo que es verdadero y lo que es falso. La aclaración de los hechos procede de la utilización de un método experimental riguroso. De esta manera, es la misma realidad la que confirma y la que permite descartar errores. El empirismo sostiene que existe una certeza del mundo exterior y que ella es el agente confirmante.

Kant estaba convencido, en contra del racionalismo, que los juicios universales y necesarios -Vg.: “todos los hombres son mortales”- no pueden ser sólo analíticos, sino también sintéticos: no sólo han de tener capacidad para explicar, sino que habrán de poder ampliar el contenido inmediato de la realidad.

Con todo, estos juicios sintéticos que han de tener validez universal y necesaria, no pueden fundamentarse solamente en la experiencia -tal y como la concibe el empirismo-, ya que ésta sólo aporta lo singular y lo contingente.

Juicios sintéticos

El problema para Kant se resuelve si es que existen juicios sintéticos a priori, que se fundamentan en principios pre-experimentales y que, a pesar de eso, aportan un paso adelante al conocimiento. Este planteamiento sitúa el problema de la estructura del conocimiento mucho más allá de las representaciones epistemológicas de su época. Desde entonces, se comprenderá el conocimiento a partir de las condiciones previas de su posibilidad. Así, dice Kant: “nuestra manera de conocer los objetos, en cuanto ésta es posible, a priori”. Lo que viene a decir que la realidad en sí, es irreconocible.

Maturana recorre este recorrido clásico de la teoría cognitiva, en términos de trampas del conocimiento. La primera trampa es creer que el mundo de los objetos puede dar instrucciones al conocimiento, cuando de hecho, no hay mecanismo que permita tal información. La segunda, es que una vez que no existe el control de la certeza inmediata, abandonados a la oscura interioridad de lo posible pensado, amenaza el caos y la arbitrariedad.

La primera trampa cree que el sistema nervioso trabaja con representaciones del mundo, cuando en realidad su modo de operar está determinado, instante a instante, por la clausura operacional. La segunda, tiende a atribuir una absoluta soledad cognoscitiva –solipsismo-, y se desentiende de explicar la asombrosa conmensurabilidad entre el operar del organismo y el mundo.

En “El árbol del conocimiento”, se señala: “La solución, como todas las soluciones aparentemente contradictorias, consiste en salirse del plano de la oposición y cambiar la naturaleza de la pregunta a un contexto con más capacidad de abarcación”.

El filo de la navaja

Maturana sugiere andar por el filo de la navaja y desarrollar un control lógico para encontrar salida al problema del conocimiento. Para ello, propone una distinción: la de la operación/observación. Desde la operación, el conocimiento está clausurado y sólo responde desde sus estructuras interiores. El observador, situado fuera de la operación, y con mayor capacidad de observación, puede efectuar enlaces causales entre operación y mundo circundante que, conscientemente, no son accesibles a los organismos que los efectúan.

Así, señala: “al mantener limpia nuestra contabilidad lógica -expresión literal de Maturana que puede interpretarse como bagaje lógico-, esta complicación se disipa, ya que nos hacemos cargo de estas dos perspectivas y las relacionamos en un dominio más abarcador que nosotros mismos establecemos. Así, no necesitamos recurrir a las representaciones, ni precisamos negar que el sistema opera en un medio que le es conmensurable como resultado de una historia de acoplamiento estructural”.

Si estas reflexiones se llevan al plano formal de la generalización, el que el conocimiento esté constituido por una operación que está clausurada, quiere decir que no puede establecer ningún contacto con el entorno. Este es un principio teórico muy complicado que contradice toda la tradición reflexiva existente sobre el conocimiento y que yo consigno aquí como llamada de atención.

Todo conocimiento sobre la realidad debe hacerse como actividad interna -del conocimiento, se entiende- dirigida mediante discriminaciones própias -para las que no existe ninguna correspondencia con el entorno-.

Acoplamiento estructural

La pregunta candente es pués ¿cómo se configura el conocimiento? Maturana para este problema difícil propone un concepto igualmente difícil: acoplamiento estructural. Esta noción presupone que todo conocimiento -que es una operación emergente autopoiética- opera como un sistema determinado sólo desde el interior de sus propias estructuras. Se excluye, entonces, el que datos existentes en el entorno puedan especificar, conforme a las estructuras internas, lo que sucede en el sistema.

Humberto Maturana diría que el acoplamiento estructural se encuentra de modo ortogonal con respecto a la autodeterminación del sistema. Lo que quiere que una certeza inmediata de la realidad, aunque no determina lo que sucede en el conocimiento, debe estar presupuesta, ya que de otra manera cesaría la autopoiésis. En este sentido todo el conocimiento está previamente acoplado de manera amplia al entorno -o no existiría-, pero hacia el interior del radio de acción que se le confiere, el conocimiento tiende a dar vueltas acopladas en modo estricto. La realidad, por consiguiente, sirve sólo de medio amplio y abierto, para que el conocimiento aporte, desde sí mismo, acoplamientos estrictos y configurados según su propia idea de orden.....

Autopoiésis y teoría de la sociedad

Cuando un concepto se extiende más allá del contexto para el que fue pensado, se transforma entonces en una estructura general que puede ser aplicada en muchos campos. Tenemos el ejemplo de la Categoría de Proceso, que fue descubierta primero en el terreno de la jurisprudencia y luego fue adaptada a la ¡química¡

Einstein aportó, quizá más que ningún otro, las bases para el desarrollo de la teoría quántica, pero toda su vida mantuvo sobre ella serias reservas. Como creemos que ya hemos visto-y si no este es un momento tan bueno como cualquiera para expresarlo- el resultado de las dudas de Einstein ha sido que la física se ha orientado por dos teorías universales que, hasta ahora, no han podido conciliarse de una forma general y convincente .Por un lado, tenemos la Teoría General de la Relatividad que gobierna la estructura del Universo a gran escala; y por otro está la mecánica quántica que rige y explica el comportamiento a nivel atómico y molecular. En estos momentos hay serios intentos de integración que no acaban de fructificar definitivamente.

Salvando las distancias, con la autopoiesis ha ocurrido un fenómeno parecido: al quedar expuesta al proceso de re-especificación en cada una de las disciplinas humanísticas, ha sufrido modificaciones en las interpretaciones. La diferencia más notable en cuanto a precisiones de sentido de este concepto, se halla en la discusión actual entre sociología y biología.

El sociólogo alemán Niklas Luhmann ha desarrollado una teoría autopoiética de la sociedad basada en las ideas de Maturana. Así como el origen de la vida tiene que ver con el proceso de clausura de ciertas proteínas, así, en la propuesta de Luhmann, aquello que se ha designado como proceso de humanización –socialización- fue posible gracias al surgimiento de una forma emergente, una red cerrada –autopoiética- de comunicación. Solo a esta red cerrada de comunicación le es aplicable el concepto de sociedad. Fuera de esta red no existe comunicación. Ella es la única que utiliza este tipo de operación y en esta medida es real y necesariamente cerrada.

Desde que la humanidad inicia ese maravilloso proceso llamado civilización, Luhmann supone que la sociedad es una forma clausurada de comunicación que tiene la cualidad de albergar dentro de sí misma, de manera omniabarcante, todo lo que tenga que ver con formas de comunicación de sentido.

Procesos, procesos...

La evolución parece que encontró en el proceso de comunicación, no sólo el proceso de hominización, sino también el de socialización. En otras palabras, Luhmann establece que la civilización y sus resultados son consecuencia de las condiciones del proceso de comunicación. Ahora procede una afirmación fuerte: No son los seres humanos los creadores del proceso de su propia civilización, al contrario: los seres humanos se hacen dependientes de esta red emergente de orden superior, bajo cuyas condiciones pueden elegir los contactos con otros seres humanos. Esta red de comunicación de orden superior es lo que Luhmann denomina sociedad. Lo social no surge del hombre. Consiste en una solución de tipo evolutivo que precede a los sujetos y se halla encaminada a proveer de estructuras -léase formas- de sentido que mantienen la cohesión y se imponen a la tendencia disgregadora.

La socialización de los seres humanos no es, en sentido estricto, humanización. Si se parte de la premisa que la sociedad es pura comunicación, el desarrollo de lo social se debe entender como un aumento en el desempeño comunicativo, tal como lo ve Luhmann. En esto consiste su discrepancia con Rousseau y Nietzsche; el primero veía el citado desarrollo social como una ampliación de la humanización en el sentido de perfeccionar la naturaleza humana -teóricamente bello pero científicamente falso según la Teoría de la Evolución ya comentada-; para Nietzsche, la humanización suponía la superación de las energías dionisíacas -cierto, pero su explicación la retrasaremos a nuestra idea de la nueva visión nietzscheana-.

Lo social nunca ha sido el espacio de la realización absoluta de las posibilidades más humanas del hombre. Esto es cierto, aunque en un sentido que iremos desempaquetando, poco a poco, en apartados posteriores. La sociedad manifiesta una consistencia propia -dinámica y evolutiva-, una regulación auto referente que da pie a que cada individuo la experimente en grados de profundidad y en direcciones diversas -también veremos que esto guarda relación con ideas que expondremos posteriormente-.

El otro lado

Pero estos grados de vivencia posibles, pero subjetivos, no pertenecen al ámbito de lo social: están ubicados en lo que de momento llamaremos, por seguir a Luhmann, el otro lado de la forma de lo social, en el entorno. El descubrimiento moderno de lo inconmensurable en cuanto a la interioridad humana se refiere, a partir de Freud, Jung y otros, advierte que no es posible construir una sociedad que pueda corresponder a tales posibilidades de variación, pero quien siga leyendo los capítulos restantes de esta obra verá como lo individual y lo social/cultural, si se interconectan en La emergencia de la naturaleza humana.

Luhmann conecta directamente con el concepto de autopoiésis en el momento en el que considera la sociedad como una red cerrada, auto referente. La crítica a este tipo de sociología proviene de diversos sectores, siendo uno de ellos el que opina que se considera a la sociedad como una especie de realidad orgánica presentada en formato grande. Se acusa a la teoría de estar vinculada a la sociobiología de Wilson.

Luhmann se defiende: “si la noción de autopoiésis que describe la forma de vida -y para Maturana no sólo describe, sino que define el concepto mismo de la vida- es aceptable para los biólogos, no se deduce de ello que el concepto sea sólo biológico. Si los automóviles trabajan con un motor interno, esto no significa que el concepto de motor deba quedar reducido a los automóviles. Nada impide el que tratemos de ver si los sistemas sociales son autopoiéticos en términos de su propio modo de producción y reproducción, en lugar de verlos en términos de la operación bioquímica de la vida” (Tomado de “Entrevista con Niklas Luhmann”, en David Sciulli, Theory, Culture & Society. Sage, Londres, Thousand Oaks y Nueva Delhi, Vol. 11, Pág.42, 1994).

Para Luhmann, no sólo están organizados autopoiéticamente los sistemas orgánicos, sino también las formas sociales y las conciencias de los individuos, generalizando el concepto de autopoiésis y lo conduce y aplica a otros ámbitos de la realidad.

Los sistemas vivos, los neuronales, las conciencias, y los sistemas sociales son para Luhmann, sistemas autopoiéticos, esto es, sistemas que se desarrollan gracias a una reproducción recursiva de sus elementos como unidades autónomas. El concepto de autopoiésis significa auto conservación del sistema mediante la producción de sus propios elementos. En la obra de Luhmann, Die Autopoiesis des Bewusstseins, Soziologische Aufklärung 6, Opladen, 1995, p. 56, se dice:

“como autopoiéticos nosotros queremos designar aquel tipo de unidades que producen y reproducen los elementos de los que están constituidos, a partir de los elementos de los que están constituidos. Todo lo que estos elementos utilizan como unidad -ya se trate de elementos, de procesos, de estructuras, de sí mismos- debe ser producido mediante esas mismas unidades. O dicho de otro modo: no existe ninguna unidad que sirva como input para el sistema; ni ningún output que sirva de unidad que no provenga del sistema. Esto no quiere decir que no haya ninguna relación con el entorno, pero estas relaciones se situan en un nivel de realidad distinto de la autopoiésis”.

Orden emergente

La sociedades, pues, un orden emergente que se deslinda de lo especifico de la vida orgánica y de la vida interior de las conciencias. El concepto de emergencia designa la irrupción de un nuevo orden de realidad que no puede ser explicado -ni reducido- en su totalidad, a partir de las características de la infraestructura sobre la que se encuentra sostenido. En el caso, por ejemplo, de la relación entre conciencia y cerebro -tema importante en este libro con pocas fronteras-, la conciencia está sustentada sobre procesos neuronales -lo que hoy en día es decir poco-, pero las neuronas no producen ningún tipo de pensamiento o de representación. La frase, atribuida a Ernest Bloch de que por más que nos paseáramos por las azoteas del cerebro nunca encontraríamos allí una idea, ilustra su contenido.

La dimensión del significado por el que se establece que la sociedad sea un orden emergente autopoiético, debe ser sopesada con toda gravedad, ya que contradice toda la tradición filosófica y sociológica que se sustenta en la conceptualización del sujeto: el ser humano, en este tipo de tradición constituye el ultraelemento de lo social. Esta tradición considera que los seres humanos son los que se comunican y se comunican con otros.

Desde el momento que Luhmann opta por la conceptualización de la autopoiésis, rompe con la tradición del pensamiento europeo. Lo social, en esta teoría, no está constituido por los seres humanos, sino por la comunicación. En esta dinámica de pensamiento los seres humanos no están considerados como los creadores de la comunicación. La comunicación no es ningún resultado de la acción del ser humano, sino una operación que solamente se hace posible genuinamente por sí sola, es decir, por la sociedad.

En su obra, Teoría de la Sociedad, Pág. 52, Luhmann dice: “No es el hombre quien puede comunicarse, sólo la comunicación puede comunicar. La comunicación constituye una realidad emergente sui generis. De la misma manera como los sistemas de comunicación -como también por otra parte los cerebros, las células, etc-, los sistemas de conciencia son también sistemas operacionalmente cerrados. No pueden tener contacto unos con otros. No existe la comunicación de conciencia a conciencia, ni entre el individuo y la sociedad. Si se quiere comprender con suficiente precisión la comunicación es necesario excluir tales posibilidades -aún la que consiste en concebir la sociedad como un espíritu colectivo-. Solamente una conciencia puede pensar -pero no puede pensar con pensamientos propios dentro de otra conciencia- y solamente la sociedad puede comunicar. Y en los dos casos se trata de operaciones propias de un sistema operacionalmente cerrado, determinado por la estructura”.

La sociedad es autónoma no sólo en el plano estructural -a lo que ya había llegado el estructuralismo-, sino también y fundamentalmente en el plano del control de la organización de sus estructuras. La sociedad puede hacer surgir operaciones própias solamente empalmándolas a operaciones propias y con anticipación a ulteriores operaciones de la sociedad.

¿Está Luhmann en lo cierto? Veamos lo que opina el propio Maturana en un comentario manuscrito no publicado al libro Sociedad y teoría de sistemas, de Darío Rodríguez y Marcelo Arnold, emitido en enero de 1992, en Santiago de Chile:

“Esta discrepancia con Luhmann no es trivial....Ciertamente se puede hacer lo que Luhmann hace al distinguir un sistema cerrado definiblemente autopoiético en el espacio de las comunicaciones que él llama sistema social. Lo que yo me pregunto es si la noción de lo social como ésta surge en el ámbito cotidiano y se aplica adecuadamente a ese sistema: es decir, me pregunto si el sistema que Luhmann distingue como sistema social genera los fenómenos y experiencias que en la vida cotidiana connotamos al hablar de lo social. Yo pienso que no, que no lo hace, y pienso, por lo tanto, que la noción de lo social está mal aplicada al tipo de sistemas que Luhmann llama “sistemas sociales”.....Lo social no pertenece a la sociología, pertenece a la vida cotidiana, y la sociología sólo hace sentido como intento explicativo de la vida cotidiana, si no, es sólo literatura. Todo lo que Luhmann parece querer explicar con su teoría de los sistemas sociales separando lo humano y dejándolo como parte del entorno, y mucho más que él no puede explicar, como el origen del lenguaje, como el origen de lo humano, se puede explicar sin ese argumento”.

Hipótesis desconocida

Alguno pensará y con razón, que nos hemos extendido demasiado en el concepto de Autopoiésis. Lo que ocurre es que teorías como la de la evolución, la relatividad y otras están bién explicadas en muchos lugares mientras que la hipótesis autopoiética es menos conocida y goza de alta relevancia científica en el mundo biológico moderno.

Volviendo a la Teoría Holónica, aunque los holones existen gracias a sus relaciones de interconexión o contexto, no están definidos por este, sino más bien por su propia forma, patrón, modelo o estructura individual. Como señaló Leibniz, incluso partículas que dependen de otras, mantienen su perspectiva individual.

Esta forma intrínseca o patrón es conocido con diversos nombres: entelequia (Aristóteles), unidad/campo mórfico (Sheldrake), régimen, código o canon (Koestler), estructura profunda (Wilber). En la fisiosfera la forma del holón resulta, a pesar de su asombrosa complejidad, relativamente simple en relación con la biosfera y noosfera, en las que su relación de intercambio con el entorno persigue conservar estable -o teleológicamente reconocible-, coherente y relativamente autónomo el patrón que es la esencia de cualquier holón. Francisco Varela explicó antes de su fallecimiento que la vieja biología estaba basada en “unidades heterónomas que operaban según una lógica de correspondencia”, mientras que la esencia de la nueva biología se basa en “unidades autónomas que operan según una lógica de coherencia”.

En resumen, los holones se definen no por la materia de la que están hechos -puede no haber materia-, ni por el contexto en el que se hallan -aunque son inseparables de él-, sino por él patrón relativamente autónomo y coherente que presentan. La capacidad de preservar ese patrón es una de las características del holón.

Javier Del Arco
Sábado, 20 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

18votos

El Tesoro de la alfombra mágica

La Recursividad y teoría holónica constituyen la primera gran coincidencia. Los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. Pero el hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.


Douglas Hofstadter. Mosaico. Punya.
Douglas Hofstadter. Mosaico. Punya.
Con los artículos hasta ahora publicados, podemos decir que finaliza el frontispicio o pórtico de este blog de Biofilosofía. Corresponde ahora entrar en materia con más rigor y contundencia y, por ende, con mayor profundidad. Nunca he negado y las páginas que siguen lo atestiguan, que buena parte de esta mi biofilosofía que presento, viene inspirada por la obra de Ken Wilber. Wilber es un maestro, un iniciador, un pionero que, pese a su genialidad, debe ser para el público culto europeo, matizado, completado e incluso podado de cierta literatura que no haría sino alejarle, o al menos, y eso es lo importante, alejar o desacreditar sus ideas de ese o ante, público continental. Mi modesto, si lo consideramos desde un punto de vista intelectual, y a la vez arriesgado intento, es rescatar el mejor Wilber, matizarlo, completarlo y adaptarlo a una intelectualidad europea que vive profundos momentos de crisis, disgregación y enfrentamiento.

Wilber enuncia unos veinte principios básicos agrupados en doce categorías que él considera pautas o tendencias comunes que operan en los tres dominios de la evolución: fisiosfera, biosfera y noosfera. Estas tendencias dan cohesión al universo de manera que éste constituye un pluralismo emergente entrelazado por patrones comunes, los patrones de conexión. De estos patrones o principios, abordaremos hoy tan sólo el primero que da título al artículo. He de advertir que estos patrones funcionan perfectamente en el lenguaje del naturalismo objetivo, el lenguaje del “ello”, el neutro en tercera persona. Wilber, cuidadosamente, ha modelado estos principios en un nivel y grado de abstracción compatible con los lenguajes del “ello” (naturalismo objetivo o esfera de lo verdadero), del “yo” (estética o esfera de lo bello) y del “nosotros” (ética o esfera de lo bueno) de forma que la síntesis pueda continuar sin violencia hacia dominios en los que, previamente, la Teoría Dinámica de Sistemas había realizado un reduccionismo estricto en términos que le son propios: naturalistas y objetivantes. Este es el aspecto, advierto desde ahora, más vulnerable de todo el entramado filosófico wilberiano y, tal vez el que supone para mi el mayor reto que, afortunadamente para mi, no tendré que abordar por ahora.

Ya hemos dicho anteriormente, que no hay cosas ni procesos, únicamente holones y que no existe límite ni hacia arriba ni hacia abajo o, expresado matemáticamente, límite superior o inferior.

Ni totalidad, ni partes

Como la realidad no esta compuesta de totalidades y tampoco de partes porque sólo hay totalidades/partes, este planteamiento elimina de raíz la discusión tradicional entre el atomismo -todas las cosas están fundamentalmente aisladas y las totalidades individuales interactúan solo por azar- y el holismo -todas las cosas son meras hebras o partes de la red o del todo mayor-. Estos dos planteamientos son totalmente incorrectos ya que no hay ni totalidades ni partes. Únicamente hay totalidades/partes.

Si somos sutiles, veremos que estamos eliminando el dilema entre los materialistas y los idealistas. La realidad no está compuesta de quarks o de hadrones interdependientes, o de intercambio subatómico; pero tampoco lo está de ideas, símbolos o pensamientos. Esta compuesta de holones.

Wilber nos introduce en un viejísimo y hermoso cuento de origen oriental, que narra la visita de un rey a un viejo sabio al que desea realizar algunas consultas y también probarle. De esta guisa le pregunta: “¿por qué la Tierra no se cae?” El viejo sabio le contesta: “la Tierra se sostiene sobre un león”. El rey, lógicamente, vuelve a la carga: “¿sobre que se sostiene el león que propones?”. “El león se sostiene sobre un elefante,” responde el viejo. Pero la respuesta no satisface al rey que insiste: “¿sobre que se sostiene el elefante?”. “El elefante se sostiene sobre una tortuga”. Y vuelve a la carga el rey: “¿sobre que se sostiene...?”. Cansado, el viejo responde: “puede detenerse ahí Majestad, todo es un infinito conjunto de tortugas hacia abajo”. O todo holones hacia abajo.

Releyendo el precioso libro de Hofstadter, “Gödel, Escher, Bach, un eterno y grácil bucle”, se plantea en el capítulo V la cuestión de la recursividad. Hofstadter, al referirse a la amplitud de éste concepto, introduce un lenguaje que nos es familiar, sin que él conociese previamente la terminología de Wilber. Así habla de relatos dentro de relatos, partículas dentro de partículas, matuskas dentro de matuskas, incluso comentarios entre paréntesis dentro de comentarios entre paréntesis; estos son tan sólo algunos elementos de la recursividad.

Para aclarar más fehacientemente el concepto de recursividad debemos involucrar a los llamados conjuntos recursivamente enumerables o abreviadamente, r.e. Que un conjunto sea r.e. significa que pueda ser generado a partir de unos puntos de partida que denominamos axiomas mediante la aplicación reiterada de reglas de inferencia. Así el conjunto crece y crece, y sus nuevos elementos se van componiendo, de algún modo, con los elementos anteriores, en algo que Hofstadter describe muy bellamente: en una suerte de “bola de nieve matemática”.

Bola de nieve

Esa es la esencia de la recursividad: la definición de algo en función de versiones más simples de ello mismo, en lugar de hacerlo explícitamente. Los números de Fibonacci y los números de Lucas, son ejemplos perfectos de conjuntos r.e.: a partir de dos elementos, y gracias a la aplicación de una regla recursiva, echan a rodar una bola de nieve formada por infinitos conjuntos (es sólo por convención por lo que llamamos r.e. a un conjunto cuyo complementario es también recursivo y recursivamente enumerable).

La enumeración recursiva constituye un proceso donde surgen elementos nuevos a partir de elementos anteriores, por la acción de reglas establecidas. Parece que en estos procesos se dan muchas sorpresas, por ejemplo la impredictibilidad de la llamada secuencia Q. Es posible suponer que las secuencias recursivamente definidas de tal tipo posean la cualidad intrínseca de asumir un comportamiento cada vez más complejo, de suerte que cuanto más se avanza, menor es la predictibilidad.

Esta clase de suposición, si se profundiza un poco en ella, sugiere que los sistemas recursivos, adecuadamente complicados, son lo bastante poderosos como para evadirse de cualquier molde prefijado ¿Y esto no es uno de los atributos que definen la inteligencia? En vez de considerar únicamente programas integrados por procedimientos que apelan recursivamente a sí mismos ¿por qué no trabajar con procedimientos realmente refinados, mediante la creación de programas que puedan modificarse a sí mismos? Es decir, programas que ejerzan su acción sobre programas, extendiéndolos, mejorándolos, generalizándolos, reordenándolos, etc. Es probable que esta forma de “recursividad entrelazada” sea uno de los elementos sustanciales de la inteligencia.

La recursividad es un tema de primer orden, si no “el tema” por excelencia. Me explico: examinemos una forma en la que el mundo entero aparece construido a partir de la recursividad. Esta afirmación se relaciona con la existencia de las partículas elementales: electrones, protones, neutrones y los diminutos quanta de la radiación electromagnética llamados fotones. Veremos que estas partículas están –de una manera que sólo puede ser establecida por la mecánica cuántica relativista- incluidas unas dentro de las otras, de una manera que sólo puede ser descrita recursivamente.

Partículas desnudas

Si las partículas no interactuasen entre sí, las cosas serían muy simples. A las partículas exentas de interacción se las denomina “desnudas” y se las trata como creaciones meramente hipotéticas: no existen.

Ahora bien, cuando las partículas son “puestas en marcha”, se entrelazan entre sí recíprocamente, vinculándose. Se dice de las partículas que han sido “normalizadas”. Lo que ocurre es que cualesquiera de estas partículas, considerada individualmente, no puede definirse si no lo es en referencia a todas las demás partículas. La definición de éstas, a su vez, depende de su relación con las anteriores, etc., y así giro a giro, en un circuito sin final.

Mediante un extenso e ingenioso razonamiento que debe leerse en su precioso libro, que implica además la utilización de los diagramas de Feynman, Hofstadter concluye que la cuestión esencial respecto de una partícula material subatómica –una partícula renormalizada- comprende:

1. Una partícula desnuda.

2. Un enorme amasijo de partículas virtuales enrolladas entre sí, inseparablemente, formando una trama recursiva. La existencia de una partícula real implica por lo tanto la existencia de muchas otras, contenidas en la nube virtual que la rodea a medida que se desplaza. Y cada una de las partículas virtuales de la nube arrastra, evidentemente, su propia nube virtual, burbujas dentro de otras burbujas -holones dentro de holones, diríamos nosotros- y así sucesivamente, “ad infinitum”.

Paradojas lógicas y Teorema de Tarski

Para muchos, una paradoja es algo que a primera vista parece ser falso pero que en realidad es cierto; o que parece ser cierto pero que en rigor es falso; o sencillamente que encierra en sí mismo contradicciones. Los conceptos de certeza o falsedad en matemáticas y aún el de contradicción, dependen del grado de desarrollo de la matemática en un momento dado; parodiando a Hamlet puede decirse que «lo que una vez fue paradoja, ya no lo es, pero puede volver a serlo».

Este hecho también se da en las ciencias experimentales y conduce inicialmente a un cuestionamiento del concepto de «rigor científico» que se maneja en cada época. Uno de los aspectos más interesantes de la matemática estriba en que sus más difíciles paradojas encuentran un camino para originar las más bellas y profundas teorías; Kasner y Newman sostienen: «El testamento de la ciencia es un flujo continuo, de tal manera que la herejía del pasado es el evangelio del presente y el fundamento del mañana” (Kasner, et al., 1979). A menudo se llega a paradojas cuando se contradice el denominado principio del tercero excluido (Kleiner et al., 1994), que afirma lo siguiente: cualquier enunciado proposicional es verdadero o es falso, pero no se pueden dar ambas cosas simultáneamente.

Al tratar de aplicar a conjuntos infinitos el hecho de que: Si es posible emparejar todos los elementos de un conjunto con todos los pertenecientes a otro, entonces, ambos conjuntos tienen el mismo número de elementos puso a los matemáticos ante algunos hechos que eran inexplicables en su época y que fueron considerados como paradojas.

Entre las paradojas lógicas o matemáticas, están las debidas a los denominados conjuntos paradójicos. Un conjunto paradójico, es aquel que el admitir su existencia conduce a paradojas.

La paradoja de Cantor

El primer ejemplo de un conjunto de este tipo fue dado el 28 de marzo de 1897 por el matemático italiano Cesare Burali-Forti (1861-1931) quien la presentó en un encuentro del Círculo Matemático di Palermo. En pocas palabras la paradoja es la siguiente: Se sabe en teoría intuitiva de conjuntos, que todo conjunto bien ordenado tiene un número ordinal; en particular, como el conjunto de todos los ordinales es bien ordenado, entonces debe tener un ordinal, digamos S, pero el conjunto formado por todos los ordinales agregándole S, tiene ordinal S + 1, que es mayor que S, por lo tanto no puede ser el número ordinal del conjunto de todos los ordinales ya que S y S +1, no cumplen la ley de tricotomía.

Un conjunto paradójico es el de la denominada paradoja de Cantor. En 1899, en una carta que envió Cantor a Dedekind, observa que no puede hablarse del “conjunto de todos los conjuntos”, ya que si Q fuese este conjunto entonces el conjunto P (Q) de todos los subconjuntos de Q sería un elemento de Q, es decir:

P (Q) pertenece a Q y también P (Q) es un subconjunto de Q.

Entonces existe m tal que 2 (expo m) más o menos m, lo cual es una contradicción.

Después del surgimiento del Axioma de Regularidad en la Teoría de Conjuntos (1917) puede emplearse el siguiente argumento:

Como P (Q) pertenece a Q y Q pertenece a P (Q), entonces Q pertenece aQ, lo cual contradice el Axioma de Regularidad.

El lógico alemán Gottlob Frege (1848-1925) consideraba: “los matemáticos deben de hacer frente a la posibilidad de encontrar una contradicción que convierta el edificio completo en ruinas. Por esta razón me he sentido obligado a volver a los fundamentos lógicos generales de la ciencia...”. Es así como se dedicó durante un cuarto de siglo a construir la fundamentación lógica del análisis; con tal fin elaboró un sistema formal que intentaba servir como fundamento de las matemáticas.

Este sistema se sostenía en varios principios dos de los cuales son los siguientes:

1. Principio de Extensionalidad: dos propiedades son equivalentes si son aplicables a los mismos individuos.
2. Principio de Abstracción: Toda propiedad define un conjunto.

Sus ideas fueron plasmadas en dos extensos volúmenes. En 1902 ya había publicado el primero y el segundo estaba en la imprenta listo para ser publicado, cuando recibió una carta del joven matemático inglés Bertrand Russell (1872-1870) en la que le planteaba la siguiente inquietud:

Si x es, por ejemplo, el conjunto de los conjuntos que no son cucharas, x pertenece a x, pero si x es el conjunto de todas las cucharas, evidentemente x no es una cuchara y por lo tanto x no pertenece a x.

Sea el siguiente conjunto:

P = (x/ x pertenece a x).

Si P pertenece a P implica a P pertenece a P, lo cual es una contradicción. Si P pertenece a P implica a P pertenece a P, lo cual también es una contradicción.

Esta paradoja que presentó Russell, convertía en contradictoria las bases mismas de la obra científica de Frege.

En un gesto de gallardía y de humildad científica, Frege escribió una nota a pie de página al final del segundo volumen que comenzaba diciendo: “Difícilmente puede encontrarse un científico con algo más indeseable que notar que ceden los fundamentos de una obra que acaba de terminar. En esa situación me encuentro al recibir una carta del señor Bertrand Russell cuando el trabajo estaba casi en imprenta”.

Principio falso

Realmente lo que demuestra la paradoja de Russell es que el principio de abstracción es falso, y es este aspecto el que hace contradictorio el sistema de Frege, aunque la forma como construyó el análisis no lo fue.

La causa de muchas de estas paradojas, como señalaban Russell y Whitehead, radica en la definición de un objeto en términos de una clase que contiene como elemento al objeto que se está definiendo. Tales definiciones se llaman impredicativas y aparecen de manera especial en teoría de conjuntos.

Como afirman Kasner y Newmann: «Quizás la mayor de todas las paradojas es que haya paradojas en la matemática” (Kasner, 1979). Afortunadamente para esta ciencia, las paradojas siempre han estado presentes en su quehacer, ellas se han convertido en un verdadero reto, fuente de inspiración y creación, que le ha permitido adquirir no sólo un alto grado de desarrollo, sino también la ha obligado a cambiar sus conceptos de rigor y precisión, ¡bienvenidas sean pues las paradojas!

A continuación mencionaremos el teorema de Alfred Tarski huyendo de las complejidades de la notación lógico-matemática que conlleva, verbalizándolo en la medida de lo posible. En su trabajo, Tarski se propone llegar a una definición satisfactoria de la noción del término "verdad". Ésta definición sería materialmente adecuada y formalmente correcta. Pero desde un principio, Tarski advierte que el problema, debido a su generalidad, no puede considerarse de una forma inequívoca. La adecuación material serviría para deshacerse de la ambigüedad; mientras que la corrección formal, requerirá de una descripción de la estructura formal del lenguaje en el cual se dará la definición de verdad. Desde este punto, la definición no se podría aplicar al lenguaje natural, ya que éste no es formal

Tarski se propone aplicar el término "verdad" sólo a enunciados, y no a proposiciones; debido a la ambigüedad de la definición de estas últimas. Esto lleva a relacionar a la noción de "verdad", así como a un enunciado, a un lenguaje específico.

Concepto ambiguo

En cuanto al significado del término "verdad", es claro que es extremadamente ambiguo. Tarski cita la definición de Aristóteles de "verdad": "El decir de lo que es que no es, o de lo que no es que es, es falso; mientras que el decide lo que es que es, o de lo que no es que no es, es verdadero". Adapta esta definición a terminología moderna como: "La verdad de un enunciado consiste en su concordancia con (correspondencia con) la realidad". Aquí podríamos objetar un problema de percepción: no es posible demostrar con la mente qué es la realidad, ya que podemos definir a la realidad como "aquello que perciben nuestros sentidos". Y la validez de nuestros sentidos sólo es probable empíricamente.

También en estas definiciones hay un problema de contexto. Algo puede cambiar su valor de verdad al cambiar de contexto. Y en el fondo de todo, se esconde una metafísica, en la cual la noción de "verdad" debe estar basada. Y, usando el teorema de la incompletitud de Gödel, podemos demostrar que esta verdad no podrá demostrar a la metafísica que la propone (no se puede encontrar la verdad de la metafísica). Estos son sólo algunos de los problemas que presentan estas definiciones de verdad, que aunque Tarski no discute ninguna, es claro que estas no son definiciones satisfactorias de verdad.

Para obtener la adecuación, Tarski distingue primero entre los nombres de los enunciados, y los enunciados en sí, para evitar autoreferencias. Pero como demostró Gödel, las autoreferencias siempre estarán ahí.

Lenguaje formal

La concepción de "verdad" de Tarski es semántica. Esta última trata de "ciertas" relaciones entre las expresiones de un lenguaje, y los objetos a los cuales se refieren esas expresiones. Algunas de estas relaciones pueden ser: designación, satisfacción y definición. Pero el término "verdad" no establece una relación entre expresiones y objetos. Expresa una propiedad de las expresiones (en este caso, enunciados). Aunque, Tarski mismo indica que la semántica no resuelve todos los problemas de una definición de verdad.

Para evitar paradojas y antinomias, Tarski decide definir su concepto de "verdad" sobre un lenguaje "especificado exactamente" (formal). Esto es, que se caractericen sin ambigüedades las palabras y expresiones que se vayan a considerar con sentido. Para esto requiere de axiomas, reglas de inferencia, y teoremas.

Aunque sea un lenguaje formal, gracias a Gödel hemos visto que no es posible desterrar a las paradojas. Entonces, ¿por qué no tratar de comprenderlas? Desde aquí los intentos de Tarski pierden toda esperanza.
Principalmente, Tarski describe a las causas que provocan la inconsistencia de los lenguajes cerrados:

1. Hemos asumido que el lenguaje contiene tanto a las expresiones, como a los nombres de las expresiones. Por consiguiente, es directamente autoreferencial.

2. Hemos asumido que en el lenguaje rigen las leyes ordinarias de la lógica.

Tarski califica de "superfluo" el querer cambiar la lógica ("suponiendo que sea posible"), para poder resolver el problema por el punto dos. La lógica depende directamente de sus axiomas. En el caso de la aristotélica, estos son: "algo sólo puede ser verdadero ó falso, pero no otra cosa, ni las dos al mismo tiempo". Al cambiar los axiomas, se cambia la lógica. Así se crearon las lógicas paraconsistentes. En las lógicas paraconsistentes, se admite que se pueda llegar a una conclusión a base de premisas contradictorias.

Problemas lógicos

Por lo tanto, las paradojas, al comprenderse, dejan de ser contradictorias. Y podemos decir además, que una lógica paraconsistente, es completa e incompleta al mismo tiempo. El problema de la definición de "verdad", así como todos los "problemas" que son implicaciones de paradojas, son problemas esencialmente lógicos. Si es un problema lógico, ¿por qué tratar de formalizar al lenguaje natural, cuando de todos modos si fuese formal habría paradojas? Eso, es ponerle a la filosofía zapatos que no le quedan. Si la lógica no contiene al lenguaje, los más adecuado sería desarrollar una lógica que lo contenga, y no mutilar al lenguaje para que entre a golpe de “teoremazo”.

Pero bueno, para Tarski seamos superfluos, y sigamos con su exposición, la cual se dirige a atacar el problema por el punto 1. Esto es, prohibir que un lenguaje se describa a sí mismo. ¡Pero un lenguaje sin autoreferencia no es lenguaje! ¡Todas las limitaciones impuestas! En fin, para lograr esto, Tarski propone un lenguaje-objeto, el cual básicamente se referirá solamente a describir objetos, y un meta-lenguaje, el cual tendrá una mayor jerarquía, y podrá decir si un enunciado del lenguaje-objeto es verdadero o falso. Pero entonces, ¿cómo puedo obtener la verdad de una frase del meta-lenguaje? ¿Con un meta-meta-lenguaje, y así creo meta-lenguajes ad infinitum?

Para dar su definición de "verdad", Tarksi emplea el término semántico de satisfacción. Entonces, define que "un enunciado es verdadero si es satisfecho por todos los objetos, y falso en otro caso". Podemos decir que su definición es satisfactoria, después de todas las limitaciones que puso antes de plantearla. Es satisfactoria, pero no es muy útil. Es satisfactoria solamente para lenguajes teóricos especialmente diseñados para que cumplan con esa definición. No es aplicable al lenguaje natural, al científico, al filosófico, y a muchos lenguajes formales.

¿Por qué no, para no meterse en problemas, los filósofos hicieron como Newton? Cuando a éste le preguntaron, que por qué no definía movimiento, tiempo y materia, dijo que no veía el caso, ya que eran "bien conocidos de todos". Es decir, ¿cómo podemos pretender definir un concepto en el que se basa nuestro lenguaje, como el de verdad, usando conceptos que se basan en el concepto que queremos definir, queriendo expulsar a la autoreferencialidad? La autoreferencia es la única vía para intentar una definición.

Pero el objeto de una definición es el de unificar y delimitar conceptos. Y en estos casos, en el de definiciones de conceptos generales (o primarios), las definiciones mismas no logran ni unificar ni delimitar lo que tratan de definir, ya que hay muchas definiciones para un concepto. Sería iluso aspirar a una definición completa sin que ésta fuese infinita. Pero es claro que las definiciones, aunque incompletas, como la de Tarski, delimitan parcialmente lo que tratan de definir. ¿Cómo describir algo que se usa para describir a las cosas? Es debido a esto que no comentaremos acerca de las críticas hechas al trabajo de Tarski, y las respuestas de éste.

Saber pensar

En cuanto a los comentarios finales de Tarski, en los cuales responde a los pragmáticos que cuestionan la aplicación del trabajo matemático, se darán a continuación algunas opiniones personales. Personalmente, he tenido la misma experiencia con mis alumnos, cuando cuestionan la aplicación de algún ejercicio mental que les propongo. La aplicación (o la finalidad) no es directa, ya que afecta al pensamiento en el cual se desarrollan las aplicaciones. Es decir, la teoría "sin aplicaciones", afecta al pensamiento. Enseña a la gente a pensar y a ejercitar la mente. No se pueden crear aplicaciones si uno no sabe pensar.

De ninguna manera el trabajo de Tarski carece de importancia; más bien todo lo contrario. Alcanza lo que Tarksi se propuso: hacer una definición parcial y limitada de "verdad" en un sistema formal cerrado. No será práctica, pero indudablemente define mejor la noción de "verdad". No es necesario saber qué significan las palabras para usarlas. Manejamos un automóvil sin saber nada de mecánica. Utilizamos una computadora sin saber algo de electrónica. Pensamos sin saber cómo, amamos sin saber qué es el amor, y vivimos sin saber qué es la vida. Pero es necesario por lo menos tener una idea. Y Tarski da una muy buena idea de qué podemos entender por "verdad".

El Teorema de Gödel y su interpretación filosófica

Para abordar con éxito y sobre todo con la posibilidad de ser comprendido por muchos, voy a abordar el trascendental Teorema de Incompletitud (1931) ha proporcionado a Kurt Gödel una fama legendaria: es considerado "el descubridor de la verdad matemática más significativa de este siglo". Marca un hito en la historia de la lógica matemática. Y para hacerlo proclamo ya que voy a recurrir a los magníficos trabajos de Guillermina Díaz Muñoz y a sus múltiples trabajos que ponen en íntimo contacto la matemática de Gödel y a la filosofía de Xavier Zubiri, homenajeando de paso a este ilustrísimo pensador español inmerecidamente olvidado y reconociendo los importantes trabajos de Díaz Muñoz ante un público menos especializado en filosofía zubiriana.

Sin duda podría haber introducido el tema de Gödel por otros derroteros pues hay múltiples pero en las presentes circunstancias de injusto olvido de Zubiri y papanatismo generalizado, reivindico así a un pensador español universal y a una importante filósofa de nuestros días. Iré pues muy pegado a los textos de Díaz Muñoz para que el relato mantenga toda su riqueza originaria.

El alcance filosófico del Teorema de Gödel ha sido profundo. Supone el cuestionamiento de las distintas filosofías de la matemática de finales del s. XIX y principios del s. XX: el logicismo de Russell, el formalismo de Hilbert y el intuicionismo de Brouwer. Como dicen Nagel y Newman: "provocó una nueva valoración, todavía en trance de desarrollo, de una extendida filosofía de la matemática y de la filosofía del conocimiento en general".
Gödel, como examinaremos, inicia el giro del "apriorismo-idealismo" del Positivismo Lógico al "realismo" de la nueva filosofía de la matemática.

Creemos que la exigencia, planteada por los resultados de Gödel, de una nueva filosofía, no-dogmática, de la matemática (y del conocimiento, en general), tiene, su máximo cumplimiento en dos autores: Lakatos y Zubiri. Sus respectivas interpretaciones del Teorema de Gödel, tanto el principio de conservación de la falibilidad o de la sofisticación de Lakatos y la anterioridad de la realidad sobre la verdad de Zubiri, constituyen el eje de toda su filosofía matemática y del conocimiento. Sus posturas son dos alternativas a la crisis gödeliana del fundamento matemático. Mientras que Lakatos sustituye la tarea de la fundamentación por la tarea del avance matemático, Zubiri pretende también, como veremos, proporcionar una fundamentación no-dogmática de la matemática. Su propuesta es un nuevo tipo de Constructivismo.

Consistencia y completitud

La aportación de Gödel está en el contexto del planteamiento que Hilbert hace de los sistemas formales. Hilbert ha presentado como requisitos y problemas fundamentales de un sistema formal matemático dos aspectos: la consistencia y la completitud. Un sistema formal es completo si cada sentencia expresable con su lenguaje formal es decidible a partir de sus axiomas. Partiendo de sus axiomas y aplicando las reglas lógicas, podemos llegar a la conclusión de A o no-A. Y, por otra parte, un sistema formal es consistente si no puede deducirse dentro del sistema A y no-A. Pues bien, los resultados de Gödel resuelven estas dos cuestiones de modo negativo.

Ya en 1930, Gödel en su artículo: Algunos resultados meta-matemáticos sobre completitud y consistencia, muestra, respecto a un sistema formal, S, resultante de unir a los axiomas de Peano la lógica de Principia Mathematica, los siguientes teoremas:

I. El teorema de la incompletitud del sistema S.

"El sistema S no es completo, es decir, en él hay sentencias j (que pueden efectivamente ser indicadas), tales que ni j ni no j son deducibles y, en especial, hay problemas indecidibles con la sencilla estructura existe x Fx, donde x varía sobre los números naturales y F es una propiedad (incluso decidible) de los números naturales".
Es un resultado definitivo, de tal modo que aunque se añadan nuevos axiomas, el sistema seguirá teniendo fórmulas nuevas indecidibles.

II. El teorema de la imposibilidad de la prueba de la consistencia en S.

"Incluso si admitimos todos los medios lógicos de Principia Mathematica (...) en la metamatemática, no hay ninguna prueba de consistencia para el sistema S (y aún menos la hay si restringimos de alguna manera los medios de prueba)".

En 1931, Gödel da las pruebas de sus descubrimientos en el citado artículo, Sobre sentencias formalmente indecidibles de principia mathematica y sistemas afines. En éste plantea que el desarrollo de la matemática ha exigido la plena formalización de ésta; dos ejemplos de gran perfección son el sistema de Principia Mathematica y la teoría axiomática de conjuntos de Zermelo-Fraenkel (y su complementación por parte de J. von Neumann). Sin embargo, muestra que no hay ningún sistema formal matemático, con un número finito de axiomas, que sea completo.

Proposición indecidible

Este resultado no se ve modificado por el hecho de que introduzcamos entre los axiomas aquél que nos permita derivar la proposición que resultaba ser indecidible, porque si bien del nuevo sistema ésta se deduciría, surgiría otra proposición que igualmente sería indecidible y así sucesivamente. Por ello es un resultado esencial en los sistemas formales que incluyan la aritmética.

Dice Gödel: "Estos dos sistemas son tan amplios que todos los métodos usados hoy día en la matemática pueden ser formalizados en ellos, es decir, pueden ser reducidos a unos pocos axiomas y reglas de inferencia. Resulta por tanto natural la conjetura de que estos axiomas y reglas basten para decidir todas las cuestiones matemáticas que puedan ser formuladas en dichos sistemas. En lo que sigue se muestra que esto no es así, sino que, por el contrario, en ambos sistemas hay problemas relativamente simples de la teoría de los números naturales que no pueden ser decididos con sus axiomas (y reglas)"

Una consecuencia de los resultados de incompletitud es la relativa a la prueba de la consistencia del sistema P. Es imposible obtener una prueba finitista de consistencia (en los términos planteados por los formalistas) para un sistema formal que contenga formalizados todos los modos finitos de prueba. La consistencia es una de las fórmulas indecidibles en los sistemas incompletos.

Dice Gödel: "Sea K una clase recursiva primitiva y consistente cualquiera de FORMULAS. Entonces ocurre que la SENTENCIA que dice que K es consistente no es K-DEDUCIBLE. En especial, la consistencia de P no es deducible en P, suponiendo que P sea consistente (en caso contrario, naturalmente, toda fórmula sería deducible).

La repercusión del trabajo de Gödel, dentro del área de la fundamentación matemática, es difícil de exagerar. Sin embargo, resulta decepcionante —y en primer lugar lo sería para el propio autor que concentró toda su energía y entusiasmo intelectual en este campo, convencido de su relevancia en la totalidad matemática— observar que su impacto en la practica de los matemáticos es insignificante.

Como dice Hao Wang: "IA [el Teorema de incompletitud de la Aritmética] ha tenido en conjunto poca influencia sobre la práctica matemática. Naturalmente, si (algún sistema formal de) la aritmética hubiera resultado ser completo (y, por ende, decidible), la investigación en teoría de números habría adoptado una forma totalmente distinta"

Y, un poco más adelante, señala que su impacto ha sido mayor en la tecnología actual, rama que no interesó directamente a Gödel. "Curiosamente, ha tenido más impacto sobre las cuestiones conceptuales que tienen que ver con los computadores y la mecanización, cuestiones que son una preocupación central en la tecnología actual"

Repercusiones del Teorema de Gödel

El Teorema de Gödel ha revolucionado la filosofía de la matemática, mostrando su inadecuación e insuficiencia para explicar el fundamento de la matemática y comprender su naturaleza. Veamos, brevemente, su repercusión en cada una de las "escuelas" de fundamentación de la matemática de principios de siglo.

a) El Teorema de incompletitud significa para el logicismo de Russell y Whitehead el fracaso de su intento de construir un sistema lógico que permita incluir la aritmética. Pone de manifiesto que la verdad matemática es de amplitud mayor que la verdad lógica, y, por tanto la irreductibilidad de la matemática a la lógica.

W. y M. Kneale (1961) señalan el desafío del resultado gödeliano a la identificación de matemática y lógica de Russell: "Desde Gödel, parece razonable responder que la lógica no se extiende más allá de la teoría de la cuantificación. Cuando decimos que la aritmética y, con ella, todos los llamados cálculos funcionales de orden superior, así como todas las versiones de la teoría de conjuntos, son esencialmente incompletos, estamos efectivamente admitiendo que esas teorías envuelven alguna noción, o más de una, de la que no cabe ofrecer una exhaustiva caracterización mediante el establecimiento de una serie de reglas de inferencia: y ésta parece constituir una buena razón para excluirlas del dominio de la lógica..."

b) Respecto al formalismo de Hilbert, Gödel demostró los límites internos de los sistemas formales. La matemática es inagotable desde cualquier sistema formal, siempre habrá verdades matemáticas indecidibles dentro de éstos. El método axiomático es de fecundidad limitada. Las afirmaciones aritméticas son irreductibles a las afirmaciones de un sistema formalizado (tanto si sus axiomas son lógicos como si son una sistematización de axiomas lógicos y aritméticos).

Como señala Morris Kline: "El fenómeno de la incompletitud constituye un importante defecto porque entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema"

c) Estos resultados también son decisivos para el intuicionismo de Brouwer. Aunque de algún modo ya habían sido vistos por éste —razón por la que se extrañaba de la gran importancia que se les había dado—, sin embargo, el mérito de Gödel está en haber construido unas pruebas formales claras para mostrar la existencia concreta de proposiciones indecidibles a partir del sistema formal que incluye la aritmética elemental.

Del mismo modo probó que la consistencia no puede demostrarse dentro del sistema. Por tanto, respecto del intuicionismo, "...el trabajo les hizo ver de qué modo el uso apropiado de métodos formales podía llevar a conclusiones precisas que ellos sólo podían ver en parte y de forma imprecisa".

d) Los resultados de Gödel tienen también una profunda repercusión en la primera filosofía objetivo-ideal de la matemática de Zubiri. Los siguientes términos expresan el Teorema de Gödel tal y como lo recoge nuestro filósofo: "Lo postulado tiene propiedades que no son deducibles de los postulados ni pueden ser lógicamente refutadas por ellos."
Y también, "Jamás podrá demostrarse positivamente la no contradicción de un verdadero sistema de notas o conceptos objetivos"

Ciencia viva

El planteamiento anterior nos presenta la matemática de principios del s. XX como una ciencia viva, que no puede avanzar sin plantearse el problema de sus principios o fundamentos. Y en esta "aventura, en la que les acompañan con emoción el intelecto entero", se encuentran de una forma sorprendente K. Gödel y X. Zubiri.

Experiencia que éste refleja en sus palabras: "Una ciencia que se halla en la situación de no poder avanzar, sin tener que retrotraerse a sus principios, es una ciencia que vive en todo instante de ellos. Es ciencia viva, y no simplemente oficio. Esto es, es ciencia con espíritu. Y cuando una ciencia vive, es decir, tiene espíritu, se encuentran en ella, ya lo hemos visto, el científico y el filósofo. Como que filosofía no es sino espíritu, vida intelectual"

Matemática y Filosofía, en el s. XX, quedan maravillosamente unidas en las figuras de Gödel y Zubiri. Ambos son prototipo de hombre intelectual: en ellos convive el diálogo matemática-filosofía de manera inseparable; si bien Zubiri es filósofo y está atento a los resultados matemáticos, y Gödel es, en primera línea, matemático-lógico y tiene un puesto justificado en la filosofía, sobre todo, en la filosofía de la matemática. Pero tanto uno como otro tienen una gran capacidad para combinar los resultados de la ciencia y de la filosofía. Y han coincidido en una empresa común: la fundamentación matemática.

Esta adquiere mayor relieve considerada una a la luz de la otra. La genialidad de Gödel está en su aportación matemática y lógica, su filosofía es un barrunto. Por el contrario, la de Zubiri está en su filosofía, la cual se apoya en las aportaciones matemáticas. Del mismo modo que se ha unido el nombre de Gödel al de Einstein, se puede unir a ambos un tercero: Zubiri. Física, matemática-lógica y filosofía no pueden marchar separadas como muestra la complementariedad de las aportaciones en sus respectivos campos.

La aportación de Gödel y la de Zubiri son dos hitos en la fundamentación de la matemática. De forma pública en 1952, se reconoció la importancia de K. Gödel. Los resultados obtenidos por éste han revolucionado la filosofía de la matemática, desde la luz que arrojan, las distintas escuelas de filosofía de la matemática: logicismo, intuicionismo y formalismo, resultan inadecuadas. Y, en general, ha revolucionado la filosofía tanto en su aspecto epistemológico como ontológico.

En concreto, la honda repercusión que tiene en Zubiri se advierte de inmediato por las numerosas veces que el Teorema de Gödel aparece mencionado en su obra. No sabemos, por falta de datos, en qué momento, entre 1931 (fecha del descubrimiento) y 1946 (fecha de la intervención de Zubiri en la Universidad de Princeton), Zubiri tuvo conocimiento exacto del descubrimiento de Gödel. Creemos que por primera vez, en los escritos publicados, lo menciona en el curso oral de 1953-1954, "El decurso vital", en el Problema del hombre, recogido en "Sobre el Hombre".

Zubiri, quizá como ningún otro filósofo, ha sabido sacar todas las consecuencias de estos resultados de lógica y matemática, de tal manera que su filosofía no sería la misma si no hubiera contado con ellos. Así puede constatarse con toda claridad que la filosofía de Zubiri se refuerza con los resultados de Gödel y éstos, a su vez, se interpretan fácilmente desde la filosofía de Zubiri.

Filosofía matemática original

La nueva filosofía de la matemática, elaborada en concordancia con los resultados de Gödel, es también sumamente original. Su descubrimiento filosófico capital es que la inteligencia matemática es sentiente. La revolución que resulta de la aportación de Zubiri es que la inteligencia concipiente se funda en la inteligencia sentiente y el ser en la realidad, y no al contrario, como se ha mantenido en la tradición filosófica. De ahí la necesidad de elaborar una filosofía sentiente de la matemática donde queden fundamentadas las filosofías concipientes de la misma

La filosofía de la matemática es afín en Gödel y Zubiri; ambos consideran la matemática como ciencia de la realidad. Si hemos visto que el abandono del objetivismo y el giro realista en Zubiri es debido, en gran parte, a la influencia de Gödel, es fácil suponer que los resultados matemáticos de éste influyen en primer lugar en su propia filosofía matemática. En efecto, Gödel mantiene un "realismo matemático"; critica la concepción matemática como sintaxis, tal y como defienden sus maestros Hahn, Schlick, Carnap; rechaza el convencionalismo en matemáticas por ser una interpretación insatisfactoria.

Afirma: "Pero, a pesar de su lejanía de la experiencia sensible, tenemos algo parecido a una percepción de los objetos de la teoría de conjuntos, como se puede ver por el hecho de que los axiomas mismos nos fuerzan a aceptarlos como verdaderos. No veo ninguna razón por la cual debamos tener menos confianza en este tipo de percepción, es decir, en la intuición matemática, que en la percepción sensible, que nos induce a construir teorías físicas y a esperar que futuras percepciones sensibles concuerden con ellas y, además, a creer que estas cuestiones no decidibles por el momento tengan significado y puedan ser decididas en el futuro".

Ya en 1930, Gödel en la Discusión sobre la fundamentación de la matemática en la cual participaron Hahn, Carnap, von Neumann, Scholz, Heyting, y Reidemeister, debatía las posturas clásicas del logicismo, formalismo e intuicionismo; y planteaba que la verdad y la consistencia no son equivalentes.

"Supuesta la consistencia de la matemática clásica, uno puede incluso ofrecer ejemplos de enunciados (del mismo tipo que los de Goldbach o Fermat) que son verdaderos en cuanto a su contenido, pero no son deducibles en el sistema formal de la matemática clásica. Por tanto, si añadimos la negación de un tal enunciado a los axiomas de la matemática clásica, obtenemos un sistema consistente, en el que es deducible un enunciado falso en cuanto a su contenido".

Ni nominalismo ni convencionalismo

Gödel se aparta, pues, del nominalismo y convencionalismo. En 1938, en La consistencia del axioma de elección y la hipótesis generalizada del continuo prueba que si los axiomas de la teoría de conjuntos son consistentes, también lo será el resultado de agregarles el axioma de elección y la hipótesis generalizada del continuo de Cantor, para ello se basa en el modelo de conjuntos constructibles; y esto unido al resultado de Cohen en 1963, mostrará la independencia de dichos axiomas. Sin embargo, Gödel no admite que esta independencia se justifique desde una postura convencionalista o nominalista.

En definitiva, ambos descubrimientos matemático (Gödel) y filosófico (Zubiri) se complementan, se iluminan mutuamente. Y la aportación común de la fundamentación de la matemática: realismo matemático y una inteligencia no-lógica de la matemática, es una flecha que atraviesa la fundamentación del conocimiento mismo. La vía de formalización y logificación de la matemática fracasa rotundamente ante la realidad de proposiciones verdaderas indecidibles en un sistema formal. La realidad matemática se resiste a ser deducida de un mero sistema finito de axiomas a través de unas reglas lógicas.

"La resistencia que las cosas ofrecen posibilita y fuerza al hombre a entenderse a sí mismo, a darse cuenta de ‘dónde está’. Así es como, al entrar en su presente, las cosas le dejan al hombre debatiéndose con su pasado. Y en este proceso, según sea la índole del choque, así es también el tipo de posibilidades que al hombre presente se le convierten en problema. No todo choque representa un momento de idéntica gravedad"

Al vernos forzados a entender las verdades matemáticas no como intuiciones ni como conceptos, la insuficiencia de nuestro concepto de inteligencia matemática se acusa con mayor gravedad. Esta es una dimensión del problema, la otra —respectiva a ésta— es la insuficiencia de nuestro concepto de objeto matemático que no es ni objeto-cósmico ni objeto-ideal. El choque con las verdades matemáticas no demostrables ni refutables en un sistema formal es la conmoción de la vía de la logificación de la matemática. Zubiri va a alumbrar una nueva noción de inteligencia y de realidad, que la matemática no puede proporcionarse a sí misma, sino sólo sugerir y esto no de forma unívoca; siempre hay que hacer una opción entre posibilidades, de ahí el carácter limitado de cada una de ellas.

Las posibilidades que el pasado otorga a Zubiri para fundamentar la matemática según las tres escuelas de filosofía de la matemática son la vía de la intuición y la vía lógico-formal. Si las examinamos a fondo, vemos que no son dos concepciones radicalmente opuestas sino que parten de una misma concepción de la inteligencia matemática: se trata de inteligencia sensible o concipiente, según la cual hay sentidos e inteligencia, y la inteligencia concibe lo que los sentidos le proporcionan. Hay una dualidad radical tanto si damos prioridad a la intuición como si se la damos al concepto. Zubiri ensaya otra vía: inteligencia sentiente.

Hemos visto que Zubiri cuando escribe su tesis doctoral en 1921 mantiene una concepción logicista-formal de la matemática, de acuerdo con la crisis de la intuición. A partir de 1931, los resultados de Gödel y su interpretación le han de llevar a unos planteamientos filosóficos nuevos. Va a suponer la conmoción de la Filosofía logicista de la matemática y la exigencia de una filosofía sentiente de la matemática. De tal manera marca un hito en la evolución del pensamiento de Zubiri que cabe hablar de la concepción "objetivista-ideal" de la matemática anterior a dicho teorema y la concepción ‘realista’ posterior al mismo.

Matemática inviable

La matemática, a la luz del descubrimiento de Gödel, resulta inviable como una secuencia de proposiciones verdaderas, puesto que hay algunas que no son "deducibles" del sistema de postulados y definiciones. La vía de formalización y logificación resulta una vía muerta. No es suficiente la vía lógica para acercarnos a las verdades matemáticas porque verdad no es demostrabilidad. Este es el nuevo reto de la filosofía zubiriana: fundamentar la nueva matemática. Para esta tarea no es adecuada ni la vía intuitiva ni la vía formal y lógica. ¿Qué nos queda? Si la crisis de la intuición nos condujo a la formalización y logificación de la matemática, ¿a dónde nos conducirá la conmoción de la formalización y la logificación de la matemática?

Gödel muestra en 1932, también en Sobre la teoría de números y la aritmética intuicionista que la matemática clásica es traducible a la matemática intuicionista, de este modo si ésta es consistente aquélla también lo es, según lo cual no resulta más arriesgada la matemática clásica que la intuicionista. Para Zubiri ni la inteligencia lógica ni la inteligencia intuitiva son adecuadas para la fundamentación de la matemática.

Esta situación intelectual de la fundamentación de la matemática a partir de Gödel le deja a Zubiri debatiéndose con la noción misma de inteligencia. Hacemos hincapié en esta idea porque, como Zubiri hace notar, no todas las crisis representan la misma gravedad. El choque es ahora más profundo incluso que el descubrimiento de las geometrías no-euclídeas. Éste alejó a la matemática de las ciencias empíricas asimilándola a la lógica; pero mientras se mantuviera la demarcación logicista entre ciencias empíricas y ciencias formales, no había unificación de la noción de inteligencia y de la estructura del saber. El Teorema de Gödel cuestiona esta demarcación en términos "concipientes", y ello nos lleva a un planteamiento radical de qué es inteligencia.

Por todo lo dicho, creemos que puede confirmarse nuestra hipótesis: los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Este horizonte es determinante para "engendrar" su primera concepción de estos problemas concretos; los desarrollos ulteriores deben, en muchos aspectos, más a las sugerencias de la biología, de la física y de otras ciencias.

En concordancia con Gödel, Zubiri elabora su filosofía de la realidad, entendiendo la realidad de un modo que viene determinado, sin duda, por sus resultados matemáticos. Es la etapa metafísica. Dejamos para más adelante el realismo de la matemática, basta decir ahora que rechaza la reducción de la matemática a la lógica. La influencia de Gödel en este giro zubiriano del objetivismo al realismo matemático se justifica también por el análisis comparado de los datos cronológicos respectivos.

“La insuficiencia de la lógica para aprehender la realidad matemática es resultado fundamental del teorema de Gödel, que, además de una nueva filosofía matemática, sugiere una nueva valoración del conocimiento y de la intelección en general”.

La logificación de la matemática y la idealidad-objetividad de su objeto han sido los dos errores de la tradición formalista y logicista de la matemática (y del primer Zubiri), y el choque con los resultados de Gödel nos llevan a "inteligización" de la lógica matemática y a la reificación de su objeto (filosofía del segundo Zubiri).

Zubiri interpreta toda la tradición filosófica europea haciendo uso de la misma clave que ha experimentado en el campo de la matemática: la logificación de la intelección matemática (la lógica funda la matemática) y la entificación de la realidad matemática (el objeto de la matemática es un ser ideal) se han estrellado, dejando al matemático y al filósofo cuestionándose el problema mismo de la inteligencia. Generalizando, nos dice Zubiri que la vía emprendida desde los griegos es la logificación de la intelección y respectivamente la entificación de la realidad.

Revolución filosófica

La revolución matemática nos conduce, en gran parte, a la revolución filosófica. La filosofía de Zubiri supone una inversión en el orden de la fundamentación de la tradición: el logos no funda la inteligencia, ni el ser funda la realidad sino, por el contrario, es la inteligencia quien funda el logos y la realidad quien funda el ser. Es lo que denominamos la revolución zubiriana, que es, en gran medida, la extensión filosófica de la revolución gödeliana y tiene justo el signo inverso a la que se opera en Kant bajo la denominación de "revolución copernicana". El principio último del conocimiento es la realidad. Como veremos, se trata de un realismo trascendental.

"No se puede entificar la realidad, sino que por el contrario hay que reificar el ser... No se puede logificar la intelección, sino justamente al revés: hay que inteligizar el logos." Esta es la idea central de todo el pensamiento de Zubiri y vemos el sorprendente isomorfismo entre la intelección matemática y la intelección en general.

La hipótesis de trabajo de Guillermina Díaz es que Zubiri se dirige a la matemática contemporánea para que le sugiera una visión más profunda de la inteligencia. Y este es el gran problema de la filosofía: "El problema de la filosofía no es sino el problema mismo de la inteligencia". Así pues, la matemática gödeliana es un presupuesto ineludible de la Filosofía de la realidad y de la "noología" de Zubiri.

La suma total de todas las totalidades/partes, no es una totalidad en si misma

Pero hacia arriba, también todo esta compuesto de “tortugas”. Las paradojas y los teoremas enunciados y comentados, han colocado a las matemáticas en un universo irreversible, eternamente en expansión y sin límite superior. A eso conduce precisamente la conclusión del lógico-matemático austriaco, naturalizado norteamericano, e íntimo de Einstein.

La totalidad de los conjuntos no puede ser el final de un proceso generativo bien definido, porque si lo fuera, podríamos tomar todo lo generado hasta entonces como un gran conjunto y continuar generando universos aun mayores. La totalidad de los conjuntos u holones matemáticos es una totalidad absoluta o “no condicionada”, que por esa razón no puede ser entendida adecuadamente por la mente, ya que el objeto de una concepción normal siempre puede ser incorporado a una totalidad más inclusiva. Recuérdese que el mundo de las ideas platónico no tenía dimensiones.

Además, los conjuntos están dispuestos en una jerarquía transfinita lo que significa una holarquía que continua hacia arriba por siempre, y debe continuar hacia arriba para siempre, “transfinitamente” porque en caso contrario las matemáticas llegarían a una contradicción que las haría detenerse. Incluso el mundo matemático observa una dirección temporal y su flecha temporal es indefinidamente, transfinitamente holárquica.

Estos conceptos son importantes también para la filosofía y en particular para muchos de los paradigmas de la comercial, camelística y socio- conformista New Age, que actualmente proclama el holismo sin saber muy bien lo que dice. Transfinito, significa que la suma total de las totalidades/partes en el universo no es una totalidad en sí misma, porque en el momento en que lo fuera esa totalidad sería una parte de la del momento siguiente que a su vez es solo una parte de la siguiente y así ad infinitum.

Siempre habrá una totalidad/parte más inclusiva hasta llegar al límite, que por cierto nadie sabe donde se halla y que algunos sitúan con evidente pretensión metafísica fuera del universo/universos de los que hemos hablado, y por ende del tiempo y el espacio. Sin entrar a elucidar una cuestión tan complicada, reunidas las flechas del tiempo como ya hemos visto, creo que cometeríamos un grave error si estableciésemos para ella una dirección –en cálculo vectorial, trayectoria- que fuese lineal. Nosotros la intuimos mas como una espiral –dinámica espiral- a modo de solenoide circular de manera que el llamado infinito hacia arriba y el infinito hacia abajo convergen en un único infinito –en realidad infinitos puntos- de un círculo, eso si infinito, donde cada retorno –eterno retorno nietzscheano- se represente por las vueltas de la espiral.

Contra la totalidad y el totalitarismo

Abordamos ahora una cuestión esencial: el totalitarismo desde el ecologismo. Evitar una totalidad dominante y globalitária es importante ante la aparición de un concepto muy peligroso y muy bién enmascarado, sobre todo por la tentación permanente de utilizarlo con fines ideológicos, lo que quiere decir que alguien puede querer convertirnos en meras partes de la versión particular de su “todo” y en meros hilos de su red a la vez que quedemos totalmente sometidos a su visión y poder.

A estos holístas, les gusta ingeniar utopías sociales y en este sentido nos preocupan sobre todo los ecologistas profundos y determinados ecofilósofos rechazan la industrialización y buena parte de la agricultura y muchos aspectos positivos que conlleva el progreso tecnocientífico. Si tienen razón o no es discutible, pero creo que al pretender abarcar el todo, rechazan gran parte de la existencia y de la propia evolución.

En otras palabras, como no hay nada a lo que se pueda llamar totalidad última, quienes la proponen han de proporcionarle un contenido que, al no poderse basar en la realidad, tiene que sustentarse en una determinada ideología. Y si como antes decíamos somos hebras de su “supuestamente maravillosa” red, parece sumamente razonable que nos propongan -por no decir impongan-, un programa social totalizador. No esta por demás indicar, que teóricos tan opuestos como Habermas o Foucault, han visto en estos programas totalizadores el principal enemigo moderno del mundo de la vida y la libertad.

Por todas estas razones rechazamos, el concepto de la totalidad y entendemos que el concepto de todo -que es suma de totalidades/partes, y no es en sí mismo una totalidad, ya que automáticamente nuestro propio pensamiento añade siempre un holón más, y así indefinidamente- es un imposible porque nunca hay un todo, sino una serie sin fin de totalidades/partes y así transfinitamente.

La vuelta al Kósmos griego

Los pitagóricos introdujeron el término Kósmos, que habitual e irreflexivamente traducimos como cosmos, para significar la naturaleza estructurada o proceso de todos los dominios de la existencia, desde la materia hasta las matemáticas o hasta las divinidades. No para describir el universo físico, que es su plana y unidimensional acepción actual, el cosmos con “c” y con minúscula.

Nos gustaría volver a introducir este término Kosmos. Él contiene al cosmos -o fisiosfera-, al bios -o biosfera-, y al nous -o noosfera-, donde ninguno de estos niveles es más fundamental que los demás, sino pura armonía de ascenso y descenso, por un mismo sendero, en equilibrio perfecto.

Podemos resumirlo así: el Kosmos esta compuesto de holones, de arriba abajo y de abajo a arriba, transfinitamente, circularmente.

La filosofía post-moderna o trans-moderna es anti-totalitaria y anti-globalitaria. Es abierta.

Nos parece pertinente proponer un ejemplo que tiene un origen tal vez provocador y sorprendente. Del post-estructuralismo postmoderno, grupo al que se suelen asociar nombres como Derrida, Foucault, Lyotard y, retrocediendo hacia el pasado, autores como Bataille y Nietzsche, que han sido enemigos de cualquier tipo de teoría sistemática o gran narrativa, podía esperarse que elevasen obstinadas objeciones a la teoría general holárquica. Pero si examinamos muy de cerca su trabajo, vemos que está sutilmente dirigido precisamente por el concepto de holones dentro de otros holones, etc.; o de textos dentro de textos, o de contextos dentro de otros contextos, y así sucesivamente. Y es este juego deslizante de textos dentro de textos, es el que constituye la “plataforma móvil” desde la que lanzan sus ataques.

Consideremos un texto de George Bataille: “cada elemento aislable del universo aparece siempre como una partícula que puede entrar en la composición de un todo que la trasciende. El ser se encuentra únicamente en la forma de totalidad compuesta de partículas cuya autonomía relativa se mantiene. Estos dos principios -simultáneamente totalidad y parcialidad- dominan la incierta presencia de un ser ipse, que desde la distancia nunca deja de ponerlo todo en cuestión” (La cita viene tomada del artículo Lo Sagrado en Vision of Excess. Selected Writing, 1927-1939).

Todo es puesto en cuestión, porque todo es un contexto dentro de otro contexto, eternamente. Y los post-estructuralistas posmodernos son conocidos por ponerlo todo en cuestión.

Otra cita del mismo autor y artículo:“con el miedo extremo que se convierte imperativamente en una demanda de universalidad, arrastrado hasta el vértigo por el movimiento que lo compone, el ser ipse, que se presenta como universal es sólo un desafío a la difusa inmensidad que escapa de su precaria violencia, la negación trágica de todo lo que no es su propia fortuna de fantasma desconcertado. Pero como hombre, este ser cae en los meandros del conocimiento de los demás humanos que absorben su sustancia para reducirla a un componente que va más allá de la violenta locura de su autonomía en la noche total del mundo”.

La cuestión no es que Bataille no tuviera ningún tipo de sistema, sino que éste era deslizante: holones dentro de holones. André Bretón, importante líder de los surrealistas de aquel momento, lanzó un contraataque en términos que aún resuenan en los críticos modernos de la postmodernidad: “la desgracia del señor Bataille es la siguiente: razona abiertamente como alguien que tiene una mosca parada en la nariz, lo que le asemeja más a los muertos que a los vivos, pero aun razona; intenta compartir sus obsesiones con la ayuda del pequeño mecanismo que todavía no tiene completamente estropeado: este mismo suceso prueba que, diga lo que diga, no puede oponerse a cualquier sistema como si fuera una bestia sin pensamiento”.

Sistema holárquico

En ciertos sentidos, ambos aspectos son correctos. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. En su obra “Sobre la deconstruccion”, el pensador americano Jonathan Culler, uno de los mejores intérpretes de sistema deconstuctivo de Jacques Derrida, utiliza esta idea y le permite señalar que el filósofo francés no niega la verdad per se sino que insiste en que esta y el significado, están ligados a un contexto -a riesgo de ser pesados, recordamos que cada contexto es un todo que a su vez es parte de otro, que a su vez...

Culler afirma: “uno podría, por tanto, identificar la deconstruccion con los principios gemelos de la determinación contextual del significado y la infinita extensibilidad del contexto”.

La obra de Jacques Derrida es amplia y destacaríamos de él, obras como “La escritura y la diferencia”, “La diseminación”, “De la gramatología”, “Posiciones”, “La tarjeta postal” y más recientemente, “Espectros en Marx” y “Políticas de amistad”.

En la filosofía de Derrida se utiliza un método llamado deconstruccion. Mediante él, se inicia una investigación fundamental sobre el carácter de la tradición metafísica occidental y sus fundamentos. A simple vista, los resultados de dicha investigación parecen revelar una tradición llena de aporías lógicas y paradojas. Un buen ejemplo es el que a continuación enunciamos, aplicado a la filosofía de Rousseau.

Rousseau afirma, en cierto momento, que sólo debería escucharse la voz de la naturaleza. Esta naturaleza constituye una plenitud a la que no puede añadirse o sustraerse nada. Pero nos advierte del hecho que la naturaleza a veces tiene carencias, como ocurre cuando una madre no tiene suficiente leche para nutrir el niño que amamanta. Estas carencias pueden considerarse algo bastante corriente en la naturaleza, y constituyen una de sus características más significativas.

De modo que, a juicio de Rousseau, la naturaleza también tiene carencias, nos dice Derrida en su “De la Gramatología”. La carencia pone en peligro esa autosuficiencia, es decir, la identidad, o como prefiere decir Derrida, la autopresencia de la propia naturaleza. Esta sólo puede preservar su autosuficiencia si se cubre esa carencia. Sin embargo, de acuerdo con la lógica de la identidad, si la naturaleza requiere un complemento no puede ser autosuficiente -idéntica a sí misma-, porque carencia y autosuficiencia son opuestas.

El no-origen

La base de una identidad puede consistir en una u otra, pero no en ambas, si es que se quiere evitar una contradicción. Este ejemplo no es una excepción. La impureza de esta identidad o la destrucción de la autopresencia, son realmente inevitables. Porque en términos generales, en cualquier orden aparentemente sencillo, existe como condición de posibilidad, un no-origen. Los seres humanos necesitan la mediación de la conciencia o el espejo del lenguaje para conocerse a sí mismos y conocer el mundo.

Pero esa mediación del espejo, esas impurezas, tienen que quedar excluidas del proceso de conocimiento; lo hacen posible, pero no están incluidas en él. O, si la están, como en la filosofía de los fenomenólogos, pasan a equivaler, también ellas -conciencia, subjetividad, lenguaje- a una especie de presencia idéntica a sí misma.

El propósito de la deconstruccion no es solo demostrar que las leyes del pensamiento, desde el punto de vista filosófico presentan carencias. Más bién, la tendencia que se observa en la obra de Derrida es la preocupación por producir efectos, abrir el campo filosófico para que pueda seguir siendo él, el espacio de la creatividad y la invención.

Bien, tortugas todo el recorrido hacia arriba y hacia abajo. Lo que la decontrucción cuestiona es la de encontrar un lugar último de descanso, ya sea en la totalidad, en la parcialidad o en cualquier lugar intermedio. Cada vez que alguien encuentra la interpretación final o fundamental de un texto -o de la vida, de la historia o del kósmos- siempre esta a mano la deconstruccion para decir que el contexto total - o interpretación holística - no existe porque es parte de otro texto, infinitamente, para siempre. Culler lo expresa así: “el contexto total (holismo definitivo) es imposible de denominar tanto como principio como en la práctica. El significado esta ligado al contexto, pero este es ilimitado”. Tortugas transfinitas, diríamos nosotros.

En su obra, El discurso filosófico de la modernidad, Jürgen Habermas, que generalmente discrepa con las posiciones de Bataille y Derrida, está, sin embargo de acuerdo con ellos en un punto muy concreto.

Él lo expresa así: “por principio estas variaciones de contexto que cambian el significado no pueden ser detenidas porque los contextos no pueden ser agotados, es decir, no pueden ser determinados teóricamente de una vez por todas”.

El hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.

En cuanto a nuestro viaje, solo debemos señalar que si hay sistema pero que es deslizante: el Kósmos es un Todo sin fin y el Todo esta compuesto por holones.
Javier Del Arco
Lunes, 15 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

22votos

El Tesoro de la alfombra mágica

La realidad no esta compuesta de cosas o de procesos, ni de átomos ni de quarks. No está compuesta de totalidades ni tampoco de partes. Más bien esta compuesta de totalidades/partes, es decir, de holones. Arthur Koestler acuño el término holón para referirse a aquello que, siendo una totalidad en un contexto, es simultáneamente una parte en otro contexto.



Ken Wilber
Ken Wilber
Va a hacer diez años que llevo dándole vueltas a un sistema cuya paternidad no es del todo mía, ya que en puridad su gestador es el sabio –no encuentro otro término más preciso para definirlo- norteamericano Ken Wilber, cuya propuesta más acabada se remonta a 1995, cuando apareció plasmada en el volumen I de la obra Sex, ecology, spirituality: the sprit of evolution, dividida a su vez en dos libros.

A este primer volumen deberían haberle seguido otros dos pero, pese a que después se han publicado varias obras de éste autor, ninguna ha alcanzado la relevancia de lo que debería haber sido su opus magnum, esa es la verdad.

La obra de Wilber es de difícil recepción para el público académico europeo y, para ser presentada a éste, necesita una formalización, una criba y cierta actualización y reformulación ya que resulta excesivamente heterodoxo, a veces muy dogmático y poco riguroso, y no siempre bebe en las fuentes más puras y originarias de los autores que comenta; esto ocurre nada menos con Platón en filosofía y con la Teoría de la Evolución en biología que son interpretados tan libérrimamente que ciertas afirmaciones –contracciones conceptuales, trazos inacabados, piruetas filosóficas, simplificaciones excesivas…- inducen a confusión.

Sin embargo negar la influencia decisiva de Wilber en el trasfondo de mi obra contendría por mi parte un doble pecado: el de la estupidez y el del desagradecimiento, ambos, sobre todo el primero, imperdonables. En este blog de Biofilosofía pretendo rescatar lo mejor del Wilber menos esotérico y más riguroso y, a partir de unas ideas centrales, construir una teoría maciza y aceptable que de una cierta respuesta a algunas de las cuestiones centrales que hoy afectan gravemente a nuestra Tierra Patria como diría Edgar Morin.

Holones y contexto

Realizada esta aclaración, enlacemos con el articulo anterior, aún a riesgo de repetirnos –no me preocupa nada repetirme en filosofía si consigo apuntalar bien un concepto subordinando la elegancia a la eficacia comprensiva- y volvamos con la cuestión de la jerarquía.

¿Qué significa realmente la palabra jerarquía? Procede del griego por unión de los términos hierós y archo. Hierós, el prefijo, significa sagrado, separado; archo, el sufijo, se refiere al gobierno o autoridad. El poder religioso y el político estuvieron unidos siempre en la historia del llamado “creciente fértil” y esta característica impregnó, primero a los griegos -tras la expansión alejandrina- y luego a los romanos, después de sus conquistas orientales.

El cristianismo fue, de entre todas las religiones mistéricas que florecían en el siglo IV, la única que perduró -asociada al poder tras Constantino I- hasta nuestros días. Por esa vía se produjo el entrelazamiento entre lo religioso y lo político, de modo que la gestión de la cosa pública quedó situada en Occidente –hasta bien entrado el siglo XVIII- en la esfera del hierós, de lo sagrado, de lo separado que se solapaba con la esfera del archo, el gobierno, la autoridad.

La jerarquía quedaba, en la macroesfera de lo social, desvirtuada y desprestigiada por la asociación del poder y la religión que otorgaba al gobernante poderes absolutos, por lo tanto tiránicos y, por ende, se generaba una corrupción absoluta propia de todo régimen totalitario. Martineau señalaba lúcidamente en 1851 que “un planteamiento jerárquico podía degenerar fácilmente en otro despótico”.

Estas cuestiones relacionadas con la tiranía, la opresión y la muerte, que parecían haberse solucionado parcialmente en Occidente tras la II Guerra Mundial y, sobre todo tras la caída del Muro de Berlín, subsisten en la mayor parte del Mundo con la excepción de la Unión Europea de los veinticinco, alguno de sus países limítrofes como Suiza o Noruega, ciertos países de la Commonwhealt –especialmente Canadá, Australia y Nueva Zelanda- y con alguna reserva los Estados Unidos y, de manera intermitente e incompleta, algunos países Iberoamericanos.

Jerarquía y religión

Pero el término jerarquía, tal y como se emplea hoy en día en el ámbito de las ciencias, sobre todo en psicología, biología evolucionista y teoría de sistemas, nada tiene que ver con la religión ni con la política y mucho menos con sus espurios ayuntamientos. Una jerarquía, expresada en términos científicos, es una escala de órdenes de sucesos de acuerdo a su capacidad holística.

En cualquier secuencia de desarrollos, lo que es totalidad en un estadío se hace parte de un todo mayor en el estadío siguiente. Una letra es parte de una palabra completa, que es parte de una frase completa, que es a su vez parte de un párrafo completo, y así sucesivamente.

En el caso de las ciencias biológicas Howard Gardner, en su obra Quest for mind, lo explica del siguiente modo:

Cualquier cambio en un organismo afectará a todas las partes; no se puede alterar ningún aspecto de una cierta estructura sin que afecte a su totalidad; cada totalidad contiene partes y es a su vez parte de una totalidad mayor.

Para el lenguaje Roman Jakobson establece lo siguiente: El fonema es una combinación de rasgos distintivos; esta compuesto por diversas unidades indicadoras y puede ser incorporado a unidades más amplias como sílabas o palabras. Es simultáneamente un todo compuesto de partes que se incluye en totalidades más amplias.

Parte de un todo

Arthur Koestler acuño el término holón para referirse a aquello que, siendo una totalidad en un contexto, es simultáneamente una parte en otro contexto. Si consideramos la frase “el relinchar de los caballos”, la palabra relinchar es una totalidad en relación a cada una de sus letras consideradas individualmente consideradas, pero una parte en relación con la frase que la contiene.

El todo –o contexto- puede determinar el significado o función de la parte. Veamos un ejemplo muy claro: el significado de una palabra, Vg., banco, es muy diferente en el contexto “en el jardín ese es mi banco” que en este otro contexto: “hice la transferencia desde mi banco”. Consecuentemente, la totalidad es más que la suma de sus partes y esa totalidad puede influir y determinar en muchos casos la función de estas.

Una jerarquía cualquiera, está formada por un orden de holones creciente que representan un aumento de totalidad y capacidad integradora: la serie átomos, moléculas, células…constituye un ejemplo de jerarquía natural; la jerarquía es un concepto central en la teoría de sistemas.

Ser parte de un todo mayor significa que ese todo proporciona algún principio –como el pegamento que antes aludíamos- que no se encuentra en las partes aisladas, y ese principio permite varias cosas: que las partes se unan, se conecten, posean propiedades comunes y emerjan nuevas cualidades ausentes en las partes.

La jerarquía, vista así, es un factor que da sentido ya que convierte las acumulaciones en totalidades y los fragmentos inconexos en redes de interconexión. Cuando decimos que el todo es mayor que la suma de sus partes, este “mayor” significa jerarquía.

No significa dominación totalitaria: significa una más alta o más profunda comunidad –y esta es una de las justificaciones del comunitarismo de McYntire aunque él no lo haya expresado así- que reúne las hebras aisladas en una red real.

Jerarquía y totalidad son términos contiguos. Para las ciencias biológicas, Gardner dice: Un organismo biológico es visto como una totalidad cuyas partes están integradas en un todo jerárquico.

Para la lengua, Jakobson manifiesta que ésta es: Simultáneamente una totalidad compuesta de partes y ella misma una parte incluida en un todo mayor.

Para inmediatamente concluir: Jerarquía, entonces, es el principio estructural fundamental.

Figuras dentro de figuras

También es la razón por la que las jerarquías se representan a menudo como una serie de círculos concéntricos, o esferas también concéntricas, o bien “figuras dentro de figuras”. El esquema general de niveles no debe ser contemplado como una serie de estratos geológicos o como si se tratase de los peldaños de una escalera.
Complejas interrelaciones

Estas imágenes no hacen justicia a las complejas interrelaciones existentes en el mundo real, que son mucho más parecidas a las halladas en un juego de cajas chinas o en una serie de esferas concéntricas, ya que un nivel dado puede contener otros niveles dentro de él.

Tampoco las jerarquías son lineales. Los estadíos del crecimiento no son casuales ni aleatorios, sino que se rigen por algún tipo de pauta, que no es ni lineal, ni rígida, ni unidireccional. Estos procesos son interdependientes y complejamente interactivos. Los términos “nivel”, “escala” o “estrato” son meras metáforas.

La jerarquía es asimétrica porque los procesos no ocurren a la inversa. Las bellotas crecen hasta convertirse en encinas pero no al revés; el cigoto humano se desarrolla hasta convertirse en un nasciturus pero el conjunto ya formado y a punto de ser alumbrado, no puede iniciar el recorrido inverso que le devuelva al estado de cigoto.

En lingüística primero hay letras, luego palabras, después frases, pero no al revés Y este “no al revés” constituye una inevitable jerarquía, categoría u orden asimétrico de totalidades crecientes. Todas las secuencias del desarrollo evolutivo proceden por jerarquización, tanto a nivel orgánico como si retrata del desarrollo cognitivo.

En este último, observamos que la conciencia se desarrolla desde imágenes simples que representan un día o un suceso, hasta símbolos y conceptos que representan grupos enteros o clases de cosas y sucesos, hasta postular leyes que integran y organizan numerosas clases y grupos de cosas en redes complejas.

En el desarrollo moral encontramos un razonamiento que va desde el sujeto aislado hasta el grupo o tribu de sujetos relacionados, y después hasta toda una red de grupos más allá de cualquier elemento aislado.

Redes jerárquicas

Estas redes jerárquicas se despliegan necesariamente de manera secuencial o por niveles. Primero son los átomos, luego las moléculas, para después aparecer las células, y después órganos, los tejidos, los sistemas y, con posterioridad, los organismos complejos. La aparición de estas redes no es simultánea. El crecimiento tiene lugar por etapas, y estas están escalonadas en orden lógico y cronológico.

Las estructuras más holísticas o relacionales aparecen en una fase posterior del desarrollo porque han de esperar la emergencia de las partes capaces de integrar o unificar, de la misma forma que las frases completas sólo surgen después de que lo han hecho las palabras completas.

Algunas jerarquías implican un tipo de red o redes de control. Veamos: los niveles inferiores –niveles menos holísticos-, pueden influenciar a los niveles superiores –o más holísticos-, a través de un proceso llamado “causación ascendente”.

Pero los niveles superiores, asimismo, pueden influir y de hecho controlar a los inferiores, la llamada “causación descendente”. Ejemplo: si decidimos mover el brazo, todos sus átomos, moléculas y células se moverán con él; este es un caso de causación descendente.

Heterarquía

Los elementos de un determinado nivel, situado en un contexto jerárquico, operan por heterarquía, es decir que en ese nivel ninguno de esos elementos parece ser más importante y, cada uno contribuye de manera más o menos equivalente al buen funcionamiento de la totalidad del nivel (el llamado “bootstrapping”).

Una totalidad de orden superior T1 del que otra totalidad T2 sea una parte, puede ejercer una influencia definitiva sobre cada uno de sus componentes. Ejemplo: Cuando decidimos mover un brazo, nuestro cerebro/mente, una organización relacional u holística de orden superior, ejerce su influencia sobre las células de dicho brazo que son totalidades de orden menor, pero no al revés: una célula de un brazo no puede decidir por si sola mover el brazo, de la misma manera que la cola no mueve al perro. De lo dicho se deduce: dentro de cada nivel, heterarquía; entre niveles, jerarquía.

En cualquier secuencia de desarrollo o crecimiento, a medida que surge un estadío u holón más amplio, este incluye las capacidades, patrones y mecanismos de funcionamiento de los holones situados en niveles inferiores. Entonces, en ese nuevo nivel, se producen nuevas propiedades que lo amplifican.

En este sentido y, recalcamos, sólo en ese sentido, se puede decir que el nuevo holón es bien más elevado o bien más profundo. Altitud y profundidad implican la dimensión vertical de integración que no se encuentra en una nueva expansión horizontal. Los organismos incluyen células, que incluyen moléculas, que incluyen átomos, pero no al revés.

Así, cualquiera que sea la importancia del valor del estadío previo, el nuevo estadío lo tiene incorporado en su propia formación, y además tiene “algo más” –más capacidad de integración, por ejemplo-, y “ese algo más” significa más valor en relación al estadío previo. Sería Aristóteles quien habría introducido estas nociones en Occidente, mientras que en Oriente lo habrían hecho Shankara y Lao Tse.

Por todo ello, Koestler, después de darse cuenta de que todas las jerarquías están compuestas de holones o grados crecientes de totalidad, señaló que tras todas estas consideraciones, el término científico más correcto para designar una jerarquía natural o social no sometida a patología alguna, es el de holarquía.

La teoría holónica y los principios de conectividad

A continuación vamos a sistematizar en un conjunto de conclusiones o principios básicos lo que podríamos llamar las “pautas de la existencia”, “tendencias de la evolución”, “leyes de la forma” o “propensiones de manifestación”. Estos principios básicos operan en los tres dominios de la evolución y por lo tanto, son tendencias que hacen que este universo -uni-versum, una vez-, o lo que es lo mismo, un pluralismo emergente entrelazado todo él por patrones comunes que denominaremos a partir de ahora leyes de conexión o mejor aún, patrones de conectividad.

Hemos dudado mucho en utilizar el término ley, patrón o hábito estable del universo. Para los alcances de lo que ahora vamos a examinar, nos conformamos con que sea esto último. Utilizaremos el término principio, que nos parece menos altisonante, y comenzaremos por decir que los que vienen a continuación, están extraídos de las ciencias evolutivas y sistémicas modernas, pero haciendo hincapié en que no que no se limitan a dichas ciencias y que van más allá de ellas.

Inicialmente, el problema con que nos encontraremos para destacar los principios comunes existentes en los tres dominios de la evolución, proviene de que estos se presentan en el lenguaje del naturalismo objetivo -el lenguaje de “ello”, el neutro en tercera persona-, y fracasan estrepitosamente cuando son aplicados a los dominios descritos solamente en el lenguaje del “yo” –estética- o del “nosotros” –ética-. Cada uno de los intentos que hemos considerado en orden “a hacer un sistema unificado”, padece de esta minusvalía.

Por lo tanto, siendo muy cuidadosos y a veces pesados y reiterativos, hemos llevado estos principios a un nivel y tipo de abstracción que nos parece compatible con los lenguajes del “ello”, del “yo” y del “nosotros” -o lo verdadero, lo bello y lo bueno, expresión que tomo de Bertrand Rusell ya que, divertido como siempre, decía que lo verdadero era lo suyo, lo bueno era lo de Spinoza y lo bello lo reservaba para Plotino- de forma que la síntesis pueda continuar suavemente hacía dominios en los que, en presentaciones anteriores la teoría de sistemas, se procedía a realizar un agresivo reduccionismo en sus propios términos naturalistas y objetivantes.

Realidad de holones

La realidad no esta compuesta de cosas o de procesos; no esta compuesta ni de átomos ni de quarks; no esta compuesta de totalidades ni tampoco de partes. Más bien esta compuesta de totalidades/partes, es decir, de holones.

Esto es verdad para partículas, átomos, células, individuos, símbolos, ideas,... Todos ellos pueden ser entendidos no como cosas o como procesos, y tampoco como totalidades ni como partes, sino como totalidades/partes, simultáneamente. Así, los intentos habituales de estudio y clasificación tanto si son atomistas como holísticos, están fuera de lugar.

Antes de que un átomo sea un átomo, es conceptualmente un holón y lo mismo ocurre en los siguientes estadíos evolutivos. Todos ellos son totalidades que existen dentro de otras totalidades y de esta forma, en primer lugar y sobre todo, son totalidades/partes mucho antes de que sus “características particulares” puedan ser analizadas por nosotros.

De la misma manera ocurre con la realidad que podría estar compuesta de procesos y no de cosas. El intento de decidir si las unidades básicas de la realidad son cosas o procesos están fuera de lugar, porque sea como fuere, son holones y centrarnos en uno u otro de estos aspectos hace que nos desviemos del tema central. Evidentemente, existen cosas y procesos pero todos y cada uno de ellos son holones.

Por tanto, podemos examinar lo que los holones tienen de común entre sí. Esto nos libera del vano intento de encontrar procesos o entidades comunes en cada nivel y en cada dominio de la existencia, porque ese análisis nunca dará resultado: siempre lleva al reduccionismo y no a una verdadera síntesis.

Si decimos que el universo está compuesto de quarks, privilegiamos a un dominio en particular. Igualmente, en otro extremo del espectro, decir que el universo está compuesto de símbolos por es todo lo que conocemos, también supone privilegiar a otro dominio concreto.

Hasta la literatura

Pero decir que el universo está compuesto de holones no privilegia ningún dominio, ni implica que un nivel específico sea más fundamental. Por ejemplo la literatura -que no la letra escrita en un papel en cuanto tinta conformada- no está compuesta de partículas subatómicas; pero tanto la literatura como las partículas subatómicas están compuesta por holones.

Empezando con la noción de holón y procediendo por medio de una combinación de razonamientos a priori y de pruebas a posteriori, podemos intentar discernir lo que todos los holones conocidos parecen tener en común.

Estas conclusiones se van refinando y revisando al examinar cada uno de los dominios, desde la biología celular hasta las estructuras físicas disipativas, desde la evolución cósmica hasta el crecimiento psicológico, desde los dominios autopoiéticos hasta la fabricación de programas de ordenador, desde la estructura del lenguaje hasta las réplicas del ADN.

Como todos estos dominios operan con holones, podemos intentar discernir lo que estos holones tienen en común cuando interactúan, cuales son sus leyes, hábitos o tendencias. Vamos pues a ello en las próximas notas.
Javier Del Arco
Miércoles, 26 de Abril 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

15votos

El Tesoro de la alfombra mágica

Si los marcos de referencia son inevitables -somos holones dentro de holones, contextos dentro de contextos- y si estos marcos de referencia implican distinciones cualitativas, y si también, inevitablemente, estamos implicados en juicios jerárquicos, podemos empezar a unir estos juicios con las ciencias de la holarquía y el resultado será que los valores y los hechos ya no estarán divorciados de forma automática.



Jürgen Habermas
Jürgen Habermas
Dado que Jürgen Habermas va a estar presente en la trama profunda de este blog, hemos creído conveniente trazar un breve perfil de este polifacético filósofo, quizá el más importante del mundo occidental actual que aún esta vivo y activo.

Caracteriza la obra del pensador de Dusseldorf, su rigor en la teoría, el planteamiento interdisciplinario y su lectura nada sencilla. La temática de su reflexión es tanto filosófica como sociológica, pero también es científica y política. Sus fuentes ideológicas han sido plurales, desde Heidegger a la Escuela de Francfort -de la que se le considera el último representante-, naturalmente Marx, pero también, y por la vía de la sociología entraría en contacto con las obras de Durkeheim, Weber y Parsons.

Su faceta erudita le lleva a conocer a fondo la hermenéutica de Gadamer y también la teoría del lenguaje y la teoría analítica de la ciencia. Considera el pragmatismo americano –sobre todo Peirce, pero también Dewey y Mead- como una propuesta interesante para compensar las debilidades de la teoría marxista de la sociedad. Todo ello, incluido el programa de Chomsky y la teoría de la acción lingüística de Austin, sistematizada por Searle, le conducirá a la idea de una pragmática universal, plasmada en su obra cumbre: la Teoría de la acción comunicativa.

Habermas rechaza de plano la “irracional” racionalidad instrumental, aquella que sólo atiende a medios descuidando el análisis de los fines, como la más lamentable y dolorosa consecuencia, en el sentido estricto de la palabra, del proyecto moderno plasmado de manera torcida pero inevitable en el siglo XX en dos terribles realidades: estalinismo y nazismo.

Ilustración radical y liberal

El estalinismo, como señala el criticado Zizek, aunque aquí acierta de pleno, es una Ilustración radical ya que existe un potencial opresivo totalitario en la Ilustración moderna europea. Pero es que el fascismo es también un producto derivado de la Ilustración liberal, en este caso conservadora. Cuando esta se sintió amenazada en Italia, Alemania, Portugal, España y otros países europeos se tornó nacionalista y, sobre todo, temerosa de su situación económica.

Zizeg se equivoca cuando piensa que el fascismo es algo realmente enigmático y desconocido. No fue tal. Fue, ni más ni menos, la reacción de la burguesía liberal en condiciones extremas de inseguridad física y económica. Ante esta situación hubo, y siempre suele haber, dos masas y un tercero.

En la Alemania de Weimar había radicalidad extrema en la masa socialdemócrata y comunista, había violencia, crisis económica agudísima, frustración nacional y terror en la amplia y culta burguesía alemana; su reacción fue renunciar a sus aspiraciones primigenias y, para salvar su status, entregar el poder a una cuadrilla de rufianes, los nazis, al principio muy minoritarios pero que subieron como la espuma ante la crisis moral de la columna vertebral del pais, la burguesía liberal-conservadora, aquella que lo había hecho fuerte en cultura, pensamiento, ciencia y tecnología.

Habermas, se esfuerza con desesperación incluso, por encontrar en el ámbito intersubjetivo de la comunicación, la clave que permita reanudar con nuevos mimbres el proyecto Ilustrado, la modernidad, reinterpretarla, potenciar sus luces, extirpar las raíces del mal que pueda llevar en su seno, y realizarla. Habermas no renuncia a la modernidad, sino que propone reformarla a fondo y relanzarla.

La distinción entre la acción racional con orientación utilitaria, el trabajo, de la interacción simbólicamente mediada, la acción comunicativa, apunta al desarrollo de una teoría de la comunicación de nuevo cuño, mucho más allá de reelaboraciones de corte francfortiano. De Hegel, rescata la noción de “reconocimiento del otro” para fundar el concepto de una Razón dialóguica cuyo ámbito sea el lenguaje, único lugar donde se efectua la síntesis yo-naturaleza, yo-mundo.

Carácter “interesado” de la ciencia

Para escapar de las trampas del positivismo, admite el carácter “interesado” de la ciencia, señalando que el conocimiento no es neutral y reconoce tres intereses científicos: El primero, es el Técnico, propio de las ciencias empíricas; el segundo es el Práctico, orientador de la acción por su comprensión del sentido de las ciencias histórico-hermenéuticas; el tercero, es el Emancipador de la teoría crítica de la sociedad.

En 1981, publica su expresada obra sobre la acción comunicativa. Se trata de un libro sociológico, una teoría global de la sociedad, su origen, evolución y patologías, que abandona el paradigma del sujeto o de la conciencia y se ubica en el de la ínter subjetividad ínter comunicativa o del entendimiento lingüístico. A esto se le agrega la necesidad de una adecuada fundamentación normativa.

En primer lugar, considera que el modelo de acuerdo con el que hay que pensar la acción social no es el de una acción subjetiva orientada por fines egoístas de sujetos individuales, la acción teleológica de Hobbes y Weber, por ejemplo, sino, más bién el de una acción orientada al entendimiento, en el que los sujetos coordinan sus planes de acción sobre la base de acuerdos motivados con racionalidad, a partir de la aceptación de pretensiones de validez, susceptibles de crítica o de examen. La Pragmática Universal intenta identificar y reconstruir las condiciones universales de todo entendimiento posible, en el ámbito específico del lenguaje.

Junto al concepto de Acción Comunicativa, Habermas introduce una noción complementaria: El mundo de la vida, único horizonte desde el cual y sobre el cual puede producirse la reproducción simbólico-social en acciones lingüísticamente mediadas. Pero esto no es suficiente. Una teoría sociológica no puede reducirse a una mera teoría de la comunicación; se requiere además una teoría sistémica. La sociedad queda así enfocada como mundo de vida por un lado, como sistema por el otro.

El gran debate

Llegamos, en el transcurso de la década de los ochenta, al gran debate Modernidad-Postmodernidad en el que Habermas toma parte, como buen intelectual, con la presentación de dos grandes obras: “El discurso filosófico de la modernidad” y “El pensamiento postmetafísico”.

El primero, califica la llamada “filosofía postmoderna” como neoconservadora y aboga por una apropiación crítica del proyecto moderno, teniendo en cuenta problemas que la modernidad no resolvió, como la colonización del mundo de la vida por los sistemas económicos y administrativos. Interesado sobre todo por las críticas a la razón del neoestructuralismo reconstructivo y, tras examinarlo a fondo, no lo condena como quizá muchos esperaban.

Partiendo de la dialéctica negativa de Adorno y de la crítica de la ideología, concluye que lo agotado hoy no es la racionalidad moderna, sino el paradigma del sujeto o de la conciencia y que el espíritu moderno está vigente en el proceso histórico marcado por la crisis, siendo en el presente, relámpago capaz de iluminar las encrucijadas difíciles, y en el futuro causa de apremio para resolver “todo” lo que ha quedado pendiente. En El pensamiento postmetafísico, señala la necesidad de tomar en serio el prefijo “post” y tener en cuenta las razones del pensamiento actual, esencialmente el carácter “situado y cómodo” de la razón y la superación del logo centrismo, la gran aportación de Jacques Derrida, fallecido prematuramente en 2005.

Posteriormente, a finales de los años ochenta y en la década de los noventa, su interés se centra en la filosofía práctica: ética, derecho y justicia, aproximándose a una actitud neokantiana, ciertamente muy libre y nada encorsetada en planteamientos de escuela, en la que subyace la gran preocupación por la necesidad del reconocimiento por las democracias de las comunidades pero sin permitir por ello la caída en nacionalismos totalitarios. Confía en lo que él llama “Ética del discurso”: el discurso representa una forma de comunicación exigente en la medida en que su fin es lograr el entendimiento entre los hombres, por lo que apunta a un más allá de las vidas singulares, es decir, se extiende a la “comunidad ideal de comunicación” que incluye a todos los sujetos capaces de lenguaje y acción.

Voluntad común

Se garantiza así una formación de la voluntad común, transparente para sí misma, que da satisfacción a los intereses de cada individuo sin que se rompa el lazo social sustancial que une a cada uno con todos. La justicia, en sentido moderno, se refiere a la libertad subjetiva de individuos únicos. En cambio, la solidaridad nos remite a la felicidad de individuos involucrados en una forma de vida intersubjetivamente compartida: no se pueden ni se deben separar ambos aspectos.

Pero la vulnerabilidad del individuo y de sus formas de vida socioculturales, exige a su vez control moral de una razón “ampliada” que ha pasado a denominarse, para liberarse de connotaciones indeseadas “procedimental”, en tanto que regula procedimientos para la resolución imparcial de conflictos. La ética de Habermas, motivada por Hegel, se construye kantianamente.

Embarcado en un camino cuya necesidad es asegurar la “validez” y no solo la vigencia de las normas éticas y del derecho, tiene que aceptar un momento de “idealidad” que se agrega a la facticidad del derecho positivo y a la constitución fáctica de los estados de derecho democráticos. La necesidad en Habermas de moralizar la política no supone confundir esferas diferentes: la pretensión de legitimización del derecho positivo no puede agotarse en la validez moral.

Una norma jurídica es tal en la medida que se le agrega un componente empírico, el de su imposición a todas las personas por igual. Queda justificado así el poder político y sus instituciones, pero generando nuevos conflictos derivados del contraste entre una idealidad deseada y una pragmática factible.

En este punto, explicado lo sustancial sobre Jürgen Habermas, retomemos el hilo de nuestro discurso.

Una larga historia

En muchos aspectos estamos de acuerdo con las conclusiones generales de los movimientos de la diversidad cultural: queremos valorar todas las culturas bajo la misma luz. Pero este pluralismo universal no es una posición con la que estén de acuerdo todas las culturas; el pluralismo universal es un tipo muy especial de categorización que la mayoría de las culturas etnocéntricas y sociocéntricas ni siquiera reconocen. El pluralismo universal es una larga historia de luchas contra jerarquías y heterarquías de dominación.

¿Y por qué el pluralismo universal es mejor que las jerarquías de dominación? ¿Y cómo hemos evolucionado hasta llegar a la conclusión de la validez de este concepto cuando la mayoría de la historia lo ha despreciado? La clave está en como llegamos a ese pluralismo universal y como podemos defenderlo contra quienes, de forma dominante, elevan su cultura, creencias o valores por encima de todos los demás; estas son las cuestiones cruciales cuyas respuestas son abortadas cuando simplemente se rechazan las escalas de valores de otros y las distinciones cualitativas, por principio.

Nuestra posición se aproxima a es esta: Si los marcos de referencia son inevitables -somos holones dentro de holones, contextos dentro de contextos- y si estos marcos de referencia implican distinciones cualitativas, y si también, inevitablemente, estamos implicados en juicios jerárquicos, podemos empezar a unir estos juicios con las ciencias de la holarquía y el resultado será que los valores y los hechos ya no estarán divorciados de forma automática.

Este movimiento unificador e integrador, estaba bloqueado en tanto que los heterarquistas llamaban holística a su visión cuando en realidad era acumulativa. Entendemos que la única forma de tener un holismo es a través de la holarquía mediante el realinamiento de hechos y valores, de forma que puedan reunirse en delicado abrazo, teniendo a la ciencia de nuestro lado y no en contra, para construir una visión del mundo auténticamente holística y no acumulativa.
Javier Del Arco
Lunes, 24 de Abril 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

1 ... « 13 14 15 16 17


Editado por
Javier Del Arco
Ardiel Martinez
Javier del Arco Carabias es Dr. en Filosofía y Licenciado en Ciencias Biológicas. Ha sido profesor extraordinario en la ETSIT de la UPM en los Masteres de Inteligencia Ambiental y también en el de Accesibilidad y diseño para todos. Ha publicado más de doscientos artículos en revistas especializadas sobre Filosofía de la Ciencia y la Tecnología con especial énfasis en la rama de la tecno-ética que estudia la relación entre las TIC y los Colectivos vulnerables.




Archivo


RSS ATOM RSS comment PODCAST Mobile

Noticias de Filosofía