Douglas Hofstadter. Mosaico. Punya.
Con los artículos hasta ahora publicados, podemos decir que finaliza el frontispicio o pórtico de este blog de Biofilosofía. Corresponde ahora entrar en materia con más rigor y contundencia y, por ende, con mayor profundidad. Nunca he negado y las páginas que siguen lo atestiguan, que buena parte de esta mi biofilosofía que presento, viene inspirada por la obra de Ken Wilber. Wilber es un maestro, un iniciador, un pionero que, pese a su genialidad, debe ser para el público culto europeo, matizado, completado e incluso podado de cierta literatura que no haría sino alejarle, o al menos, y eso es lo importante, alejar o desacreditar sus ideas de ese o ante, público continental. Mi modesto, si lo consideramos desde un punto de vista intelectual, y a la vez arriesgado intento, es rescatar el mejor Wilber, matizarlo, completarlo y adaptarlo a una intelectualidad europea que vive profundos momentos de crisis, disgregación y enfrentamiento.
Wilber enuncia unos veinte principios básicos agrupados en doce categorías que él considera pautas o tendencias comunes que operan en los tres dominios de la evolución: fisiosfera, biosfera y noosfera. Estas tendencias dan cohesión al universo de manera que éste constituye un pluralismo emergente entrelazado por patrones comunes, los patrones de conexión. De estos patrones o principios, abordaremos hoy tan sólo el primero que da título al artículo. He de advertir que estos patrones funcionan perfectamente en el lenguaje del naturalismo objetivo, el lenguaje del “ello”, el neutro en tercera persona. Wilber, cuidadosamente, ha modelado estos principios en un nivel y grado de abstracción compatible con los lenguajes del “ello” (naturalismo objetivo o esfera de lo verdadero), del “yo” (estética o esfera de lo bello) y del “nosotros” (ética o esfera de lo bueno) de forma que la síntesis pueda continuar sin violencia hacia dominios en los que, previamente, la Teoría Dinámica de Sistemas había realizado un reduccionismo estricto en términos que le son propios: naturalistas y objetivantes. Este es el aspecto, advierto desde ahora, más vulnerable de todo el entramado filosófico wilberiano y, tal vez el que supone para mi el mayor reto que, afortunadamente para mi, no tendré que abordar por ahora.
Ya hemos dicho anteriormente, que no hay cosas ni procesos, únicamente holones y que no existe límite ni hacia arriba ni hacia abajo o, expresado matemáticamente, límite superior o inferior.
Ni totalidad, ni partes
Como la realidad no esta compuesta de totalidades y tampoco de partes porque sólo hay totalidades/partes, este planteamiento elimina de raíz la discusión tradicional entre el atomismo -todas las cosas están fundamentalmente aisladas y las totalidades individuales interactúan solo por azar- y el holismo -todas las cosas son meras hebras o partes de la red o del todo mayor-. Estos dos planteamientos son totalmente incorrectos ya que no hay ni totalidades ni partes. Únicamente hay totalidades/partes.
Si somos sutiles, veremos que estamos eliminando el dilema entre los materialistas y los idealistas. La realidad no está compuesta de quarks o de hadrones interdependientes, o de intercambio subatómico; pero tampoco lo está de ideas, símbolos o pensamientos. Esta compuesta de holones.
Wilber nos introduce en un viejísimo y hermoso cuento de origen oriental, que narra la visita de un rey a un viejo sabio al que desea realizar algunas consultas y también probarle. De esta guisa le pregunta: “¿por qué la Tierra no se cae?” El viejo sabio le contesta: “la Tierra se sostiene sobre un león”. El rey, lógicamente, vuelve a la carga: “¿sobre que se sostiene el león que propones?”. “El león se sostiene sobre un elefante,” responde el viejo. Pero la respuesta no satisface al rey que insiste: “¿sobre que se sostiene el elefante?”. “El elefante se sostiene sobre una tortuga”. Y vuelve a la carga el rey: “¿sobre que se sostiene...?”. Cansado, el viejo responde: “puede detenerse ahí Majestad, todo es un infinito conjunto de tortugas hacia abajo”. O todo holones hacia abajo.
Releyendo el precioso libro de Hofstadter, “Gödel, Escher, Bach, un eterno y grácil bucle”, se plantea en el capítulo V la cuestión de la recursividad. Hofstadter, al referirse a la amplitud de éste concepto, introduce un lenguaje que nos es familiar, sin que él conociese previamente la terminología de Wilber. Así habla de relatos dentro de relatos, partículas dentro de partículas, matuskas dentro de matuskas, incluso comentarios entre paréntesis dentro de comentarios entre paréntesis; estos son tan sólo algunos elementos de la recursividad.
Para aclarar más fehacientemente el concepto de recursividad debemos involucrar a los llamados conjuntos recursivamente enumerables o abreviadamente, r.e. Que un conjunto sea r.e. significa que pueda ser generado a partir de unos puntos de partida que denominamos axiomas mediante la aplicación reiterada de reglas de inferencia. Así el conjunto crece y crece, y sus nuevos elementos se van componiendo, de algún modo, con los elementos anteriores, en algo que Hofstadter describe muy bellamente: en una suerte de “bola de nieve matemática”.
Bola de nieve
Esa es la esencia de la recursividad: la definición de algo en función de versiones más simples de ello mismo, en lugar de hacerlo explícitamente. Los números de Fibonacci y los números de Lucas, son ejemplos perfectos de conjuntos r.e.: a partir de dos elementos, y gracias a la aplicación de una regla recursiva, echan a rodar una bola de nieve formada por infinitos conjuntos (es sólo por convención por lo que llamamos r.e. a un conjunto cuyo complementario es también recursivo y recursivamente enumerable).
La enumeración recursiva constituye un proceso donde surgen elementos nuevos a partir de elementos anteriores, por la acción de reglas establecidas. Parece que en estos procesos se dan muchas sorpresas, por ejemplo la impredictibilidad de la llamada secuencia Q. Es posible suponer que las secuencias recursivamente definidas de tal tipo posean la cualidad intrínseca de asumir un comportamiento cada vez más complejo, de suerte que cuanto más se avanza, menor es la predictibilidad.
Esta clase de suposición, si se profundiza un poco en ella, sugiere que los sistemas recursivos, adecuadamente complicados, son lo bastante poderosos como para evadirse de cualquier molde prefijado ¿Y esto no es uno de los atributos que definen la inteligencia? En vez de considerar únicamente programas integrados por procedimientos que apelan recursivamente a sí mismos ¿por qué no trabajar con procedimientos realmente refinados, mediante la creación de programas que puedan modificarse a sí mismos? Es decir, programas que ejerzan su acción sobre programas, extendiéndolos, mejorándolos, generalizándolos, reordenándolos, etc. Es probable que esta forma de “recursividad entrelazada” sea uno de los elementos sustanciales de la inteligencia.
La recursividad es un tema de primer orden, si no “el tema” por excelencia. Me explico: examinemos una forma en la que el mundo entero aparece construido a partir de la recursividad. Esta afirmación se relaciona con la existencia de las partículas elementales: electrones, protones, neutrones y los diminutos quanta de la radiación electromagnética llamados fotones. Veremos que estas partículas están –de una manera que sólo puede ser establecida por la mecánica cuántica relativista- incluidas unas dentro de las otras, de una manera que sólo puede ser descrita recursivamente.
Partículas desnudas
Si las partículas no interactuasen entre sí, las cosas serían muy simples. A las partículas exentas de interacción se las denomina “desnudas” y se las trata como creaciones meramente hipotéticas: no existen.
Ahora bien, cuando las partículas son “puestas en marcha”, se entrelazan entre sí recíprocamente, vinculándose. Se dice de las partículas que han sido “normalizadas”. Lo que ocurre es que cualesquiera de estas partículas, considerada individualmente, no puede definirse si no lo es en referencia a todas las demás partículas. La definición de éstas, a su vez, depende de su relación con las anteriores, etc., y así giro a giro, en un circuito sin final.
Mediante un extenso e ingenioso razonamiento que debe leerse en su precioso libro, que implica además la utilización de los diagramas de Feynman, Hofstadter concluye que la cuestión esencial respecto de una partícula material subatómica –una partícula renormalizada- comprende:
1. Una partícula desnuda.
2. Un enorme amasijo de partículas virtuales enrolladas entre sí, inseparablemente, formando una trama recursiva. La existencia de una partícula real implica por lo tanto la existencia de muchas otras, contenidas en la nube virtual que la rodea a medida que se desplaza. Y cada una de las partículas virtuales de la nube arrastra, evidentemente, su propia nube virtual, burbujas dentro de otras burbujas -holones dentro de holones, diríamos nosotros- y así sucesivamente, “ad infinitum”.
Paradojas lógicas y Teorema de Tarski
Para muchos, una paradoja es algo que a primera vista parece ser falso pero que en realidad es cierto; o que parece ser cierto pero que en rigor es falso; o sencillamente que encierra en sí mismo contradicciones. Los conceptos de certeza o falsedad en matemáticas y aún el de contradicción, dependen del grado de desarrollo de la matemática en un momento dado; parodiando a Hamlet puede decirse que «lo que una vez fue paradoja, ya no lo es, pero puede volver a serlo».
Este hecho también se da en las ciencias experimentales y conduce inicialmente a un cuestionamiento del concepto de «rigor científico» que se maneja en cada época. Uno de los aspectos más interesantes de la matemática estriba en que sus más difíciles paradojas encuentran un camino para originar las más bellas y profundas teorías; Kasner y Newman sostienen: «El testamento de la ciencia es un flujo continuo, de tal manera que la herejía del pasado es el evangelio del presente y el fundamento del mañana” (Kasner, et al., 1979). A menudo se llega a paradojas cuando se contradice el denominado principio del tercero excluido (Kleiner et al., 1994), que afirma lo siguiente: cualquier enunciado proposicional es verdadero o es falso, pero no se pueden dar ambas cosas simultáneamente.
Al tratar de aplicar a conjuntos infinitos el hecho de que: Si es posible emparejar todos los elementos de un conjunto con todos los pertenecientes a otro, entonces, ambos conjuntos tienen el mismo número de elementos puso a los matemáticos ante algunos hechos que eran inexplicables en su época y que fueron considerados como paradojas.
Entre las paradojas lógicas o matemáticas, están las debidas a los denominados conjuntos paradójicos. Un conjunto paradójico, es aquel que el admitir su existencia conduce a paradojas.
La paradoja de Cantor
El primer ejemplo de un conjunto de este tipo fue dado el 28 de marzo de 1897 por el matemático italiano Cesare Burali-Forti (1861-1931) quien la presentó en un encuentro del Círculo Matemático di Palermo. En pocas palabras la paradoja es la siguiente: Se sabe en teoría intuitiva de conjuntos, que todo conjunto bien ordenado tiene un número ordinal; en particular, como el conjunto de todos los ordinales es bien ordenado, entonces debe tener un ordinal, digamos S, pero el conjunto formado por todos los ordinales agregándole S, tiene ordinal S + 1, que es mayor que S, por lo tanto no puede ser el número ordinal del conjunto de todos los ordinales ya que S y S +1, no cumplen la ley de tricotomía.
Un conjunto paradójico es el de la denominada paradoja de Cantor. En 1899, en una carta que envió Cantor a Dedekind, observa que no puede hablarse del “conjunto de todos los conjuntos”, ya que si Q fuese este conjunto entonces el conjunto P (Q) de todos los subconjuntos de Q sería un elemento de Q, es decir:
P (Q) pertenece a Q y también P (Q) es un subconjunto de Q.
Entonces existe m tal que 2 (expo m) más o menos m, lo cual es una contradicción.
Después del surgimiento del Axioma de Regularidad en la Teoría de Conjuntos (1917) puede emplearse el siguiente argumento:
Como P (Q) pertenece a Q y Q pertenece a P (Q), entonces Q pertenece aQ, lo cual contradice el Axioma de Regularidad.
El lógico alemán Gottlob Frege (1848-1925) consideraba: “los matemáticos deben de hacer frente a la posibilidad de encontrar una contradicción que convierta el edificio completo en ruinas. Por esta razón me he sentido obligado a volver a los fundamentos lógicos generales de la ciencia...”. Es así como se dedicó durante un cuarto de siglo a construir la fundamentación lógica del análisis; con tal fin elaboró un sistema formal que intentaba servir como fundamento de las matemáticas.
Este sistema se sostenía en varios principios dos de los cuales son los siguientes:
1. Principio de Extensionalidad: dos propiedades son equivalentes si son aplicables a los mismos individuos.
2. Principio de Abstracción: Toda propiedad define un conjunto.
Sus ideas fueron plasmadas en dos extensos volúmenes. En 1902 ya había publicado el primero y el segundo estaba en la imprenta listo para ser publicado, cuando recibió una carta del joven matemático inglés Bertrand Russell (1872-1870) en la que le planteaba la siguiente inquietud:
Si x es, por ejemplo, el conjunto de los conjuntos que no son cucharas, x pertenece a x, pero si x es el conjunto de todas las cucharas, evidentemente x no es una cuchara y por lo tanto x no pertenece a x.
Sea el siguiente conjunto:
P = (x/ x pertenece a x).
Si P pertenece a P implica a P pertenece a P, lo cual es una contradicción. Si P pertenece a P implica a P pertenece a P, lo cual también es una contradicción.
Esta paradoja que presentó Russell, convertía en contradictoria las bases mismas de la obra científica de Frege.
En un gesto de gallardía y de humildad científica, Frege escribió una nota a pie de página al final del segundo volumen que comenzaba diciendo: “Difícilmente puede encontrarse un científico con algo más indeseable que notar que ceden los fundamentos de una obra que acaba de terminar. En esa situación me encuentro al recibir una carta del señor Bertrand Russell cuando el trabajo estaba casi en imprenta”.
Principio falso
Realmente lo que demuestra la paradoja de Russell es que el principio de abstracción es falso, y es este aspecto el que hace contradictorio el sistema de Frege, aunque la forma como construyó el análisis no lo fue.
La causa de muchas de estas paradojas, como señalaban Russell y Whitehead, radica en la definición de un objeto en términos de una clase que contiene como elemento al objeto que se está definiendo. Tales definiciones se llaman impredicativas y aparecen de manera especial en teoría de conjuntos.
Como afirman Kasner y Newmann: «Quizás la mayor de todas las paradojas es que haya paradojas en la matemática” (Kasner, 1979). Afortunadamente para esta ciencia, las paradojas siempre han estado presentes en su quehacer, ellas se han convertido en un verdadero reto, fuente de inspiración y creación, que le ha permitido adquirir no sólo un alto grado de desarrollo, sino también la ha obligado a cambiar sus conceptos de rigor y precisión, ¡bienvenidas sean pues las paradojas!
A continuación mencionaremos el teorema de Alfred Tarski huyendo de las complejidades de la notación lógico-matemática que conlleva, verbalizándolo en la medida de lo posible. En su trabajo, Tarski se propone llegar a una definición satisfactoria de la noción del término "verdad". Ésta definición sería materialmente adecuada y formalmente correcta. Pero desde un principio, Tarski advierte que el problema, debido a su generalidad, no puede considerarse de una forma inequívoca. La adecuación material serviría para deshacerse de la ambigüedad; mientras que la corrección formal, requerirá de una descripción de la estructura formal del lenguaje en el cual se dará la definición de verdad. Desde este punto, la definición no se podría aplicar al lenguaje natural, ya que éste no es formal
Tarski se propone aplicar el término "verdad" sólo a enunciados, y no a proposiciones; debido a la ambigüedad de la definición de estas últimas. Esto lleva a relacionar a la noción de "verdad", así como a un enunciado, a un lenguaje específico.
Concepto ambiguo
En cuanto al significado del término "verdad", es claro que es extremadamente ambiguo. Tarski cita la definición de Aristóteles de "verdad": "El decir de lo que es que no es, o de lo que no es que es, es falso; mientras que el decide lo que es que es, o de lo que no es que no es, es verdadero". Adapta esta definición a terminología moderna como: "La verdad de un enunciado consiste en su concordancia con (correspondencia con) la realidad". Aquí podríamos objetar un problema de percepción: no es posible demostrar con la mente qué es la realidad, ya que podemos definir a la realidad como "aquello que perciben nuestros sentidos". Y la validez de nuestros sentidos sólo es probable empíricamente.
También en estas definiciones hay un problema de contexto. Algo puede cambiar su valor de verdad al cambiar de contexto. Y en el fondo de todo, se esconde una metafísica, en la cual la noción de "verdad" debe estar basada. Y, usando el teorema de la incompletitud de Gödel, podemos demostrar que esta verdad no podrá demostrar a la metafísica que la propone (no se puede encontrar la verdad de la metafísica). Estos son sólo algunos de los problemas que presentan estas definiciones de verdad, que aunque Tarski no discute ninguna, es claro que estas no son definiciones satisfactorias de verdad.
Para obtener la adecuación, Tarski distingue primero entre los nombres de los enunciados, y los enunciados en sí, para evitar autoreferencias. Pero como demostró Gödel, las autoreferencias siempre estarán ahí.
Lenguaje formal
La concepción de "verdad" de Tarski es semántica. Esta última trata de "ciertas" relaciones entre las expresiones de un lenguaje, y los objetos a los cuales se refieren esas expresiones. Algunas de estas relaciones pueden ser: designación, satisfacción y definición. Pero el término "verdad" no establece una relación entre expresiones y objetos. Expresa una propiedad de las expresiones (en este caso, enunciados). Aunque, Tarski mismo indica que la semántica no resuelve todos los problemas de una definición de verdad.
Para evitar paradojas y antinomias, Tarski decide definir su concepto de "verdad" sobre un lenguaje "especificado exactamente" (formal). Esto es, que se caractericen sin ambigüedades las palabras y expresiones que se vayan a considerar con sentido. Para esto requiere de axiomas, reglas de inferencia, y teoremas.
Aunque sea un lenguaje formal, gracias a Gödel hemos visto que no es posible desterrar a las paradojas. Entonces, ¿por qué no tratar de comprenderlas? Desde aquí los intentos de Tarski pierden toda esperanza.
Principalmente, Tarski describe a las causas que provocan la inconsistencia de los lenguajes cerrados:
1. Hemos asumido que el lenguaje contiene tanto a las expresiones, como a los nombres de las expresiones. Por consiguiente, es directamente autoreferencial.
2. Hemos asumido que en el lenguaje rigen las leyes ordinarias de la lógica.
Tarski califica de "superfluo" el querer cambiar la lógica ("suponiendo que sea posible"), para poder resolver el problema por el punto dos. La lógica depende directamente de sus axiomas. En el caso de la aristotélica, estos son: "algo sólo puede ser verdadero ó falso, pero no otra cosa, ni las dos al mismo tiempo". Al cambiar los axiomas, se cambia la lógica. Así se crearon las lógicas paraconsistentes. En las lógicas paraconsistentes, se admite que se pueda llegar a una conclusión a base de premisas contradictorias.
Problemas lógicos
Por lo tanto, las paradojas, al comprenderse, dejan de ser contradictorias. Y podemos decir además, que una lógica paraconsistente, es completa e incompleta al mismo tiempo. El problema de la definición de "verdad", así como todos los "problemas" que son implicaciones de paradojas, son problemas esencialmente lógicos. Si es un problema lógico, ¿por qué tratar de formalizar al lenguaje natural, cuando de todos modos si fuese formal habría paradojas? Eso, es ponerle a la filosofía zapatos que no le quedan. Si la lógica no contiene al lenguaje, los más adecuado sería desarrollar una lógica que lo contenga, y no mutilar al lenguaje para que entre a golpe de “teoremazo”.
Pero bueno, para Tarski seamos superfluos, y sigamos con su exposición, la cual se dirige a atacar el problema por el punto 1. Esto es, prohibir que un lenguaje se describa a sí mismo. ¡Pero un lenguaje sin autoreferencia no es lenguaje! ¡Todas las limitaciones impuestas! En fin, para lograr esto, Tarski propone un lenguaje-objeto, el cual básicamente se referirá solamente a describir objetos, y un meta-lenguaje, el cual tendrá una mayor jerarquía, y podrá decir si un enunciado del lenguaje-objeto es verdadero o falso. Pero entonces, ¿cómo puedo obtener la verdad de una frase del meta-lenguaje? ¿Con un meta-meta-lenguaje, y así creo meta-lenguajes ad infinitum?
Para dar su definición de "verdad", Tarksi emplea el término semántico de satisfacción. Entonces, define que "un enunciado es verdadero si es satisfecho por todos los objetos, y falso en otro caso". Podemos decir que su definición es satisfactoria, después de todas las limitaciones que puso antes de plantearla. Es satisfactoria, pero no es muy útil. Es satisfactoria solamente para lenguajes teóricos especialmente diseñados para que cumplan con esa definición. No es aplicable al lenguaje natural, al científico, al filosófico, y a muchos lenguajes formales.
¿Por qué no, para no meterse en problemas, los filósofos hicieron como Newton? Cuando a éste le preguntaron, que por qué no definía movimiento, tiempo y materia, dijo que no veía el caso, ya que eran "bien conocidos de todos". Es decir, ¿cómo podemos pretender definir un concepto en el que se basa nuestro lenguaje, como el de verdad, usando conceptos que se basan en el concepto que queremos definir, queriendo expulsar a la autoreferencialidad? La autoreferencia es la única vía para intentar una definición.
Pero el objeto de una definición es el de unificar y delimitar conceptos. Y en estos casos, en el de definiciones de conceptos generales (o primarios), las definiciones mismas no logran ni unificar ni delimitar lo que tratan de definir, ya que hay muchas definiciones para un concepto. Sería iluso aspirar a una definición completa sin que ésta fuese infinita. Pero es claro que las definiciones, aunque incompletas, como la de Tarski, delimitan parcialmente lo que tratan de definir. ¿Cómo describir algo que se usa para describir a las cosas? Es debido a esto que no comentaremos acerca de las críticas hechas al trabajo de Tarski, y las respuestas de éste.
Saber pensar
En cuanto a los comentarios finales de Tarski, en los cuales responde a los pragmáticos que cuestionan la aplicación del trabajo matemático, se darán a continuación algunas opiniones personales. Personalmente, he tenido la misma experiencia con mis alumnos, cuando cuestionan la aplicación de algún ejercicio mental que les propongo. La aplicación (o la finalidad) no es directa, ya que afecta al pensamiento en el cual se desarrollan las aplicaciones. Es decir, la teoría "sin aplicaciones", afecta al pensamiento. Enseña a la gente a pensar y a ejercitar la mente. No se pueden crear aplicaciones si uno no sabe pensar.
De ninguna manera el trabajo de Tarski carece de importancia; más bien todo lo contrario. Alcanza lo que Tarksi se propuso: hacer una definición parcial y limitada de "verdad" en un sistema formal cerrado. No será práctica, pero indudablemente define mejor la noción de "verdad". No es necesario saber qué significan las palabras para usarlas. Manejamos un automóvil sin saber nada de mecánica. Utilizamos una computadora sin saber algo de electrónica. Pensamos sin saber cómo, amamos sin saber qué es el amor, y vivimos sin saber qué es la vida. Pero es necesario por lo menos tener una idea. Y Tarski da una muy buena idea de qué podemos entender por "verdad".
El Teorema de Gödel y su interpretación filosófica
Para abordar con éxito y sobre todo con la posibilidad de ser comprendido por muchos, voy a abordar el trascendental Teorema de Incompletitud (1931) ha proporcionado a Kurt Gödel una fama legendaria: es considerado "el descubridor de la verdad matemática más significativa de este siglo". Marca un hito en la historia de la lógica matemática. Y para hacerlo proclamo ya que voy a recurrir a los magníficos trabajos de Guillermina Díaz Muñoz y a sus múltiples trabajos que ponen en íntimo contacto la matemática de Gödel y a la filosofía de Xavier Zubiri, homenajeando de paso a este ilustrísimo pensador español inmerecidamente olvidado y reconociendo los importantes trabajos de Díaz Muñoz ante un público menos especializado en filosofía zubiriana.
Sin duda podría haber introducido el tema de Gödel por otros derroteros pues hay múltiples pero en las presentes circunstancias de injusto olvido de Zubiri y papanatismo generalizado, reivindico así a un pensador español universal y a una importante filósofa de nuestros días. Iré pues muy pegado a los textos de Díaz Muñoz para que el relato mantenga toda su riqueza originaria.
El alcance filosófico del Teorema de Gödel ha sido profundo. Supone el cuestionamiento de las distintas filosofías de la matemática de finales del s. XIX y principios del s. XX: el logicismo de Russell, el formalismo de Hilbert y el intuicionismo de Brouwer. Como dicen Nagel y Newman: "provocó una nueva valoración, todavía en trance de desarrollo, de una extendida filosofía de la matemática y de la filosofía del conocimiento en general".
Gödel, como examinaremos, inicia el giro del "apriorismo-idealismo" del Positivismo Lógico al "realismo" de la nueva filosofía de la matemática.
Creemos que la exigencia, planteada por los resultados de Gödel, de una nueva filosofía, no-dogmática, de la matemática (y del conocimiento, en general), tiene, su máximo cumplimiento en dos autores: Lakatos y Zubiri. Sus respectivas interpretaciones del Teorema de Gödel, tanto el principio de conservación de la falibilidad o de la sofisticación de Lakatos y la anterioridad de la realidad sobre la verdad de Zubiri, constituyen el eje de toda su filosofía matemática y del conocimiento. Sus posturas son dos alternativas a la crisis gödeliana del fundamento matemático. Mientras que Lakatos sustituye la tarea de la fundamentación por la tarea del avance matemático, Zubiri pretende también, como veremos, proporcionar una fundamentación no-dogmática de la matemática. Su propuesta es un nuevo tipo de Constructivismo.
Consistencia y completitud
La aportación de Gödel está en el contexto del planteamiento que Hilbert hace de los sistemas formales. Hilbert ha presentado como requisitos y problemas fundamentales de un sistema formal matemático dos aspectos: la consistencia y la completitud. Un sistema formal es completo si cada sentencia expresable con su lenguaje formal es decidible a partir de sus axiomas. Partiendo de sus axiomas y aplicando las reglas lógicas, podemos llegar a la conclusión de A o no-A. Y, por otra parte, un sistema formal es consistente si no puede deducirse dentro del sistema A y no-A. Pues bien, los resultados de Gödel resuelven estas dos cuestiones de modo negativo.
Ya en 1930, Gödel en su artículo: Algunos resultados meta-matemáticos sobre completitud y consistencia, muestra, respecto a un sistema formal, S, resultante de unir a los axiomas de Peano la lógica de Principia Mathematica, los siguientes teoremas:
I. El teorema de la incompletitud del sistema S.
"El sistema S no es completo, es decir, en él hay sentencias j (que pueden efectivamente ser indicadas), tales que ni j ni no j son deducibles y, en especial, hay problemas indecidibles con la sencilla estructura existe x Fx, donde x varía sobre los números naturales y F es una propiedad (incluso decidible) de los números naturales".
Es un resultado definitivo, de tal modo que aunque se añadan nuevos axiomas, el sistema seguirá teniendo fórmulas nuevas indecidibles.
II. El teorema de la imposibilidad de la prueba de la consistencia en S.
"Incluso si admitimos todos los medios lógicos de Principia Mathematica (...) en la metamatemática, no hay ninguna prueba de consistencia para el sistema S (y aún menos la hay si restringimos de alguna manera los medios de prueba)".
En 1931, Gödel da las pruebas de sus descubrimientos en el citado artículo, Sobre sentencias formalmente indecidibles de principia mathematica y sistemas afines. En éste plantea que el desarrollo de la matemática ha exigido la plena formalización de ésta; dos ejemplos de gran perfección son el sistema de Principia Mathematica y la teoría axiomática de conjuntos de Zermelo-Fraenkel (y su complementación por parte de J. von Neumann). Sin embargo, muestra que no hay ningún sistema formal matemático, con un número finito de axiomas, que sea completo.
Proposición indecidible
Este resultado no se ve modificado por el hecho de que introduzcamos entre los axiomas aquél que nos permita derivar la proposición que resultaba ser indecidible, porque si bien del nuevo sistema ésta se deduciría, surgiría otra proposición que igualmente sería indecidible y así sucesivamente. Por ello es un resultado esencial en los sistemas formales que incluyan la aritmética.
Dice Gödel: "Estos dos sistemas son tan amplios que todos los métodos usados hoy día en la matemática pueden ser formalizados en ellos, es decir, pueden ser reducidos a unos pocos axiomas y reglas de inferencia. Resulta por tanto natural la conjetura de que estos axiomas y reglas basten para decidir todas las cuestiones matemáticas que puedan ser formuladas en dichos sistemas. En lo que sigue se muestra que esto no es así, sino que, por el contrario, en ambos sistemas hay problemas relativamente simples de la teoría de los números naturales que no pueden ser decididos con sus axiomas (y reglas)"
Una consecuencia de los resultados de incompletitud es la relativa a la prueba de la consistencia del sistema P. Es imposible obtener una prueba finitista de consistencia (en los términos planteados por los formalistas) para un sistema formal que contenga formalizados todos los modos finitos de prueba. La consistencia es una de las fórmulas indecidibles en los sistemas incompletos.
Dice Gödel: "Sea K una clase recursiva primitiva y consistente cualquiera de FORMULAS. Entonces ocurre que la SENTENCIA que dice que K es consistente no es K-DEDUCIBLE. En especial, la consistencia de P no es deducible en P, suponiendo que P sea consistente (en caso contrario, naturalmente, toda fórmula sería deducible).
La repercusión del trabajo de Gödel, dentro del área de la fundamentación matemática, es difícil de exagerar. Sin embargo, resulta decepcionante —y en primer lugar lo sería para el propio autor que concentró toda su energía y entusiasmo intelectual en este campo, convencido de su relevancia en la totalidad matemática— observar que su impacto en la practica de los matemáticos es insignificante.
Como dice Hao Wang: "IA [el Teorema de incompletitud de la Aritmética] ha tenido en conjunto poca influencia sobre la práctica matemática. Naturalmente, si (algún sistema formal de) la aritmética hubiera resultado ser completo (y, por ende, decidible), la investigación en teoría de números habría adoptado una forma totalmente distinta"
Y, un poco más adelante, señala que su impacto ha sido mayor en la tecnología actual, rama que no interesó directamente a Gödel. "Curiosamente, ha tenido más impacto sobre las cuestiones conceptuales que tienen que ver con los computadores y la mecanización, cuestiones que son una preocupación central en la tecnología actual"
Repercusiones del Teorema de Gödel
El Teorema de Gödel ha revolucionado la filosofía de la matemática, mostrando su inadecuación e insuficiencia para explicar el fundamento de la matemática y comprender su naturaleza. Veamos, brevemente, su repercusión en cada una de las "escuelas" de fundamentación de la matemática de principios de siglo.
a) El Teorema de incompletitud significa para el logicismo de Russell y Whitehead el fracaso de su intento de construir un sistema lógico que permita incluir la aritmética. Pone de manifiesto que la verdad matemática es de amplitud mayor que la verdad lógica, y, por tanto la irreductibilidad de la matemática a la lógica.
W. y M. Kneale (1961) señalan el desafío del resultado gödeliano a la identificación de matemática y lógica de Russell: "Desde Gödel, parece razonable responder que la lógica no se extiende más allá de la teoría de la cuantificación. Cuando decimos que la aritmética y, con ella, todos los llamados cálculos funcionales de orden superior, así como todas las versiones de la teoría de conjuntos, son esencialmente incompletos, estamos efectivamente admitiendo que esas teorías envuelven alguna noción, o más de una, de la que no cabe ofrecer una exhaustiva caracterización mediante el establecimiento de una serie de reglas de inferencia: y ésta parece constituir una buena razón para excluirlas del dominio de la lógica..."
b) Respecto al formalismo de Hilbert, Gödel demostró los límites internos de los sistemas formales. La matemática es inagotable desde cualquier sistema formal, siempre habrá verdades matemáticas indecidibles dentro de éstos. El método axiomático es de fecundidad limitada. Las afirmaciones aritméticas son irreductibles a las afirmaciones de un sistema formalizado (tanto si sus axiomas son lógicos como si son una sistematización de axiomas lógicos y aritméticos).
Como señala Morris Kline: "El fenómeno de la incompletitud constituye un importante defecto porque entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema"
c) Estos resultados también son decisivos para el intuicionismo de Brouwer. Aunque de algún modo ya habían sido vistos por éste —razón por la que se extrañaba de la gran importancia que se les había dado—, sin embargo, el mérito de Gödel está en haber construido unas pruebas formales claras para mostrar la existencia concreta de proposiciones indecidibles a partir del sistema formal que incluye la aritmética elemental.
Del mismo modo probó que la consistencia no puede demostrarse dentro del sistema. Por tanto, respecto del intuicionismo, "...el trabajo les hizo ver de qué modo el uso apropiado de métodos formales podía llevar a conclusiones precisas que ellos sólo podían ver en parte y de forma imprecisa".
d) Los resultados de Gödel tienen también una profunda repercusión en la primera filosofía objetivo-ideal de la matemática de Zubiri. Los siguientes términos expresan el Teorema de Gödel tal y como lo recoge nuestro filósofo: "Lo postulado tiene propiedades que no son deducibles de los postulados ni pueden ser lógicamente refutadas por ellos."
Y también, "Jamás podrá demostrarse positivamente la no contradicción de un verdadero sistema de notas o conceptos objetivos"
Ciencia viva
El planteamiento anterior nos presenta la matemática de principios del s. XX como una ciencia viva, que no puede avanzar sin plantearse el problema de sus principios o fundamentos. Y en esta "aventura, en la que les acompañan con emoción el intelecto entero", se encuentran de una forma sorprendente K. Gödel y X. Zubiri.
Experiencia que éste refleja en sus palabras: "Una ciencia que se halla en la situación de no poder avanzar, sin tener que retrotraerse a sus principios, es una ciencia que vive en todo instante de ellos. Es ciencia viva, y no simplemente oficio. Esto es, es ciencia con espíritu. Y cuando una ciencia vive, es decir, tiene espíritu, se encuentran en ella, ya lo hemos visto, el científico y el filósofo. Como que filosofía no es sino espíritu, vida intelectual"
Matemática y Filosofía, en el s. XX, quedan maravillosamente unidas en las figuras de Gödel y Zubiri. Ambos son prototipo de hombre intelectual: en ellos convive el diálogo matemática-filosofía de manera inseparable; si bien Zubiri es filósofo y está atento a los resultados matemáticos, y Gödel es, en primera línea, matemático-lógico y tiene un puesto justificado en la filosofía, sobre todo, en la filosofía de la matemática. Pero tanto uno como otro tienen una gran capacidad para combinar los resultados de la ciencia y de la filosofía. Y han coincidido en una empresa común: la fundamentación matemática.
Esta adquiere mayor relieve considerada una a la luz de la otra. La genialidad de Gödel está en su aportación matemática y lógica, su filosofía es un barrunto. Por el contrario, la de Zubiri está en su filosofía, la cual se apoya en las aportaciones matemáticas. Del mismo modo que se ha unido el nombre de Gödel al de Einstein, se puede unir a ambos un tercero: Zubiri. Física, matemática-lógica y filosofía no pueden marchar separadas como muestra la complementariedad de las aportaciones en sus respectivos campos.
La aportación de Gödel y la de Zubiri son dos hitos en la fundamentación de la matemática. De forma pública en 1952, se reconoció la importancia de K. Gödel. Los resultados obtenidos por éste han revolucionado la filosofía de la matemática, desde la luz que arrojan, las distintas escuelas de filosofía de la matemática: logicismo, intuicionismo y formalismo, resultan inadecuadas. Y, en general, ha revolucionado la filosofía tanto en su aspecto epistemológico como ontológico.
En concreto, la honda repercusión que tiene en Zubiri se advierte de inmediato por las numerosas veces que el Teorema de Gödel aparece mencionado en su obra. No sabemos, por falta de datos, en qué momento, entre 1931 (fecha del descubrimiento) y 1946 (fecha de la intervención de Zubiri en la Universidad de Princeton), Zubiri tuvo conocimiento exacto del descubrimiento de Gödel. Creemos que por primera vez, en los escritos publicados, lo menciona en el curso oral de 1953-1954, "El decurso vital", en el Problema del hombre, recogido en "Sobre el Hombre".
Zubiri, quizá como ningún otro filósofo, ha sabido sacar todas las consecuencias de estos resultados de lógica y matemática, de tal manera que su filosofía no sería la misma si no hubiera contado con ellos. Así puede constatarse con toda claridad que la filosofía de Zubiri se refuerza con los resultados de Gödel y éstos, a su vez, se interpretan fácilmente desde la filosofía de Zubiri.
Filosofía matemática original
La nueva filosofía de la matemática, elaborada en concordancia con los resultados de Gödel, es también sumamente original. Su descubrimiento filosófico capital es que la inteligencia matemática es sentiente. La revolución que resulta de la aportación de Zubiri es que la inteligencia concipiente se funda en la inteligencia sentiente y el ser en la realidad, y no al contrario, como se ha mantenido en la tradición filosófica. De ahí la necesidad de elaborar una filosofía sentiente de la matemática donde queden fundamentadas las filosofías concipientes de la misma
La filosofía de la matemática es afín en Gödel y Zubiri; ambos consideran la matemática como ciencia de la realidad. Si hemos visto que el abandono del objetivismo y el giro realista en Zubiri es debido, en gran parte, a la influencia de Gödel, es fácil suponer que los resultados matemáticos de éste influyen en primer lugar en su propia filosofía matemática. En efecto, Gödel mantiene un "realismo matemático"; critica la concepción matemática como sintaxis, tal y como defienden sus maestros Hahn, Schlick, Carnap; rechaza el convencionalismo en matemáticas por ser una interpretación insatisfactoria.
Afirma: "Pero, a pesar de su lejanía de la experiencia sensible, tenemos algo parecido a una percepción de los objetos de la teoría de conjuntos, como se puede ver por el hecho de que los axiomas mismos nos fuerzan a aceptarlos como verdaderos. No veo ninguna razón por la cual debamos tener menos confianza en este tipo de percepción, es decir, en la intuición matemática, que en la percepción sensible, que nos induce a construir teorías físicas y a esperar que futuras percepciones sensibles concuerden con ellas y, además, a creer que estas cuestiones no decidibles por el momento tengan significado y puedan ser decididas en el futuro".
Ya en 1930, Gödel en la Discusión sobre la fundamentación de la matemática en la cual participaron Hahn, Carnap, von Neumann, Scholz, Heyting, y Reidemeister, debatía las posturas clásicas del logicismo, formalismo e intuicionismo; y planteaba que la verdad y la consistencia no son equivalentes.
"Supuesta la consistencia de la matemática clásica, uno puede incluso ofrecer ejemplos de enunciados (del mismo tipo que los de Goldbach o Fermat) que son verdaderos en cuanto a su contenido, pero no son deducibles en el sistema formal de la matemática clásica. Por tanto, si añadimos la negación de un tal enunciado a los axiomas de la matemática clásica, obtenemos un sistema consistente, en el que es deducible un enunciado falso en cuanto a su contenido".
Ni nominalismo ni convencionalismo
Gödel se aparta, pues, del nominalismo y convencionalismo. En 1938, en La consistencia del axioma de elección y la hipótesis generalizada del continuo prueba que si los axiomas de la teoría de conjuntos son consistentes, también lo será el resultado de agregarles el axioma de elección y la hipótesis generalizada del continuo de Cantor, para ello se basa en el modelo de conjuntos constructibles; y esto unido al resultado de Cohen en 1963, mostrará la independencia de dichos axiomas. Sin embargo, Gödel no admite que esta independencia se justifique desde una postura convencionalista o nominalista.
En definitiva, ambos descubrimientos matemático (Gödel) y filosófico (Zubiri) se complementan, se iluminan mutuamente. Y la aportación común de la fundamentación de la matemática: realismo matemático y una inteligencia no-lógica de la matemática, es una flecha que atraviesa la fundamentación del conocimiento mismo. La vía de formalización y logificación de la matemática fracasa rotundamente ante la realidad de proposiciones verdaderas indecidibles en un sistema formal. La realidad matemática se resiste a ser deducida de un mero sistema finito de axiomas a través de unas reglas lógicas.
"La resistencia que las cosas ofrecen posibilita y fuerza al hombre a entenderse a sí mismo, a darse cuenta de ‘dónde está’. Así es como, al entrar en su presente, las cosas le dejan al hombre debatiéndose con su pasado. Y en este proceso, según sea la índole del choque, así es también el tipo de posibilidades que al hombre presente se le convierten en problema. No todo choque representa un momento de idéntica gravedad"
Al vernos forzados a entender las verdades matemáticas no como intuiciones ni como conceptos, la insuficiencia de nuestro concepto de inteligencia matemática se acusa con mayor gravedad. Esta es una dimensión del problema, la otra —respectiva a ésta— es la insuficiencia de nuestro concepto de objeto matemático que no es ni objeto-cósmico ni objeto-ideal. El choque con las verdades matemáticas no demostrables ni refutables en un sistema formal es la conmoción de la vía de la logificación de la matemática. Zubiri va a alumbrar una nueva noción de inteligencia y de realidad, que la matemática no puede proporcionarse a sí misma, sino sólo sugerir y esto no de forma unívoca; siempre hay que hacer una opción entre posibilidades, de ahí el carácter limitado de cada una de ellas.
Las posibilidades que el pasado otorga a Zubiri para fundamentar la matemática según las tres escuelas de filosofía de la matemática son la vía de la intuición y la vía lógico-formal. Si las examinamos a fondo, vemos que no son dos concepciones radicalmente opuestas sino que parten de una misma concepción de la inteligencia matemática: se trata de inteligencia sensible o concipiente, según la cual hay sentidos e inteligencia, y la inteligencia concibe lo que los sentidos le proporcionan. Hay una dualidad radical tanto si damos prioridad a la intuición como si se la damos al concepto. Zubiri ensaya otra vía: inteligencia sentiente.
Hemos visto que Zubiri cuando escribe su tesis doctoral en 1921 mantiene una concepción logicista-formal de la matemática, de acuerdo con la crisis de la intuición. A partir de 1931, los resultados de Gödel y su interpretación le han de llevar a unos planteamientos filosóficos nuevos. Va a suponer la conmoción de la Filosofía logicista de la matemática y la exigencia de una filosofía sentiente de la matemática. De tal manera marca un hito en la evolución del pensamiento de Zubiri que cabe hablar de la concepción "objetivista-ideal" de la matemática anterior a dicho teorema y la concepción ‘realista’ posterior al mismo.
Matemática inviable
La matemática, a la luz del descubrimiento de Gödel, resulta inviable como una secuencia de proposiciones verdaderas, puesto que hay algunas que no son "deducibles" del sistema de postulados y definiciones. La vía de formalización y logificación resulta una vía muerta. No es suficiente la vía lógica para acercarnos a las verdades matemáticas porque verdad no es demostrabilidad. Este es el nuevo reto de la filosofía zubiriana: fundamentar la nueva matemática. Para esta tarea no es adecuada ni la vía intuitiva ni la vía formal y lógica. ¿Qué nos queda? Si la crisis de la intuición nos condujo a la formalización y logificación de la matemática, ¿a dónde nos conducirá la conmoción de la formalización y la logificación de la matemática?
Gödel muestra en 1932, también en Sobre la teoría de números y la aritmética intuicionista que la matemática clásica es traducible a la matemática intuicionista, de este modo si ésta es consistente aquélla también lo es, según lo cual no resulta más arriesgada la matemática clásica que la intuicionista. Para Zubiri ni la inteligencia lógica ni la inteligencia intuitiva son adecuadas para la fundamentación de la matemática.
Esta situación intelectual de la fundamentación de la matemática a partir de Gödel le deja a Zubiri debatiéndose con la noción misma de inteligencia. Hacemos hincapié en esta idea porque, como Zubiri hace notar, no todas las crisis representan la misma gravedad. El choque es ahora más profundo incluso que el descubrimiento de las geometrías no-euclídeas. Éste alejó a la matemática de las ciencias empíricas asimilándola a la lógica; pero mientras se mantuviera la demarcación logicista entre ciencias empíricas y ciencias formales, no había unificación de la noción de inteligencia y de la estructura del saber. El Teorema de Gödel cuestiona esta demarcación en términos "concipientes", y ello nos lleva a un planteamiento radical de qué es inteligencia.
Por todo lo dicho, creemos que puede confirmarse nuestra hipótesis: los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Este horizonte es determinante para "engendrar" su primera concepción de estos problemas concretos; los desarrollos ulteriores deben, en muchos aspectos, más a las sugerencias de la biología, de la física y de otras ciencias.
En concordancia con Gödel, Zubiri elabora su filosofía de la realidad, entendiendo la realidad de un modo que viene determinado, sin duda, por sus resultados matemáticos. Es la etapa metafísica. Dejamos para más adelante el realismo de la matemática, basta decir ahora que rechaza la reducción de la matemática a la lógica. La influencia de Gödel en este giro zubiriano del objetivismo al realismo matemático se justifica también por el análisis comparado de los datos cronológicos respectivos.
“La insuficiencia de la lógica para aprehender la realidad matemática es resultado fundamental del teorema de Gödel, que, además de una nueva filosofía matemática, sugiere una nueva valoración del conocimiento y de la intelección en general”.
La logificación de la matemática y la idealidad-objetividad de su objeto han sido los dos errores de la tradición formalista y logicista de la matemática (y del primer Zubiri), y el choque con los resultados de Gödel nos llevan a "inteligización" de la lógica matemática y a la reificación de su objeto (filosofía del segundo Zubiri).
Zubiri interpreta toda la tradición filosófica europea haciendo uso de la misma clave que ha experimentado en el campo de la matemática: la logificación de la intelección matemática (la lógica funda la matemática) y la entificación de la realidad matemática (el objeto de la matemática es un ser ideal) se han estrellado, dejando al matemático y al filósofo cuestionándose el problema mismo de la inteligencia. Generalizando, nos dice Zubiri que la vía emprendida desde los griegos es la logificación de la intelección y respectivamente la entificación de la realidad.
Revolución filosófica
La revolución matemática nos conduce, en gran parte, a la revolución filosófica. La filosofía de Zubiri supone una inversión en el orden de la fundamentación de la tradición: el logos no funda la inteligencia, ni el ser funda la realidad sino, por el contrario, es la inteligencia quien funda el logos y la realidad quien funda el ser. Es lo que denominamos la revolución zubiriana, que es, en gran medida, la extensión filosófica de la revolución gödeliana y tiene justo el signo inverso a la que se opera en Kant bajo la denominación de "revolución copernicana". El principio último del conocimiento es la realidad. Como veremos, se trata de un realismo trascendental.
"No se puede entificar la realidad, sino que por el contrario hay que reificar el ser... No se puede logificar la intelección, sino justamente al revés: hay que inteligizar el logos." Esta es la idea central de todo el pensamiento de Zubiri y vemos el sorprendente isomorfismo entre la intelección matemática y la intelección en general.
La hipótesis de trabajo de Guillermina Díaz es que Zubiri se dirige a la matemática contemporánea para que le sugiera una visión más profunda de la inteligencia. Y este es el gran problema de la filosofía: "El problema de la filosofía no es sino el problema mismo de la inteligencia". Así pues, la matemática gödeliana es un presupuesto ineludible de la Filosofía de la realidad y de la "noología" de Zubiri.
La suma total de todas las totalidades/partes, no es una totalidad en si misma
Pero hacia arriba, también todo esta compuesto de “tortugas”. Las paradojas y los teoremas enunciados y comentados, han colocado a las matemáticas en un universo irreversible, eternamente en expansión y sin límite superior. A eso conduce precisamente la conclusión del lógico-matemático austriaco, naturalizado norteamericano, e íntimo de Einstein.
La totalidad de los conjuntos no puede ser el final de un proceso generativo bien definido, porque si lo fuera, podríamos tomar todo lo generado hasta entonces como un gran conjunto y continuar generando universos aun mayores. La totalidad de los conjuntos u holones matemáticos es una totalidad absoluta o “no condicionada”, que por esa razón no puede ser entendida adecuadamente por la mente, ya que el objeto de una concepción normal siempre puede ser incorporado a una totalidad más inclusiva. Recuérdese que el mundo de las ideas platónico no tenía dimensiones.
Además, los conjuntos están dispuestos en una jerarquía transfinita lo que significa una holarquía que continua hacia arriba por siempre, y debe continuar hacia arriba para siempre, “transfinitamente” porque en caso contrario las matemáticas llegarían a una contradicción que las haría detenerse. Incluso el mundo matemático observa una dirección temporal y su flecha temporal es indefinidamente, transfinitamente holárquica.
Estos conceptos son importantes también para la filosofía y en particular para muchos de los paradigmas de la comercial, camelística y socio- conformista New Age, que actualmente proclama el holismo sin saber muy bien lo que dice. Transfinito, significa que la suma total de las totalidades/partes en el universo no es una totalidad en sí misma, porque en el momento en que lo fuera esa totalidad sería una parte de la del momento siguiente que a su vez es solo una parte de la siguiente y así ad infinitum.
Siempre habrá una totalidad/parte más inclusiva hasta llegar al límite, que por cierto nadie sabe donde se halla y que algunos sitúan con evidente pretensión metafísica fuera del universo/universos de los que hemos hablado, y por ende del tiempo y el espacio. Sin entrar a elucidar una cuestión tan complicada, reunidas las flechas del tiempo como ya hemos visto, creo que cometeríamos un grave error si estableciésemos para ella una dirección –en cálculo vectorial, trayectoria- que fuese lineal. Nosotros la intuimos mas como una espiral –dinámica espiral- a modo de solenoide circular de manera que el llamado infinito hacia arriba y el infinito hacia abajo convergen en un único infinito –en realidad infinitos puntos- de un círculo, eso si infinito, donde cada retorno –eterno retorno nietzscheano- se represente por las vueltas de la espiral.
Contra la totalidad y el totalitarismo
Abordamos ahora una cuestión esencial: el totalitarismo desde el ecologismo. Evitar una totalidad dominante y globalitária es importante ante la aparición de un concepto muy peligroso y muy bién enmascarado, sobre todo por la tentación permanente de utilizarlo con fines ideológicos, lo que quiere decir que alguien puede querer convertirnos en meras partes de la versión particular de su “todo” y en meros hilos de su red a la vez que quedemos totalmente sometidos a su visión y poder.
A estos holístas, les gusta ingeniar utopías sociales y en este sentido nos preocupan sobre todo los ecologistas profundos y determinados ecofilósofos rechazan la industrialización y buena parte de la agricultura y muchos aspectos positivos que conlleva el progreso tecnocientífico. Si tienen razón o no es discutible, pero creo que al pretender abarcar el todo, rechazan gran parte de la existencia y de la propia evolución.
En otras palabras, como no hay nada a lo que se pueda llamar totalidad última, quienes la proponen han de proporcionarle un contenido que, al no poderse basar en la realidad, tiene que sustentarse en una determinada ideología. Y si como antes decíamos somos hebras de su “supuestamente maravillosa” red, parece sumamente razonable que nos propongan -por no decir impongan-, un programa social totalizador. No esta por demás indicar, que teóricos tan opuestos como Habermas o Foucault, han visto en estos programas totalizadores el principal enemigo moderno del mundo de la vida y la libertad.
Por todas estas razones rechazamos, el concepto de la totalidad y entendemos que el concepto de todo -que es suma de totalidades/partes, y no es en sí mismo una totalidad, ya que automáticamente nuestro propio pensamiento añade siempre un holón más, y así indefinidamente- es un imposible porque nunca hay un todo, sino una serie sin fin de totalidades/partes y así transfinitamente.
La vuelta al Kósmos griego
Los pitagóricos introdujeron el término Kósmos, que habitual e irreflexivamente traducimos como cosmos, para significar la naturaleza estructurada o proceso de todos los dominios de la existencia, desde la materia hasta las matemáticas o hasta las divinidades. No para describir el universo físico, que es su plana y unidimensional acepción actual, el cosmos con “c” y con minúscula.
Nos gustaría volver a introducir este término Kosmos. Él contiene al cosmos -o fisiosfera-, al bios -o biosfera-, y al nous -o noosfera-, donde ninguno de estos niveles es más fundamental que los demás, sino pura armonía de ascenso y descenso, por un mismo sendero, en equilibrio perfecto.
Podemos resumirlo así: el Kosmos esta compuesto de holones, de arriba abajo y de abajo a arriba, transfinitamente, circularmente.
La filosofía post-moderna o trans-moderna es anti-totalitaria y anti-globalitaria. Es abierta.
Nos parece pertinente proponer un ejemplo que tiene un origen tal vez provocador y sorprendente. Del post-estructuralismo postmoderno, grupo al que se suelen asociar nombres como Derrida, Foucault, Lyotard y, retrocediendo hacia el pasado, autores como Bataille y Nietzsche, que han sido enemigos de cualquier tipo de teoría sistemática o gran narrativa, podía esperarse que elevasen obstinadas objeciones a la teoría general holárquica. Pero si examinamos muy de cerca su trabajo, vemos que está sutilmente dirigido precisamente por el concepto de holones dentro de otros holones, etc.; o de textos dentro de textos, o de contextos dentro de otros contextos, y así sucesivamente. Y es este juego deslizante de textos dentro de textos, es el que constituye la “plataforma móvil” desde la que lanzan sus ataques.
Consideremos un texto de George Bataille: “cada elemento aislable del universo aparece siempre como una partícula que puede entrar en la composición de un todo que la trasciende. El ser se encuentra únicamente en la forma de totalidad compuesta de partículas cuya autonomía relativa se mantiene. Estos dos principios -simultáneamente totalidad y parcialidad- dominan la incierta presencia de un ser ipse, que desde la distancia nunca deja de ponerlo todo en cuestión” (La cita viene tomada del artículo Lo Sagrado en Vision of Excess. Selected Writing, 1927-1939).
Todo es puesto en cuestión, porque todo es un contexto dentro de otro contexto, eternamente. Y los post-estructuralistas posmodernos son conocidos por ponerlo todo en cuestión.
Otra cita del mismo autor y artículo:“con el miedo extremo que se convierte imperativamente en una demanda de universalidad, arrastrado hasta el vértigo por el movimiento que lo compone, el ser ipse, que se presenta como universal es sólo un desafío a la difusa inmensidad que escapa de su precaria violencia, la negación trágica de todo lo que no es su propia fortuna de fantasma desconcertado. Pero como hombre, este ser cae en los meandros del conocimiento de los demás humanos que absorben su sustancia para reducirla a un componente que va más allá de la violenta locura de su autonomía en la noche total del mundo”.
La cuestión no es que Bataille no tuviera ningún tipo de sistema, sino que éste era deslizante: holones dentro de holones. André Bretón, importante líder de los surrealistas de aquel momento, lanzó un contraataque en términos que aún resuenan en los críticos modernos de la postmodernidad: “la desgracia del señor Bataille es la siguiente: razona abiertamente como alguien que tiene una mosca parada en la nariz, lo que le asemeja más a los muertos que a los vivos, pero aun razona; intenta compartir sus obsesiones con la ayuda del pequeño mecanismo que todavía no tiene completamente estropeado: este mismo suceso prueba que, diga lo que diga, no puede oponerse a cualquier sistema como si fuera una bestia sin pensamiento”.
Sistema holárquico
En ciertos sentidos, ambos aspectos son correctos. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. En su obra “Sobre la deconstruccion”, el pensador americano Jonathan Culler, uno de los mejores intérpretes de sistema deconstuctivo de Jacques Derrida, utiliza esta idea y le permite señalar que el filósofo francés no niega la verdad per se sino que insiste en que esta y el significado, están ligados a un contexto -a riesgo de ser pesados, recordamos que cada contexto es un todo que a su vez es parte de otro, que a su vez...
Culler afirma: “uno podría, por tanto, identificar la deconstruccion con los principios gemelos de la determinación contextual del significado y la infinita extensibilidad del contexto”.
La obra de Jacques Derrida es amplia y destacaríamos de él, obras como “La escritura y la diferencia”, “La diseminación”, “De la gramatología”, “Posiciones”, “La tarjeta postal” y más recientemente, “Espectros en Marx” y “Políticas de amistad”.
En la filosofía de Derrida se utiliza un método llamado deconstruccion. Mediante él, se inicia una investigación fundamental sobre el carácter de la tradición metafísica occidental y sus fundamentos. A simple vista, los resultados de dicha investigación parecen revelar una tradición llena de aporías lógicas y paradojas. Un buen ejemplo es el que a continuación enunciamos, aplicado a la filosofía de Rousseau.
Rousseau afirma, en cierto momento, que sólo debería escucharse la voz de la naturaleza. Esta naturaleza constituye una plenitud a la que no puede añadirse o sustraerse nada. Pero nos advierte del hecho que la naturaleza a veces tiene carencias, como ocurre cuando una madre no tiene suficiente leche para nutrir el niño que amamanta. Estas carencias pueden considerarse algo bastante corriente en la naturaleza, y constituyen una de sus características más significativas.
De modo que, a juicio de Rousseau, la naturaleza también tiene carencias, nos dice Derrida en su “De la Gramatología”. La carencia pone en peligro esa autosuficiencia, es decir, la identidad, o como prefiere decir Derrida, la autopresencia de la propia naturaleza. Esta sólo puede preservar su autosuficiencia si se cubre esa carencia. Sin embargo, de acuerdo con la lógica de la identidad, si la naturaleza requiere un complemento no puede ser autosuficiente -idéntica a sí misma-, porque carencia y autosuficiencia son opuestas.
El no-origen
La base de una identidad puede consistir en una u otra, pero no en ambas, si es que se quiere evitar una contradicción. Este ejemplo no es una excepción. La impureza de esta identidad o la destrucción de la autopresencia, son realmente inevitables. Porque en términos generales, en cualquier orden aparentemente sencillo, existe como condición de posibilidad, un no-origen. Los seres humanos necesitan la mediación de la conciencia o el espejo del lenguaje para conocerse a sí mismos y conocer el mundo.
Pero esa mediación del espejo, esas impurezas, tienen que quedar excluidas del proceso de conocimiento; lo hacen posible, pero no están incluidas en él. O, si la están, como en la filosofía de los fenomenólogos, pasan a equivaler, también ellas -conciencia, subjetividad, lenguaje- a una especie de presencia idéntica a sí misma.
El propósito de la deconstruccion no es solo demostrar que las leyes del pensamiento, desde el punto de vista filosófico presentan carencias. Más bién, la tendencia que se observa en la obra de Derrida es la preocupación por producir efectos, abrir el campo filosófico para que pueda seguir siendo él, el espacio de la creatividad y la invención.
Bien, tortugas todo el recorrido hacia arriba y hacia abajo. Lo que la decontrucción cuestiona es la de encontrar un lugar último de descanso, ya sea en la totalidad, en la parcialidad o en cualquier lugar intermedio. Cada vez que alguien encuentra la interpretación final o fundamental de un texto -o de la vida, de la historia o del kósmos- siempre esta a mano la deconstruccion para decir que el contexto total - o interpretación holística - no existe porque es parte de otro texto, infinitamente, para siempre. Culler lo expresa así: “el contexto total (holismo definitivo) es imposible de denominar tanto como principio como en la práctica. El significado esta ligado al contexto, pero este es ilimitado”. Tortugas transfinitas, diríamos nosotros.
En su obra, El discurso filosófico de la modernidad, Jürgen Habermas, que generalmente discrepa con las posiciones de Bataille y Derrida, está, sin embargo de acuerdo con ellos en un punto muy concreto.
Él lo expresa así: “por principio estas variaciones de contexto que cambian el significado no pueden ser detenidas porque los contextos no pueden ser agotados, es decir, no pueden ser determinados teóricamente de una vez por todas”.
El hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.
En cuanto a nuestro viaje, solo debemos señalar que si hay sistema pero que es deslizante: el Kósmos es un Todo sin fin y el Todo esta compuesto por holones.
Wilber enuncia unos veinte principios básicos agrupados en doce categorías que él considera pautas o tendencias comunes que operan en los tres dominios de la evolución: fisiosfera, biosfera y noosfera. Estas tendencias dan cohesión al universo de manera que éste constituye un pluralismo emergente entrelazado por patrones comunes, los patrones de conexión. De estos patrones o principios, abordaremos hoy tan sólo el primero que da título al artículo. He de advertir que estos patrones funcionan perfectamente en el lenguaje del naturalismo objetivo, el lenguaje del “ello”, el neutro en tercera persona. Wilber, cuidadosamente, ha modelado estos principios en un nivel y grado de abstracción compatible con los lenguajes del “ello” (naturalismo objetivo o esfera de lo verdadero), del “yo” (estética o esfera de lo bello) y del “nosotros” (ética o esfera de lo bueno) de forma que la síntesis pueda continuar sin violencia hacia dominios en los que, previamente, la Teoría Dinámica de Sistemas había realizado un reduccionismo estricto en términos que le son propios: naturalistas y objetivantes. Este es el aspecto, advierto desde ahora, más vulnerable de todo el entramado filosófico wilberiano y, tal vez el que supone para mi el mayor reto que, afortunadamente para mi, no tendré que abordar por ahora.
Ya hemos dicho anteriormente, que no hay cosas ni procesos, únicamente holones y que no existe límite ni hacia arriba ni hacia abajo o, expresado matemáticamente, límite superior o inferior.
Ni totalidad, ni partes
Como la realidad no esta compuesta de totalidades y tampoco de partes porque sólo hay totalidades/partes, este planteamiento elimina de raíz la discusión tradicional entre el atomismo -todas las cosas están fundamentalmente aisladas y las totalidades individuales interactúan solo por azar- y el holismo -todas las cosas son meras hebras o partes de la red o del todo mayor-. Estos dos planteamientos son totalmente incorrectos ya que no hay ni totalidades ni partes. Únicamente hay totalidades/partes.
Si somos sutiles, veremos que estamos eliminando el dilema entre los materialistas y los idealistas. La realidad no está compuesta de quarks o de hadrones interdependientes, o de intercambio subatómico; pero tampoco lo está de ideas, símbolos o pensamientos. Esta compuesta de holones.
Wilber nos introduce en un viejísimo y hermoso cuento de origen oriental, que narra la visita de un rey a un viejo sabio al que desea realizar algunas consultas y también probarle. De esta guisa le pregunta: “¿por qué la Tierra no se cae?” El viejo sabio le contesta: “la Tierra se sostiene sobre un león”. El rey, lógicamente, vuelve a la carga: “¿sobre que se sostiene el león que propones?”. “El león se sostiene sobre un elefante,” responde el viejo. Pero la respuesta no satisface al rey que insiste: “¿sobre que se sostiene el elefante?”. “El elefante se sostiene sobre una tortuga”. Y vuelve a la carga el rey: “¿sobre que se sostiene...?”. Cansado, el viejo responde: “puede detenerse ahí Majestad, todo es un infinito conjunto de tortugas hacia abajo”. O todo holones hacia abajo.
Releyendo el precioso libro de Hofstadter, “Gödel, Escher, Bach, un eterno y grácil bucle”, se plantea en el capítulo V la cuestión de la recursividad. Hofstadter, al referirse a la amplitud de éste concepto, introduce un lenguaje que nos es familiar, sin que él conociese previamente la terminología de Wilber. Así habla de relatos dentro de relatos, partículas dentro de partículas, matuskas dentro de matuskas, incluso comentarios entre paréntesis dentro de comentarios entre paréntesis; estos son tan sólo algunos elementos de la recursividad.
Para aclarar más fehacientemente el concepto de recursividad debemos involucrar a los llamados conjuntos recursivamente enumerables o abreviadamente, r.e. Que un conjunto sea r.e. significa que pueda ser generado a partir de unos puntos de partida que denominamos axiomas mediante la aplicación reiterada de reglas de inferencia. Así el conjunto crece y crece, y sus nuevos elementos se van componiendo, de algún modo, con los elementos anteriores, en algo que Hofstadter describe muy bellamente: en una suerte de “bola de nieve matemática”.
Bola de nieve
Esa es la esencia de la recursividad: la definición de algo en función de versiones más simples de ello mismo, en lugar de hacerlo explícitamente. Los números de Fibonacci y los números de Lucas, son ejemplos perfectos de conjuntos r.e.: a partir de dos elementos, y gracias a la aplicación de una regla recursiva, echan a rodar una bola de nieve formada por infinitos conjuntos (es sólo por convención por lo que llamamos r.e. a un conjunto cuyo complementario es también recursivo y recursivamente enumerable).
La enumeración recursiva constituye un proceso donde surgen elementos nuevos a partir de elementos anteriores, por la acción de reglas establecidas. Parece que en estos procesos se dan muchas sorpresas, por ejemplo la impredictibilidad de la llamada secuencia Q. Es posible suponer que las secuencias recursivamente definidas de tal tipo posean la cualidad intrínseca de asumir un comportamiento cada vez más complejo, de suerte que cuanto más se avanza, menor es la predictibilidad.
Esta clase de suposición, si se profundiza un poco en ella, sugiere que los sistemas recursivos, adecuadamente complicados, son lo bastante poderosos como para evadirse de cualquier molde prefijado ¿Y esto no es uno de los atributos que definen la inteligencia? En vez de considerar únicamente programas integrados por procedimientos que apelan recursivamente a sí mismos ¿por qué no trabajar con procedimientos realmente refinados, mediante la creación de programas que puedan modificarse a sí mismos? Es decir, programas que ejerzan su acción sobre programas, extendiéndolos, mejorándolos, generalizándolos, reordenándolos, etc. Es probable que esta forma de “recursividad entrelazada” sea uno de los elementos sustanciales de la inteligencia.
La recursividad es un tema de primer orden, si no “el tema” por excelencia. Me explico: examinemos una forma en la que el mundo entero aparece construido a partir de la recursividad. Esta afirmación se relaciona con la existencia de las partículas elementales: electrones, protones, neutrones y los diminutos quanta de la radiación electromagnética llamados fotones. Veremos que estas partículas están –de una manera que sólo puede ser establecida por la mecánica cuántica relativista- incluidas unas dentro de las otras, de una manera que sólo puede ser descrita recursivamente.
Partículas desnudas
Si las partículas no interactuasen entre sí, las cosas serían muy simples. A las partículas exentas de interacción se las denomina “desnudas” y se las trata como creaciones meramente hipotéticas: no existen.
Ahora bien, cuando las partículas son “puestas en marcha”, se entrelazan entre sí recíprocamente, vinculándose. Se dice de las partículas que han sido “normalizadas”. Lo que ocurre es que cualesquiera de estas partículas, considerada individualmente, no puede definirse si no lo es en referencia a todas las demás partículas. La definición de éstas, a su vez, depende de su relación con las anteriores, etc., y así giro a giro, en un circuito sin final.
Mediante un extenso e ingenioso razonamiento que debe leerse en su precioso libro, que implica además la utilización de los diagramas de Feynman, Hofstadter concluye que la cuestión esencial respecto de una partícula material subatómica –una partícula renormalizada- comprende:
1. Una partícula desnuda.
2. Un enorme amasijo de partículas virtuales enrolladas entre sí, inseparablemente, formando una trama recursiva. La existencia de una partícula real implica por lo tanto la existencia de muchas otras, contenidas en la nube virtual que la rodea a medida que se desplaza. Y cada una de las partículas virtuales de la nube arrastra, evidentemente, su propia nube virtual, burbujas dentro de otras burbujas -holones dentro de holones, diríamos nosotros- y así sucesivamente, “ad infinitum”.
Paradojas lógicas y Teorema de Tarski
Para muchos, una paradoja es algo que a primera vista parece ser falso pero que en realidad es cierto; o que parece ser cierto pero que en rigor es falso; o sencillamente que encierra en sí mismo contradicciones. Los conceptos de certeza o falsedad en matemáticas y aún el de contradicción, dependen del grado de desarrollo de la matemática en un momento dado; parodiando a Hamlet puede decirse que «lo que una vez fue paradoja, ya no lo es, pero puede volver a serlo».
Este hecho también se da en las ciencias experimentales y conduce inicialmente a un cuestionamiento del concepto de «rigor científico» que se maneja en cada época. Uno de los aspectos más interesantes de la matemática estriba en que sus más difíciles paradojas encuentran un camino para originar las más bellas y profundas teorías; Kasner y Newman sostienen: «El testamento de la ciencia es un flujo continuo, de tal manera que la herejía del pasado es el evangelio del presente y el fundamento del mañana” (Kasner, et al., 1979). A menudo se llega a paradojas cuando se contradice el denominado principio del tercero excluido (Kleiner et al., 1994), que afirma lo siguiente: cualquier enunciado proposicional es verdadero o es falso, pero no se pueden dar ambas cosas simultáneamente.
Al tratar de aplicar a conjuntos infinitos el hecho de que: Si es posible emparejar todos los elementos de un conjunto con todos los pertenecientes a otro, entonces, ambos conjuntos tienen el mismo número de elementos puso a los matemáticos ante algunos hechos que eran inexplicables en su época y que fueron considerados como paradojas.
Entre las paradojas lógicas o matemáticas, están las debidas a los denominados conjuntos paradójicos. Un conjunto paradójico, es aquel que el admitir su existencia conduce a paradojas.
La paradoja de Cantor
El primer ejemplo de un conjunto de este tipo fue dado el 28 de marzo de 1897 por el matemático italiano Cesare Burali-Forti (1861-1931) quien la presentó en un encuentro del Círculo Matemático di Palermo. En pocas palabras la paradoja es la siguiente: Se sabe en teoría intuitiva de conjuntos, que todo conjunto bien ordenado tiene un número ordinal; en particular, como el conjunto de todos los ordinales es bien ordenado, entonces debe tener un ordinal, digamos S, pero el conjunto formado por todos los ordinales agregándole S, tiene ordinal S + 1, que es mayor que S, por lo tanto no puede ser el número ordinal del conjunto de todos los ordinales ya que S y S +1, no cumplen la ley de tricotomía.
Un conjunto paradójico es el de la denominada paradoja de Cantor. En 1899, en una carta que envió Cantor a Dedekind, observa que no puede hablarse del “conjunto de todos los conjuntos”, ya que si Q fuese este conjunto entonces el conjunto P (Q) de todos los subconjuntos de Q sería un elemento de Q, es decir:
P (Q) pertenece a Q y también P (Q) es un subconjunto de Q.
Entonces existe m tal que 2 (expo m) más o menos m, lo cual es una contradicción.
Después del surgimiento del Axioma de Regularidad en la Teoría de Conjuntos (1917) puede emplearse el siguiente argumento:
Como P (Q) pertenece a Q y Q pertenece a P (Q), entonces Q pertenece aQ, lo cual contradice el Axioma de Regularidad.
El lógico alemán Gottlob Frege (1848-1925) consideraba: “los matemáticos deben de hacer frente a la posibilidad de encontrar una contradicción que convierta el edificio completo en ruinas. Por esta razón me he sentido obligado a volver a los fundamentos lógicos generales de la ciencia...”. Es así como se dedicó durante un cuarto de siglo a construir la fundamentación lógica del análisis; con tal fin elaboró un sistema formal que intentaba servir como fundamento de las matemáticas.
Este sistema se sostenía en varios principios dos de los cuales son los siguientes:
1. Principio de Extensionalidad: dos propiedades son equivalentes si son aplicables a los mismos individuos.
2. Principio de Abstracción: Toda propiedad define un conjunto.
Sus ideas fueron plasmadas en dos extensos volúmenes. En 1902 ya había publicado el primero y el segundo estaba en la imprenta listo para ser publicado, cuando recibió una carta del joven matemático inglés Bertrand Russell (1872-1870) en la que le planteaba la siguiente inquietud:
Si x es, por ejemplo, el conjunto de los conjuntos que no son cucharas, x pertenece a x, pero si x es el conjunto de todas las cucharas, evidentemente x no es una cuchara y por lo tanto x no pertenece a x.
Sea el siguiente conjunto:
P = (x/ x pertenece a x).
Si P pertenece a P implica a P pertenece a P, lo cual es una contradicción. Si P pertenece a P implica a P pertenece a P, lo cual también es una contradicción.
Esta paradoja que presentó Russell, convertía en contradictoria las bases mismas de la obra científica de Frege.
En un gesto de gallardía y de humildad científica, Frege escribió una nota a pie de página al final del segundo volumen que comenzaba diciendo: “Difícilmente puede encontrarse un científico con algo más indeseable que notar que ceden los fundamentos de una obra que acaba de terminar. En esa situación me encuentro al recibir una carta del señor Bertrand Russell cuando el trabajo estaba casi en imprenta”.
Principio falso
Realmente lo que demuestra la paradoja de Russell es que el principio de abstracción es falso, y es este aspecto el que hace contradictorio el sistema de Frege, aunque la forma como construyó el análisis no lo fue.
La causa de muchas de estas paradojas, como señalaban Russell y Whitehead, radica en la definición de un objeto en términos de una clase que contiene como elemento al objeto que se está definiendo. Tales definiciones se llaman impredicativas y aparecen de manera especial en teoría de conjuntos.
Como afirman Kasner y Newmann: «Quizás la mayor de todas las paradojas es que haya paradojas en la matemática” (Kasner, 1979). Afortunadamente para esta ciencia, las paradojas siempre han estado presentes en su quehacer, ellas se han convertido en un verdadero reto, fuente de inspiración y creación, que le ha permitido adquirir no sólo un alto grado de desarrollo, sino también la ha obligado a cambiar sus conceptos de rigor y precisión, ¡bienvenidas sean pues las paradojas!
A continuación mencionaremos el teorema de Alfred Tarski huyendo de las complejidades de la notación lógico-matemática que conlleva, verbalizándolo en la medida de lo posible. En su trabajo, Tarski se propone llegar a una definición satisfactoria de la noción del término "verdad". Ésta definición sería materialmente adecuada y formalmente correcta. Pero desde un principio, Tarski advierte que el problema, debido a su generalidad, no puede considerarse de una forma inequívoca. La adecuación material serviría para deshacerse de la ambigüedad; mientras que la corrección formal, requerirá de una descripción de la estructura formal del lenguaje en el cual se dará la definición de verdad. Desde este punto, la definición no se podría aplicar al lenguaje natural, ya que éste no es formal
Tarski se propone aplicar el término "verdad" sólo a enunciados, y no a proposiciones; debido a la ambigüedad de la definición de estas últimas. Esto lleva a relacionar a la noción de "verdad", así como a un enunciado, a un lenguaje específico.
Concepto ambiguo
En cuanto al significado del término "verdad", es claro que es extremadamente ambiguo. Tarski cita la definición de Aristóteles de "verdad": "El decir de lo que es que no es, o de lo que no es que es, es falso; mientras que el decide lo que es que es, o de lo que no es que no es, es verdadero". Adapta esta definición a terminología moderna como: "La verdad de un enunciado consiste en su concordancia con (correspondencia con) la realidad". Aquí podríamos objetar un problema de percepción: no es posible demostrar con la mente qué es la realidad, ya que podemos definir a la realidad como "aquello que perciben nuestros sentidos". Y la validez de nuestros sentidos sólo es probable empíricamente.
También en estas definiciones hay un problema de contexto. Algo puede cambiar su valor de verdad al cambiar de contexto. Y en el fondo de todo, se esconde una metafísica, en la cual la noción de "verdad" debe estar basada. Y, usando el teorema de la incompletitud de Gödel, podemos demostrar que esta verdad no podrá demostrar a la metafísica que la propone (no se puede encontrar la verdad de la metafísica). Estos son sólo algunos de los problemas que presentan estas definiciones de verdad, que aunque Tarski no discute ninguna, es claro que estas no son definiciones satisfactorias de verdad.
Para obtener la adecuación, Tarski distingue primero entre los nombres de los enunciados, y los enunciados en sí, para evitar autoreferencias. Pero como demostró Gödel, las autoreferencias siempre estarán ahí.
Lenguaje formal
La concepción de "verdad" de Tarski es semántica. Esta última trata de "ciertas" relaciones entre las expresiones de un lenguaje, y los objetos a los cuales se refieren esas expresiones. Algunas de estas relaciones pueden ser: designación, satisfacción y definición. Pero el término "verdad" no establece una relación entre expresiones y objetos. Expresa una propiedad de las expresiones (en este caso, enunciados). Aunque, Tarski mismo indica que la semántica no resuelve todos los problemas de una definición de verdad.
Para evitar paradojas y antinomias, Tarski decide definir su concepto de "verdad" sobre un lenguaje "especificado exactamente" (formal). Esto es, que se caractericen sin ambigüedades las palabras y expresiones que se vayan a considerar con sentido. Para esto requiere de axiomas, reglas de inferencia, y teoremas.
Aunque sea un lenguaje formal, gracias a Gödel hemos visto que no es posible desterrar a las paradojas. Entonces, ¿por qué no tratar de comprenderlas? Desde aquí los intentos de Tarski pierden toda esperanza.
Principalmente, Tarski describe a las causas que provocan la inconsistencia de los lenguajes cerrados:
1. Hemos asumido que el lenguaje contiene tanto a las expresiones, como a los nombres de las expresiones. Por consiguiente, es directamente autoreferencial.
2. Hemos asumido que en el lenguaje rigen las leyes ordinarias de la lógica.
Tarski califica de "superfluo" el querer cambiar la lógica ("suponiendo que sea posible"), para poder resolver el problema por el punto dos. La lógica depende directamente de sus axiomas. En el caso de la aristotélica, estos son: "algo sólo puede ser verdadero ó falso, pero no otra cosa, ni las dos al mismo tiempo". Al cambiar los axiomas, se cambia la lógica. Así se crearon las lógicas paraconsistentes. En las lógicas paraconsistentes, se admite que se pueda llegar a una conclusión a base de premisas contradictorias.
Problemas lógicos
Por lo tanto, las paradojas, al comprenderse, dejan de ser contradictorias. Y podemos decir además, que una lógica paraconsistente, es completa e incompleta al mismo tiempo. El problema de la definición de "verdad", así como todos los "problemas" que son implicaciones de paradojas, son problemas esencialmente lógicos. Si es un problema lógico, ¿por qué tratar de formalizar al lenguaje natural, cuando de todos modos si fuese formal habría paradojas? Eso, es ponerle a la filosofía zapatos que no le quedan. Si la lógica no contiene al lenguaje, los más adecuado sería desarrollar una lógica que lo contenga, y no mutilar al lenguaje para que entre a golpe de “teoremazo”.
Pero bueno, para Tarski seamos superfluos, y sigamos con su exposición, la cual se dirige a atacar el problema por el punto 1. Esto es, prohibir que un lenguaje se describa a sí mismo. ¡Pero un lenguaje sin autoreferencia no es lenguaje! ¡Todas las limitaciones impuestas! En fin, para lograr esto, Tarski propone un lenguaje-objeto, el cual básicamente se referirá solamente a describir objetos, y un meta-lenguaje, el cual tendrá una mayor jerarquía, y podrá decir si un enunciado del lenguaje-objeto es verdadero o falso. Pero entonces, ¿cómo puedo obtener la verdad de una frase del meta-lenguaje? ¿Con un meta-meta-lenguaje, y así creo meta-lenguajes ad infinitum?
Para dar su definición de "verdad", Tarksi emplea el término semántico de satisfacción. Entonces, define que "un enunciado es verdadero si es satisfecho por todos los objetos, y falso en otro caso". Podemos decir que su definición es satisfactoria, después de todas las limitaciones que puso antes de plantearla. Es satisfactoria, pero no es muy útil. Es satisfactoria solamente para lenguajes teóricos especialmente diseñados para que cumplan con esa definición. No es aplicable al lenguaje natural, al científico, al filosófico, y a muchos lenguajes formales.
¿Por qué no, para no meterse en problemas, los filósofos hicieron como Newton? Cuando a éste le preguntaron, que por qué no definía movimiento, tiempo y materia, dijo que no veía el caso, ya que eran "bien conocidos de todos". Es decir, ¿cómo podemos pretender definir un concepto en el que se basa nuestro lenguaje, como el de verdad, usando conceptos que se basan en el concepto que queremos definir, queriendo expulsar a la autoreferencialidad? La autoreferencia es la única vía para intentar una definición.
Pero el objeto de una definición es el de unificar y delimitar conceptos. Y en estos casos, en el de definiciones de conceptos generales (o primarios), las definiciones mismas no logran ni unificar ni delimitar lo que tratan de definir, ya que hay muchas definiciones para un concepto. Sería iluso aspirar a una definición completa sin que ésta fuese infinita. Pero es claro que las definiciones, aunque incompletas, como la de Tarski, delimitan parcialmente lo que tratan de definir. ¿Cómo describir algo que se usa para describir a las cosas? Es debido a esto que no comentaremos acerca de las críticas hechas al trabajo de Tarski, y las respuestas de éste.
Saber pensar
En cuanto a los comentarios finales de Tarski, en los cuales responde a los pragmáticos que cuestionan la aplicación del trabajo matemático, se darán a continuación algunas opiniones personales. Personalmente, he tenido la misma experiencia con mis alumnos, cuando cuestionan la aplicación de algún ejercicio mental que les propongo. La aplicación (o la finalidad) no es directa, ya que afecta al pensamiento en el cual se desarrollan las aplicaciones. Es decir, la teoría "sin aplicaciones", afecta al pensamiento. Enseña a la gente a pensar y a ejercitar la mente. No se pueden crear aplicaciones si uno no sabe pensar.
De ninguna manera el trabajo de Tarski carece de importancia; más bien todo lo contrario. Alcanza lo que Tarksi se propuso: hacer una definición parcial y limitada de "verdad" en un sistema formal cerrado. No será práctica, pero indudablemente define mejor la noción de "verdad". No es necesario saber qué significan las palabras para usarlas. Manejamos un automóvil sin saber nada de mecánica. Utilizamos una computadora sin saber algo de electrónica. Pensamos sin saber cómo, amamos sin saber qué es el amor, y vivimos sin saber qué es la vida. Pero es necesario por lo menos tener una idea. Y Tarski da una muy buena idea de qué podemos entender por "verdad".
El Teorema de Gödel y su interpretación filosófica
Para abordar con éxito y sobre todo con la posibilidad de ser comprendido por muchos, voy a abordar el trascendental Teorema de Incompletitud (1931) ha proporcionado a Kurt Gödel una fama legendaria: es considerado "el descubridor de la verdad matemática más significativa de este siglo". Marca un hito en la historia de la lógica matemática. Y para hacerlo proclamo ya que voy a recurrir a los magníficos trabajos de Guillermina Díaz Muñoz y a sus múltiples trabajos que ponen en íntimo contacto la matemática de Gödel y a la filosofía de Xavier Zubiri, homenajeando de paso a este ilustrísimo pensador español inmerecidamente olvidado y reconociendo los importantes trabajos de Díaz Muñoz ante un público menos especializado en filosofía zubiriana.
Sin duda podría haber introducido el tema de Gödel por otros derroteros pues hay múltiples pero en las presentes circunstancias de injusto olvido de Zubiri y papanatismo generalizado, reivindico así a un pensador español universal y a una importante filósofa de nuestros días. Iré pues muy pegado a los textos de Díaz Muñoz para que el relato mantenga toda su riqueza originaria.
El alcance filosófico del Teorema de Gödel ha sido profundo. Supone el cuestionamiento de las distintas filosofías de la matemática de finales del s. XIX y principios del s. XX: el logicismo de Russell, el formalismo de Hilbert y el intuicionismo de Brouwer. Como dicen Nagel y Newman: "provocó una nueva valoración, todavía en trance de desarrollo, de una extendida filosofía de la matemática y de la filosofía del conocimiento en general".
Gödel, como examinaremos, inicia el giro del "apriorismo-idealismo" del Positivismo Lógico al "realismo" de la nueva filosofía de la matemática.
Creemos que la exigencia, planteada por los resultados de Gödel, de una nueva filosofía, no-dogmática, de la matemática (y del conocimiento, en general), tiene, su máximo cumplimiento en dos autores: Lakatos y Zubiri. Sus respectivas interpretaciones del Teorema de Gödel, tanto el principio de conservación de la falibilidad o de la sofisticación de Lakatos y la anterioridad de la realidad sobre la verdad de Zubiri, constituyen el eje de toda su filosofía matemática y del conocimiento. Sus posturas son dos alternativas a la crisis gödeliana del fundamento matemático. Mientras que Lakatos sustituye la tarea de la fundamentación por la tarea del avance matemático, Zubiri pretende también, como veremos, proporcionar una fundamentación no-dogmática de la matemática. Su propuesta es un nuevo tipo de Constructivismo.
Consistencia y completitud
La aportación de Gödel está en el contexto del planteamiento que Hilbert hace de los sistemas formales. Hilbert ha presentado como requisitos y problemas fundamentales de un sistema formal matemático dos aspectos: la consistencia y la completitud. Un sistema formal es completo si cada sentencia expresable con su lenguaje formal es decidible a partir de sus axiomas. Partiendo de sus axiomas y aplicando las reglas lógicas, podemos llegar a la conclusión de A o no-A. Y, por otra parte, un sistema formal es consistente si no puede deducirse dentro del sistema A y no-A. Pues bien, los resultados de Gödel resuelven estas dos cuestiones de modo negativo.
Ya en 1930, Gödel en su artículo: Algunos resultados meta-matemáticos sobre completitud y consistencia, muestra, respecto a un sistema formal, S, resultante de unir a los axiomas de Peano la lógica de Principia Mathematica, los siguientes teoremas:
I. El teorema de la incompletitud del sistema S.
"El sistema S no es completo, es decir, en él hay sentencias j (que pueden efectivamente ser indicadas), tales que ni j ni no j son deducibles y, en especial, hay problemas indecidibles con la sencilla estructura existe x Fx, donde x varía sobre los números naturales y F es una propiedad (incluso decidible) de los números naturales".
Es un resultado definitivo, de tal modo que aunque se añadan nuevos axiomas, el sistema seguirá teniendo fórmulas nuevas indecidibles.
II. El teorema de la imposibilidad de la prueba de la consistencia en S.
"Incluso si admitimos todos los medios lógicos de Principia Mathematica (...) en la metamatemática, no hay ninguna prueba de consistencia para el sistema S (y aún menos la hay si restringimos de alguna manera los medios de prueba)".
En 1931, Gödel da las pruebas de sus descubrimientos en el citado artículo, Sobre sentencias formalmente indecidibles de principia mathematica y sistemas afines. En éste plantea que el desarrollo de la matemática ha exigido la plena formalización de ésta; dos ejemplos de gran perfección son el sistema de Principia Mathematica y la teoría axiomática de conjuntos de Zermelo-Fraenkel (y su complementación por parte de J. von Neumann). Sin embargo, muestra que no hay ningún sistema formal matemático, con un número finito de axiomas, que sea completo.
Proposición indecidible
Este resultado no se ve modificado por el hecho de que introduzcamos entre los axiomas aquél que nos permita derivar la proposición que resultaba ser indecidible, porque si bien del nuevo sistema ésta se deduciría, surgiría otra proposición que igualmente sería indecidible y así sucesivamente. Por ello es un resultado esencial en los sistemas formales que incluyan la aritmética.
Dice Gödel: "Estos dos sistemas son tan amplios que todos los métodos usados hoy día en la matemática pueden ser formalizados en ellos, es decir, pueden ser reducidos a unos pocos axiomas y reglas de inferencia. Resulta por tanto natural la conjetura de que estos axiomas y reglas basten para decidir todas las cuestiones matemáticas que puedan ser formuladas en dichos sistemas. En lo que sigue se muestra que esto no es así, sino que, por el contrario, en ambos sistemas hay problemas relativamente simples de la teoría de los números naturales que no pueden ser decididos con sus axiomas (y reglas)"
Una consecuencia de los resultados de incompletitud es la relativa a la prueba de la consistencia del sistema P. Es imposible obtener una prueba finitista de consistencia (en los términos planteados por los formalistas) para un sistema formal que contenga formalizados todos los modos finitos de prueba. La consistencia es una de las fórmulas indecidibles en los sistemas incompletos.
Dice Gödel: "Sea K una clase recursiva primitiva y consistente cualquiera de FORMULAS. Entonces ocurre que la SENTENCIA que dice que K es consistente no es K-DEDUCIBLE. En especial, la consistencia de P no es deducible en P, suponiendo que P sea consistente (en caso contrario, naturalmente, toda fórmula sería deducible).
La repercusión del trabajo de Gödel, dentro del área de la fundamentación matemática, es difícil de exagerar. Sin embargo, resulta decepcionante —y en primer lugar lo sería para el propio autor que concentró toda su energía y entusiasmo intelectual en este campo, convencido de su relevancia en la totalidad matemática— observar que su impacto en la practica de los matemáticos es insignificante.
Como dice Hao Wang: "IA [el Teorema de incompletitud de la Aritmética] ha tenido en conjunto poca influencia sobre la práctica matemática. Naturalmente, si (algún sistema formal de) la aritmética hubiera resultado ser completo (y, por ende, decidible), la investigación en teoría de números habría adoptado una forma totalmente distinta"
Y, un poco más adelante, señala que su impacto ha sido mayor en la tecnología actual, rama que no interesó directamente a Gödel. "Curiosamente, ha tenido más impacto sobre las cuestiones conceptuales que tienen que ver con los computadores y la mecanización, cuestiones que son una preocupación central en la tecnología actual"
Repercusiones del Teorema de Gödel
El Teorema de Gödel ha revolucionado la filosofía de la matemática, mostrando su inadecuación e insuficiencia para explicar el fundamento de la matemática y comprender su naturaleza. Veamos, brevemente, su repercusión en cada una de las "escuelas" de fundamentación de la matemática de principios de siglo.
a) El Teorema de incompletitud significa para el logicismo de Russell y Whitehead el fracaso de su intento de construir un sistema lógico que permita incluir la aritmética. Pone de manifiesto que la verdad matemática es de amplitud mayor que la verdad lógica, y, por tanto la irreductibilidad de la matemática a la lógica.
W. y M. Kneale (1961) señalan el desafío del resultado gödeliano a la identificación de matemática y lógica de Russell: "Desde Gödel, parece razonable responder que la lógica no se extiende más allá de la teoría de la cuantificación. Cuando decimos que la aritmética y, con ella, todos los llamados cálculos funcionales de orden superior, así como todas las versiones de la teoría de conjuntos, son esencialmente incompletos, estamos efectivamente admitiendo que esas teorías envuelven alguna noción, o más de una, de la que no cabe ofrecer una exhaustiva caracterización mediante el establecimiento de una serie de reglas de inferencia: y ésta parece constituir una buena razón para excluirlas del dominio de la lógica..."
b) Respecto al formalismo de Hilbert, Gödel demostró los límites internos de los sistemas formales. La matemática es inagotable desde cualquier sistema formal, siempre habrá verdades matemáticas indecidibles dentro de éstos. El método axiomático es de fecundidad limitada. Las afirmaciones aritméticas son irreductibles a las afirmaciones de un sistema formalizado (tanto si sus axiomas son lógicos como si son una sistematización de axiomas lógicos y aritméticos).
Como señala Morris Kline: "El fenómeno de la incompletitud constituye un importante defecto porque entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema"
c) Estos resultados también son decisivos para el intuicionismo de Brouwer. Aunque de algún modo ya habían sido vistos por éste —razón por la que se extrañaba de la gran importancia que se les había dado—, sin embargo, el mérito de Gödel está en haber construido unas pruebas formales claras para mostrar la existencia concreta de proposiciones indecidibles a partir del sistema formal que incluye la aritmética elemental.
Del mismo modo probó que la consistencia no puede demostrarse dentro del sistema. Por tanto, respecto del intuicionismo, "...el trabajo les hizo ver de qué modo el uso apropiado de métodos formales podía llevar a conclusiones precisas que ellos sólo podían ver en parte y de forma imprecisa".
d) Los resultados de Gödel tienen también una profunda repercusión en la primera filosofía objetivo-ideal de la matemática de Zubiri. Los siguientes términos expresan el Teorema de Gödel tal y como lo recoge nuestro filósofo: "Lo postulado tiene propiedades que no son deducibles de los postulados ni pueden ser lógicamente refutadas por ellos."
Y también, "Jamás podrá demostrarse positivamente la no contradicción de un verdadero sistema de notas o conceptos objetivos"
Ciencia viva
El planteamiento anterior nos presenta la matemática de principios del s. XX como una ciencia viva, que no puede avanzar sin plantearse el problema de sus principios o fundamentos. Y en esta "aventura, en la que les acompañan con emoción el intelecto entero", se encuentran de una forma sorprendente K. Gödel y X. Zubiri.
Experiencia que éste refleja en sus palabras: "Una ciencia que se halla en la situación de no poder avanzar, sin tener que retrotraerse a sus principios, es una ciencia que vive en todo instante de ellos. Es ciencia viva, y no simplemente oficio. Esto es, es ciencia con espíritu. Y cuando una ciencia vive, es decir, tiene espíritu, se encuentran en ella, ya lo hemos visto, el científico y el filósofo. Como que filosofía no es sino espíritu, vida intelectual"
Matemática y Filosofía, en el s. XX, quedan maravillosamente unidas en las figuras de Gödel y Zubiri. Ambos son prototipo de hombre intelectual: en ellos convive el diálogo matemática-filosofía de manera inseparable; si bien Zubiri es filósofo y está atento a los resultados matemáticos, y Gödel es, en primera línea, matemático-lógico y tiene un puesto justificado en la filosofía, sobre todo, en la filosofía de la matemática. Pero tanto uno como otro tienen una gran capacidad para combinar los resultados de la ciencia y de la filosofía. Y han coincidido en una empresa común: la fundamentación matemática.
Esta adquiere mayor relieve considerada una a la luz de la otra. La genialidad de Gödel está en su aportación matemática y lógica, su filosofía es un barrunto. Por el contrario, la de Zubiri está en su filosofía, la cual se apoya en las aportaciones matemáticas. Del mismo modo que se ha unido el nombre de Gödel al de Einstein, se puede unir a ambos un tercero: Zubiri. Física, matemática-lógica y filosofía no pueden marchar separadas como muestra la complementariedad de las aportaciones en sus respectivos campos.
La aportación de Gödel y la de Zubiri son dos hitos en la fundamentación de la matemática. De forma pública en 1952, se reconoció la importancia de K. Gödel. Los resultados obtenidos por éste han revolucionado la filosofía de la matemática, desde la luz que arrojan, las distintas escuelas de filosofía de la matemática: logicismo, intuicionismo y formalismo, resultan inadecuadas. Y, en general, ha revolucionado la filosofía tanto en su aspecto epistemológico como ontológico.
En concreto, la honda repercusión que tiene en Zubiri se advierte de inmediato por las numerosas veces que el Teorema de Gödel aparece mencionado en su obra. No sabemos, por falta de datos, en qué momento, entre 1931 (fecha del descubrimiento) y 1946 (fecha de la intervención de Zubiri en la Universidad de Princeton), Zubiri tuvo conocimiento exacto del descubrimiento de Gödel. Creemos que por primera vez, en los escritos publicados, lo menciona en el curso oral de 1953-1954, "El decurso vital", en el Problema del hombre, recogido en "Sobre el Hombre".
Zubiri, quizá como ningún otro filósofo, ha sabido sacar todas las consecuencias de estos resultados de lógica y matemática, de tal manera que su filosofía no sería la misma si no hubiera contado con ellos. Así puede constatarse con toda claridad que la filosofía de Zubiri se refuerza con los resultados de Gödel y éstos, a su vez, se interpretan fácilmente desde la filosofía de Zubiri.
Filosofía matemática original
La nueva filosofía de la matemática, elaborada en concordancia con los resultados de Gödel, es también sumamente original. Su descubrimiento filosófico capital es que la inteligencia matemática es sentiente. La revolución que resulta de la aportación de Zubiri es que la inteligencia concipiente se funda en la inteligencia sentiente y el ser en la realidad, y no al contrario, como se ha mantenido en la tradición filosófica. De ahí la necesidad de elaborar una filosofía sentiente de la matemática donde queden fundamentadas las filosofías concipientes de la misma
La filosofía de la matemática es afín en Gödel y Zubiri; ambos consideran la matemática como ciencia de la realidad. Si hemos visto que el abandono del objetivismo y el giro realista en Zubiri es debido, en gran parte, a la influencia de Gödel, es fácil suponer que los resultados matemáticos de éste influyen en primer lugar en su propia filosofía matemática. En efecto, Gödel mantiene un "realismo matemático"; critica la concepción matemática como sintaxis, tal y como defienden sus maestros Hahn, Schlick, Carnap; rechaza el convencionalismo en matemáticas por ser una interpretación insatisfactoria.
Afirma: "Pero, a pesar de su lejanía de la experiencia sensible, tenemos algo parecido a una percepción de los objetos de la teoría de conjuntos, como se puede ver por el hecho de que los axiomas mismos nos fuerzan a aceptarlos como verdaderos. No veo ninguna razón por la cual debamos tener menos confianza en este tipo de percepción, es decir, en la intuición matemática, que en la percepción sensible, que nos induce a construir teorías físicas y a esperar que futuras percepciones sensibles concuerden con ellas y, además, a creer que estas cuestiones no decidibles por el momento tengan significado y puedan ser decididas en el futuro".
Ya en 1930, Gödel en la Discusión sobre la fundamentación de la matemática en la cual participaron Hahn, Carnap, von Neumann, Scholz, Heyting, y Reidemeister, debatía las posturas clásicas del logicismo, formalismo e intuicionismo; y planteaba que la verdad y la consistencia no son equivalentes.
"Supuesta la consistencia de la matemática clásica, uno puede incluso ofrecer ejemplos de enunciados (del mismo tipo que los de Goldbach o Fermat) que son verdaderos en cuanto a su contenido, pero no son deducibles en el sistema formal de la matemática clásica. Por tanto, si añadimos la negación de un tal enunciado a los axiomas de la matemática clásica, obtenemos un sistema consistente, en el que es deducible un enunciado falso en cuanto a su contenido".
Ni nominalismo ni convencionalismo
Gödel se aparta, pues, del nominalismo y convencionalismo. En 1938, en La consistencia del axioma de elección y la hipótesis generalizada del continuo prueba que si los axiomas de la teoría de conjuntos son consistentes, también lo será el resultado de agregarles el axioma de elección y la hipótesis generalizada del continuo de Cantor, para ello se basa en el modelo de conjuntos constructibles; y esto unido al resultado de Cohen en 1963, mostrará la independencia de dichos axiomas. Sin embargo, Gödel no admite que esta independencia se justifique desde una postura convencionalista o nominalista.
En definitiva, ambos descubrimientos matemático (Gödel) y filosófico (Zubiri) se complementan, se iluminan mutuamente. Y la aportación común de la fundamentación de la matemática: realismo matemático y una inteligencia no-lógica de la matemática, es una flecha que atraviesa la fundamentación del conocimiento mismo. La vía de formalización y logificación de la matemática fracasa rotundamente ante la realidad de proposiciones verdaderas indecidibles en un sistema formal. La realidad matemática se resiste a ser deducida de un mero sistema finito de axiomas a través de unas reglas lógicas.
"La resistencia que las cosas ofrecen posibilita y fuerza al hombre a entenderse a sí mismo, a darse cuenta de ‘dónde está’. Así es como, al entrar en su presente, las cosas le dejan al hombre debatiéndose con su pasado. Y en este proceso, según sea la índole del choque, así es también el tipo de posibilidades que al hombre presente se le convierten en problema. No todo choque representa un momento de idéntica gravedad"
Al vernos forzados a entender las verdades matemáticas no como intuiciones ni como conceptos, la insuficiencia de nuestro concepto de inteligencia matemática se acusa con mayor gravedad. Esta es una dimensión del problema, la otra —respectiva a ésta— es la insuficiencia de nuestro concepto de objeto matemático que no es ni objeto-cósmico ni objeto-ideal. El choque con las verdades matemáticas no demostrables ni refutables en un sistema formal es la conmoción de la vía de la logificación de la matemática. Zubiri va a alumbrar una nueva noción de inteligencia y de realidad, que la matemática no puede proporcionarse a sí misma, sino sólo sugerir y esto no de forma unívoca; siempre hay que hacer una opción entre posibilidades, de ahí el carácter limitado de cada una de ellas.
Las posibilidades que el pasado otorga a Zubiri para fundamentar la matemática según las tres escuelas de filosofía de la matemática son la vía de la intuición y la vía lógico-formal. Si las examinamos a fondo, vemos que no son dos concepciones radicalmente opuestas sino que parten de una misma concepción de la inteligencia matemática: se trata de inteligencia sensible o concipiente, según la cual hay sentidos e inteligencia, y la inteligencia concibe lo que los sentidos le proporcionan. Hay una dualidad radical tanto si damos prioridad a la intuición como si se la damos al concepto. Zubiri ensaya otra vía: inteligencia sentiente.
Hemos visto que Zubiri cuando escribe su tesis doctoral en 1921 mantiene una concepción logicista-formal de la matemática, de acuerdo con la crisis de la intuición. A partir de 1931, los resultados de Gödel y su interpretación le han de llevar a unos planteamientos filosóficos nuevos. Va a suponer la conmoción de la Filosofía logicista de la matemática y la exigencia de una filosofía sentiente de la matemática. De tal manera marca un hito en la evolución del pensamiento de Zubiri que cabe hablar de la concepción "objetivista-ideal" de la matemática anterior a dicho teorema y la concepción ‘realista’ posterior al mismo.
Matemática inviable
La matemática, a la luz del descubrimiento de Gödel, resulta inviable como una secuencia de proposiciones verdaderas, puesto que hay algunas que no son "deducibles" del sistema de postulados y definiciones. La vía de formalización y logificación resulta una vía muerta. No es suficiente la vía lógica para acercarnos a las verdades matemáticas porque verdad no es demostrabilidad. Este es el nuevo reto de la filosofía zubiriana: fundamentar la nueva matemática. Para esta tarea no es adecuada ni la vía intuitiva ni la vía formal y lógica. ¿Qué nos queda? Si la crisis de la intuición nos condujo a la formalización y logificación de la matemática, ¿a dónde nos conducirá la conmoción de la formalización y la logificación de la matemática?
Gödel muestra en 1932, también en Sobre la teoría de números y la aritmética intuicionista que la matemática clásica es traducible a la matemática intuicionista, de este modo si ésta es consistente aquélla también lo es, según lo cual no resulta más arriesgada la matemática clásica que la intuicionista. Para Zubiri ni la inteligencia lógica ni la inteligencia intuitiva son adecuadas para la fundamentación de la matemática.
Esta situación intelectual de la fundamentación de la matemática a partir de Gödel le deja a Zubiri debatiéndose con la noción misma de inteligencia. Hacemos hincapié en esta idea porque, como Zubiri hace notar, no todas las crisis representan la misma gravedad. El choque es ahora más profundo incluso que el descubrimiento de las geometrías no-euclídeas. Éste alejó a la matemática de las ciencias empíricas asimilándola a la lógica; pero mientras se mantuviera la demarcación logicista entre ciencias empíricas y ciencias formales, no había unificación de la noción de inteligencia y de la estructura del saber. El Teorema de Gödel cuestiona esta demarcación en términos "concipientes", y ello nos lleva a un planteamiento radical de qué es inteligencia.
Por todo lo dicho, creemos que puede confirmarse nuestra hipótesis: los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Este horizonte es determinante para "engendrar" su primera concepción de estos problemas concretos; los desarrollos ulteriores deben, en muchos aspectos, más a las sugerencias de la biología, de la física y de otras ciencias.
En concordancia con Gödel, Zubiri elabora su filosofía de la realidad, entendiendo la realidad de un modo que viene determinado, sin duda, por sus resultados matemáticos. Es la etapa metafísica. Dejamos para más adelante el realismo de la matemática, basta decir ahora que rechaza la reducción de la matemática a la lógica. La influencia de Gödel en este giro zubiriano del objetivismo al realismo matemático se justifica también por el análisis comparado de los datos cronológicos respectivos.
“La insuficiencia de la lógica para aprehender la realidad matemática es resultado fundamental del teorema de Gödel, que, además de una nueva filosofía matemática, sugiere una nueva valoración del conocimiento y de la intelección en general”.
La logificación de la matemática y la idealidad-objetividad de su objeto han sido los dos errores de la tradición formalista y logicista de la matemática (y del primer Zubiri), y el choque con los resultados de Gödel nos llevan a "inteligización" de la lógica matemática y a la reificación de su objeto (filosofía del segundo Zubiri).
Zubiri interpreta toda la tradición filosófica europea haciendo uso de la misma clave que ha experimentado en el campo de la matemática: la logificación de la intelección matemática (la lógica funda la matemática) y la entificación de la realidad matemática (el objeto de la matemática es un ser ideal) se han estrellado, dejando al matemático y al filósofo cuestionándose el problema mismo de la inteligencia. Generalizando, nos dice Zubiri que la vía emprendida desde los griegos es la logificación de la intelección y respectivamente la entificación de la realidad.
Revolución filosófica
La revolución matemática nos conduce, en gran parte, a la revolución filosófica. La filosofía de Zubiri supone una inversión en el orden de la fundamentación de la tradición: el logos no funda la inteligencia, ni el ser funda la realidad sino, por el contrario, es la inteligencia quien funda el logos y la realidad quien funda el ser. Es lo que denominamos la revolución zubiriana, que es, en gran medida, la extensión filosófica de la revolución gödeliana y tiene justo el signo inverso a la que se opera en Kant bajo la denominación de "revolución copernicana". El principio último del conocimiento es la realidad. Como veremos, se trata de un realismo trascendental.
"No se puede entificar la realidad, sino que por el contrario hay que reificar el ser... No se puede logificar la intelección, sino justamente al revés: hay que inteligizar el logos." Esta es la idea central de todo el pensamiento de Zubiri y vemos el sorprendente isomorfismo entre la intelección matemática y la intelección en general.
La hipótesis de trabajo de Guillermina Díaz es que Zubiri se dirige a la matemática contemporánea para que le sugiera una visión más profunda de la inteligencia. Y este es el gran problema de la filosofía: "El problema de la filosofía no es sino el problema mismo de la inteligencia". Así pues, la matemática gödeliana es un presupuesto ineludible de la Filosofía de la realidad y de la "noología" de Zubiri.
La suma total de todas las totalidades/partes, no es una totalidad en si misma
Pero hacia arriba, también todo esta compuesto de “tortugas”. Las paradojas y los teoremas enunciados y comentados, han colocado a las matemáticas en un universo irreversible, eternamente en expansión y sin límite superior. A eso conduce precisamente la conclusión del lógico-matemático austriaco, naturalizado norteamericano, e íntimo de Einstein.
La totalidad de los conjuntos no puede ser el final de un proceso generativo bien definido, porque si lo fuera, podríamos tomar todo lo generado hasta entonces como un gran conjunto y continuar generando universos aun mayores. La totalidad de los conjuntos u holones matemáticos es una totalidad absoluta o “no condicionada”, que por esa razón no puede ser entendida adecuadamente por la mente, ya que el objeto de una concepción normal siempre puede ser incorporado a una totalidad más inclusiva. Recuérdese que el mundo de las ideas platónico no tenía dimensiones.
Además, los conjuntos están dispuestos en una jerarquía transfinita lo que significa una holarquía que continua hacia arriba por siempre, y debe continuar hacia arriba para siempre, “transfinitamente” porque en caso contrario las matemáticas llegarían a una contradicción que las haría detenerse. Incluso el mundo matemático observa una dirección temporal y su flecha temporal es indefinidamente, transfinitamente holárquica.
Estos conceptos son importantes también para la filosofía y en particular para muchos de los paradigmas de la comercial, camelística y socio- conformista New Age, que actualmente proclama el holismo sin saber muy bien lo que dice. Transfinito, significa que la suma total de las totalidades/partes en el universo no es una totalidad en sí misma, porque en el momento en que lo fuera esa totalidad sería una parte de la del momento siguiente que a su vez es solo una parte de la siguiente y así ad infinitum.
Siempre habrá una totalidad/parte más inclusiva hasta llegar al límite, que por cierto nadie sabe donde se halla y que algunos sitúan con evidente pretensión metafísica fuera del universo/universos de los que hemos hablado, y por ende del tiempo y el espacio. Sin entrar a elucidar una cuestión tan complicada, reunidas las flechas del tiempo como ya hemos visto, creo que cometeríamos un grave error si estableciésemos para ella una dirección –en cálculo vectorial, trayectoria- que fuese lineal. Nosotros la intuimos mas como una espiral –dinámica espiral- a modo de solenoide circular de manera que el llamado infinito hacia arriba y el infinito hacia abajo convergen en un único infinito –en realidad infinitos puntos- de un círculo, eso si infinito, donde cada retorno –eterno retorno nietzscheano- se represente por las vueltas de la espiral.
Contra la totalidad y el totalitarismo
Abordamos ahora una cuestión esencial: el totalitarismo desde el ecologismo. Evitar una totalidad dominante y globalitária es importante ante la aparición de un concepto muy peligroso y muy bién enmascarado, sobre todo por la tentación permanente de utilizarlo con fines ideológicos, lo que quiere decir que alguien puede querer convertirnos en meras partes de la versión particular de su “todo” y en meros hilos de su red a la vez que quedemos totalmente sometidos a su visión y poder.
A estos holístas, les gusta ingeniar utopías sociales y en este sentido nos preocupan sobre todo los ecologistas profundos y determinados ecofilósofos rechazan la industrialización y buena parte de la agricultura y muchos aspectos positivos que conlleva el progreso tecnocientífico. Si tienen razón o no es discutible, pero creo que al pretender abarcar el todo, rechazan gran parte de la existencia y de la propia evolución.
En otras palabras, como no hay nada a lo que se pueda llamar totalidad última, quienes la proponen han de proporcionarle un contenido que, al no poderse basar en la realidad, tiene que sustentarse en una determinada ideología. Y si como antes decíamos somos hebras de su “supuestamente maravillosa” red, parece sumamente razonable que nos propongan -por no decir impongan-, un programa social totalizador. No esta por demás indicar, que teóricos tan opuestos como Habermas o Foucault, han visto en estos programas totalizadores el principal enemigo moderno del mundo de la vida y la libertad.
Por todas estas razones rechazamos, el concepto de la totalidad y entendemos que el concepto de todo -que es suma de totalidades/partes, y no es en sí mismo una totalidad, ya que automáticamente nuestro propio pensamiento añade siempre un holón más, y así indefinidamente- es un imposible porque nunca hay un todo, sino una serie sin fin de totalidades/partes y así transfinitamente.
La vuelta al Kósmos griego
Los pitagóricos introdujeron el término Kósmos, que habitual e irreflexivamente traducimos como cosmos, para significar la naturaleza estructurada o proceso de todos los dominios de la existencia, desde la materia hasta las matemáticas o hasta las divinidades. No para describir el universo físico, que es su plana y unidimensional acepción actual, el cosmos con “c” y con minúscula.
Nos gustaría volver a introducir este término Kosmos. Él contiene al cosmos -o fisiosfera-, al bios -o biosfera-, y al nous -o noosfera-, donde ninguno de estos niveles es más fundamental que los demás, sino pura armonía de ascenso y descenso, por un mismo sendero, en equilibrio perfecto.
Podemos resumirlo así: el Kosmos esta compuesto de holones, de arriba abajo y de abajo a arriba, transfinitamente, circularmente.
La filosofía post-moderna o trans-moderna es anti-totalitaria y anti-globalitaria. Es abierta.
Nos parece pertinente proponer un ejemplo que tiene un origen tal vez provocador y sorprendente. Del post-estructuralismo postmoderno, grupo al que se suelen asociar nombres como Derrida, Foucault, Lyotard y, retrocediendo hacia el pasado, autores como Bataille y Nietzsche, que han sido enemigos de cualquier tipo de teoría sistemática o gran narrativa, podía esperarse que elevasen obstinadas objeciones a la teoría general holárquica. Pero si examinamos muy de cerca su trabajo, vemos que está sutilmente dirigido precisamente por el concepto de holones dentro de otros holones, etc.; o de textos dentro de textos, o de contextos dentro de otros contextos, y así sucesivamente. Y es este juego deslizante de textos dentro de textos, es el que constituye la “plataforma móvil” desde la que lanzan sus ataques.
Consideremos un texto de George Bataille: “cada elemento aislable del universo aparece siempre como una partícula que puede entrar en la composición de un todo que la trasciende. El ser se encuentra únicamente en la forma de totalidad compuesta de partículas cuya autonomía relativa se mantiene. Estos dos principios -simultáneamente totalidad y parcialidad- dominan la incierta presencia de un ser ipse, que desde la distancia nunca deja de ponerlo todo en cuestión” (La cita viene tomada del artículo Lo Sagrado en Vision of Excess. Selected Writing, 1927-1939).
Todo es puesto en cuestión, porque todo es un contexto dentro de otro contexto, eternamente. Y los post-estructuralistas posmodernos son conocidos por ponerlo todo en cuestión.
Otra cita del mismo autor y artículo:“con el miedo extremo que se convierte imperativamente en una demanda de universalidad, arrastrado hasta el vértigo por el movimiento que lo compone, el ser ipse, que se presenta como universal es sólo un desafío a la difusa inmensidad que escapa de su precaria violencia, la negación trágica de todo lo que no es su propia fortuna de fantasma desconcertado. Pero como hombre, este ser cae en los meandros del conocimiento de los demás humanos que absorben su sustancia para reducirla a un componente que va más allá de la violenta locura de su autonomía en la noche total del mundo”.
La cuestión no es que Bataille no tuviera ningún tipo de sistema, sino que éste era deslizante: holones dentro de holones. André Bretón, importante líder de los surrealistas de aquel momento, lanzó un contraataque en términos que aún resuenan en los críticos modernos de la postmodernidad: “la desgracia del señor Bataille es la siguiente: razona abiertamente como alguien que tiene una mosca parada en la nariz, lo que le asemeja más a los muertos que a los vivos, pero aun razona; intenta compartir sus obsesiones con la ayuda del pequeño mecanismo que todavía no tiene completamente estropeado: este mismo suceso prueba que, diga lo que diga, no puede oponerse a cualquier sistema como si fuera una bestia sin pensamiento”.
Sistema holárquico
En ciertos sentidos, ambos aspectos son correctos. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. En su obra “Sobre la deconstruccion”, el pensador americano Jonathan Culler, uno de los mejores intérpretes de sistema deconstuctivo de Jacques Derrida, utiliza esta idea y le permite señalar que el filósofo francés no niega la verdad per se sino que insiste en que esta y el significado, están ligados a un contexto -a riesgo de ser pesados, recordamos que cada contexto es un todo que a su vez es parte de otro, que a su vez...
Culler afirma: “uno podría, por tanto, identificar la deconstruccion con los principios gemelos de la determinación contextual del significado y la infinita extensibilidad del contexto”.
La obra de Jacques Derrida es amplia y destacaríamos de él, obras como “La escritura y la diferencia”, “La diseminación”, “De la gramatología”, “Posiciones”, “La tarjeta postal” y más recientemente, “Espectros en Marx” y “Políticas de amistad”.
En la filosofía de Derrida se utiliza un método llamado deconstruccion. Mediante él, se inicia una investigación fundamental sobre el carácter de la tradición metafísica occidental y sus fundamentos. A simple vista, los resultados de dicha investigación parecen revelar una tradición llena de aporías lógicas y paradojas. Un buen ejemplo es el que a continuación enunciamos, aplicado a la filosofía de Rousseau.
Rousseau afirma, en cierto momento, que sólo debería escucharse la voz de la naturaleza. Esta naturaleza constituye una plenitud a la que no puede añadirse o sustraerse nada. Pero nos advierte del hecho que la naturaleza a veces tiene carencias, como ocurre cuando una madre no tiene suficiente leche para nutrir el niño que amamanta. Estas carencias pueden considerarse algo bastante corriente en la naturaleza, y constituyen una de sus características más significativas.
De modo que, a juicio de Rousseau, la naturaleza también tiene carencias, nos dice Derrida en su “De la Gramatología”. La carencia pone en peligro esa autosuficiencia, es decir, la identidad, o como prefiere decir Derrida, la autopresencia de la propia naturaleza. Esta sólo puede preservar su autosuficiencia si se cubre esa carencia. Sin embargo, de acuerdo con la lógica de la identidad, si la naturaleza requiere un complemento no puede ser autosuficiente -idéntica a sí misma-, porque carencia y autosuficiencia son opuestas.
El no-origen
La base de una identidad puede consistir en una u otra, pero no en ambas, si es que se quiere evitar una contradicción. Este ejemplo no es una excepción. La impureza de esta identidad o la destrucción de la autopresencia, son realmente inevitables. Porque en términos generales, en cualquier orden aparentemente sencillo, existe como condición de posibilidad, un no-origen. Los seres humanos necesitan la mediación de la conciencia o el espejo del lenguaje para conocerse a sí mismos y conocer el mundo.
Pero esa mediación del espejo, esas impurezas, tienen que quedar excluidas del proceso de conocimiento; lo hacen posible, pero no están incluidas en él. O, si la están, como en la filosofía de los fenomenólogos, pasan a equivaler, también ellas -conciencia, subjetividad, lenguaje- a una especie de presencia idéntica a sí misma.
El propósito de la deconstruccion no es solo demostrar que las leyes del pensamiento, desde el punto de vista filosófico presentan carencias. Más bién, la tendencia que se observa en la obra de Derrida es la preocupación por producir efectos, abrir el campo filosófico para que pueda seguir siendo él, el espacio de la creatividad y la invención.
Bien, tortugas todo el recorrido hacia arriba y hacia abajo. Lo que la decontrucción cuestiona es la de encontrar un lugar último de descanso, ya sea en la totalidad, en la parcialidad o en cualquier lugar intermedio. Cada vez que alguien encuentra la interpretación final o fundamental de un texto -o de la vida, de la historia o del kósmos- siempre esta a mano la deconstruccion para decir que el contexto total - o interpretación holística - no existe porque es parte de otro texto, infinitamente, para siempre. Culler lo expresa así: “el contexto total (holismo definitivo) es imposible de denominar tanto como principio como en la práctica. El significado esta ligado al contexto, pero este es ilimitado”. Tortugas transfinitas, diríamos nosotros.
En su obra, El discurso filosófico de la modernidad, Jürgen Habermas, que generalmente discrepa con las posiciones de Bataille y Derrida, está, sin embargo de acuerdo con ellos en un punto muy concreto.
Él lo expresa así: “por principio estas variaciones de contexto que cambian el significado no pueden ser detenidas porque los contextos no pueden ser agotados, es decir, no pueden ser determinados teóricamente de una vez por todas”.
El hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.
En cuanto a nuestro viaje, solo debemos señalar que si hay sistema pero que es deslizante: el Kósmos es un Todo sin fin y el Todo esta compuesto por holones.