El bosón de Higgs y los sueños de una Teoría Final

Jaime Julve

Instituto de Física Fundamental. CSIC. Madrid

Está todavía caliente la noticia del hallazgo en el CERN de Ginebra del «bosón de Higgs», la última pieza del Modelo Estándar de las Partículas Elementales (1) que faltaba por observar experimentalmente. Aunque algunas características no encajan completamente con lo esperado y llevará todavía algún tiempo de complejos análisis refinarlas, todo hace pensar que estamos probablemente ante la buscada partícula, esencial en el mecanismo teórico responsable nada menos que de generar la masa que tienen las demás partículas.

Glosando a Ortega, podríamos decir que en ciencia hemos alcanzado, si no la plenitud de los tiempos, sí un momento de éxtasis en la física de altas energías, la de lo más pequeño alcanzable experimentalmente. Aceptando la vigencia del reduccionismo para el estudio de los fenómenos de la naturaleza, habría que decir que se trata de un momento cumbre de toda la ciencia y quién sabe si del capítulo final por mucho tiempo.

Esta afirmación, no exenta de cierta voluntad polémica, agitará sin duda en sus sillas a los especialistas de otros campos, e incluso a los protagonistas directos del logro, que arriesgarían la muerte –o sea el fin del trabajo– víctimas de su propio éxito. Sin embargo, con ella pretendemos más bien entrar en un debate que impregna toda la historia de la ciencia, sin osar aventurar una respuesta concluyente, aunque sí insistir en la crítica de algunos dogmas tácitos o esperanzas arraigadas entre los cultivadores de la ciencia y en la cultura popular de hoy.

Un cuadro complicado

Para situar el problema, constataremos en primer lugar que, al menos entre los investigadores de las leyes fundamentales o últimas de la naturaleza, domina la convicción, al menos tácita, de la validez del esquema reduccionista, que culminaría en la existencia de una Teoría Final que todo lo explique de manera simple y condensada, adjetivos que para muchos son sinónimos de «bella». Esta idea, espoleada por el éxito de Newton en reducir la mecánica celeste y el movimiento de los graves terráqueos a las mismas simples leyes, supone que la comprensión del todo se puede alcanzar mediante el análisis de las partes aisladas, o que la complejidad del mundo sensible se reconduce a leyes cada vez más profundas y simples. Nuestra tarea es ir desvelándolas, lo que hasta hoy se ha venido consiguiendo con notable éxito.

En el paradigma actual, esta victoriosa marcha ha conseguido levantar sucesivos velos de la realidad partiendo de la Mecánica Clásica galileo-newtoniana y su extensión a los campos continuos (electromagnetismo de Maxwell), para llegar a las Teorías Cuántica y de la Relatividad Restringida, teorías que reducen las primeras a aproximaciones de las segundas válidas en ciertos límites. La misma Termodinámica Clásica se reduce también a una teoría cinética, gobernada por la estadística de las interacciones entre muchas moléculas. Por último, la conjugación de las teorías cuántica y relativista en la Teoría Cuántica de Campos (QFT) constituye el armazón formal del Modelo Estándar de las partículas, cuyo triunfo estamos celebrando.

Aparcando de momento el tema de la gravitación y su paradigma de la Teoría de la Relatividad General, debemos decir enseguida que más allá del Modelo Estándar todo es especulación teórica que, para resolver los sucesivos problemas de consistencia que se plantean, necesita postular la existencia de cosas hasta hoy nunca observadas, tales como las partículas «supersimétricas» y dimensiones extra del espacio-tiempo. Esta escalada parece en cambio tener un punto de llegada matemáticamente consistente, la Teoría de Supercuerdas, el candidato más serio hasta el presente a ser la TOE (Theory of Everything), o sea la suspirada Teoría Final. ¿Hasta qué punto es esto plausible?

Para dar una cierta perspectiva del problema nos permitiremos una caricatura provocativa del reduccionismo, simbolizando en la Ecuación de Schrödinger la quintaesencia del comportamiento cuántico que se manifiesta en su plenitud en el ámbito atómico. Según ella, la compleja fenomenología de la política sería deducible de las leyes de la sociología, éstas de las de la psicología de los individuos, que a su vez se reduce a la electroquímica del cerebro, o sea a la bioquímica, y esta a la física molecular y atómica que ya se basan directamente en la famosa ecuación.

Con un buen computador, podríamos saber el resultado de las próximas elecciones. Simbolizando en 1 m el tamaño del ser humano, la escala del átomo es del orden de 10-10 m, sólo diez órdenes de magnitud inferior, mientras las supercuerdas reinarían en la llamada Escala de Planck, allá por los 10-35 m, o sea 25 órdenes de magnitud por debajo del átomo. Esto haría el salto de la supercuerda al político algo más duro de creer, pero, al igual que la “fórmula de Drake” de la probabilidad de captar señales de vida inteligente en el cosmos, permite hilvanar algunos razonamientos clarificadores.

En efecto, la situación no es tan simplista. Entre el animal y el átomo tenemos niveles de organización tales como vísceras, tejidos, células, virus, proteínas, etc. Entre el átomo y la escala de Planck también hay estructuras intermedias. De entrada, tenemos los núcleos atómicos (10-14 m) y dentro de éstos a los protones y neutrones (10-15 m), que ya se ha visto que tampoco son elementales al estar compuestos de quarks. Hoy por hoy, estos últimos, los electrones, neutrinos y partículas similares, son los constituyentes últimos e indivisibles de la materia que se ha logrado atisbar hasta la resolución máxima alcanzable a las altas energías de los aceleradores de partículas, que con el LHC (Large Hadron Collider) del CERN llegará a los 10-20 m. Sin embargo, desde el punto de vista de las leyes fundamentales, la cosa sí que se reduce –esto es el anhelo estético-filosófico de la ciencia– a términos bastante más simples: a la escala del hombre funciona con buena aproximación la Física Clásica, mientras que sus células están gobernadas por la bioquímica, o sea el resultado –se supone- sobre complejísimos sistemas de trillones y trillones de átomos de las leyes cuánticas que los gobiernan. La exploración desde el átomo para abajo requiere energías más altas y esto introduce en el juego a la relatividad, pero hasta la frontera hoy alcanzable con el LHC y lo que se ve en la radiación cósmica, reina soberana el Modelo Estándar, que como decíamos es una QFT. Sí, hay también estructuras intermedias como los núcleos atómicos, los protones, neutrones y partículas inestables hechas de quarks, pero no leyes nuevas. ¿Y no hay más?

En cuanto a teorías fundamentales, realmente poco más se espera que haya, accesible a la observación directa, más allá del Modelo Estándar. Únicamente allá por los 10-33 m, a sólo dos órdenes de magnitud de la escala de Planck, se debería manifestar alguna Teoría de Gran Unificación (GUT), modelo con los mismos protagonistas elementales y un grupo de simetría más amplio que implicaría la existencia de nuevas fuerzas entre aquellos. Sería un reino demasiado lejano, de interés casi sólo filosófico, si no se esperara encontrar indicios observables a las modestas energías que nos es dado alcanzar. El principal efecto de las GUT sería la desintegración de protón, o sea la inestabilidad de la materia ordinaria –«los diamantes no serían para siempre»– pero nada se ha visto hasta hoy.

De las supercuerdas (2) aún tenemos menos evidencias, aunque las partículas supersimétricas y las dimensiones extra serían indicios también clamorosos. Añadamos que en el cuadro de las GUT son concebibles partículas exóticas como los «Monopolos magnéticos» y Axiones, nunca observados tampoco, pero nuestra ignorancia sobre la constitución de tres cuartas partes del cosmos, componente obligada por la expansión acelerada que se observa, se halla en desesperada búsqueda de candidatos. Volviendo a poner los pies en la tierra, a la vuelta de la esquina del LHC y hasta la escala de energía de las GUT se prefigura un desierto de una docena de órdenes de magnitud en el que no se espera ver ninguna física fundamental nueva.

No queremos cerrar este apartado con una nota tan pesimista pues la naturaleza acostumbra a sorprendernos. Buscando el éter como medio en el que se propaga la luz se desveló la relatividad y los misterios de la radiación del cuerpo negro alumbraron la teoría cuántica. Hoy la expansión acelerada el universo plantea enigmas aún más profundos que enlazan con el objeto de la investigación con aceleradores de partículas. En el camino de la verificación del Modelo Estándar aparecieron «partículas» inesperadas como las resonancias J/Psi, hoy interpretadas como efímeros nuevos estados ligados de algunos quarks. Ya el propio bosón de Higgs recién observado parece presentar algunas características intrigantes y quién sabe si persiguiendo las partículas supersimétricas o indicios de dimensiones extra, dentro del rango de los 14 TeV de energía del LHC, puede abrirse la ventana a nuevos escenarios insospechados. Apostar por ello con una futura máquina aún más potente y costosa no parece en cambio una propuesta muy factible en los tiempos que corren.

Desde el punto de vista teórico la situación parece sin embargo tan cerrada como insatisfactoria. El mundo físico conocido se describe, al nivel de las partículas elementales en la perspectiva reduccionista, con elevada precisión mediante el Modelo Estándar, y más allá de éste –GUT y teoría de cuerdas por antonomasia– todo es especulación, innecesaria para las necesidades experimentales. Por otro lado, el modelo contiene numerosos parámetros empíricos, tales como la carga del electrón, su masa, la de los quarks, y un largo etcétera que supera la veintena, de modo que es poco creíble como teoría última, y más aún al dejar de lado la gravitación.

Alguna realidad más fundamental debe haber, y el problema de la misteriosa materia oscura y otras sustancias cosmológicas que hay que invocar parece un indicio muy fuerte, sólo que la próxima revolución teórica, si ha de llegar, puede tardar un tiempo imprevisible. Para proseguir con nuestra reflexión supondremos en cambio que el avance no se detiene y que vamos acercándonos a una TOE –la teoría de cuerdas u otra– que todo lo explique en un esquema cerrado y completo. ¿Es concebible tal cosa o incluso esta posibilidad es sólo el sueño de una noche de verano?

La tentación del paso al límite

Antes de aventurar una respuesta al anterior interrogante detengámonos en algunas lecciones de la historia de la ciencia moderna. Desde Galileo -por fijar una fecha convencional- hasta hoy, en repetidas ocasiones se ha creído tener en la mano la teoría universal definitiva, para luego ser puntualmente desmentida al intentar llevarla hasta sus consecuencias más extremas. El momento actual no parece ser distinto.

Empezaremos por la justamente venerada Mecánica Clásica. El éxito de Leverrier y Adams en predecir la existencia y posición de Neptuno elevó el prestigio de la teoría literalmente más allá de los cielos, animando a muchos a abarcar ámbitos en los que al final salía tocada hasta la misma condición humana. El determinismo mecanicista absoluto, eficazmente formulado por Laplace, establecía, coherentemente con las ecuaciones de Newton, que una vez conocido el estado –posición y velocidad– de todas las partículas del universo en un instante dado, es posible conocer con exactitud su estado en todo instante posterior, y lo mismo se puede decir hacia el pasado. El problema, si acaso, es el práctico de la potencia de cálculo para resolver las ecuaciones de un sistema de muchos cuerpos, pero ya para el sistema solar esto se consigue para períodos hasta de 10.000 años adelante y atrás en el tiempo. Lo importante en esta visión es que la evolución de un sistema, y por extensión la del universo en su conjunto y la de los que formamos parte de él, sigue leyes completamente deterministas. Adiós libre albedrío, responsabilidad y moral, ciertamente, pero era el precio de un momento de plenitud en la comprensión del universo.

Recordemos que en el siglo XIX, Maxwell había cerrado brillantemente la teoría del electromagnetismo y con Boltzman se había logrado la unión entre la termodinámica y la mecánica mediante la teoría cinética de los gases. La tentación del paso al límite, la sensación de posesión del fruto del árbol de la sabiduría llevó a personajes de la estatura de Kelvin a anunciar que, a falta de algunos detalles menores, la física estaba prácticamente acabada y sólo quedaba la tarea de medir con precisión creciente las constantes universales. Sólo que … el diablo se escondía precisamente en los detalles.

Una visión más atenta de la dinámica newtoniana de sistemas de tres o más cuerpos, o incluso tan simples como el péndulo doble, muestra que las cosas en realidad no son tan categóricas. En estos sistemas una pequeñísima diferencia en las condiciones iniciales se traduce en poco tiempo en evoluciones muy distintas e impredecibles, el llamado comportamiento caótico que ejemplifica el popular «efecto mariposa». Salvar el paradigma determinista requeriría una precisión infinita en el conocimiento de esas condiciones, de nuevo una idealización extrema, que además chocará enseguida con las leyes cuánticas.

Así pues, hay que aceptar que, salvo en contados sistemas muy simples, normalmente usados como ejemplos académicos, en los sistemas reales se da al menos una peculiar forma de indeterminismo. En el frente de la física estadística y la teoría de la radiación, última playa evolutiva de la vieja Termodinámica, el principio de equipartición de la energía en los grados de libertad también conducía a un absurdo: en la radiación térmica de los cuerpos casi toda ella debería emitirse a altas frecuencias, la llamada «catástrofe ultravioleta», lo que por supuesto no se daba en la realidad. Para completar la crisis del sueño decimonónico, la suposición de que las ondas electromagnéticas se tenían que propagar necesariamente en un medio, análogamente a como lo hacen las olas en el agua o el sonido en el aire, requería invocar un éter, ligerísimo e impalpable, de modo que todo lo penetrase, pero al mismo tiempo mucho más rígido que el acero. Superfluo es decir que los experimentos encaminados a detectarlo, midiendo la velocidad del laboratorio (o sea de la Tierra) respecto del mismo, no condujeron a nada sino a una sorpresa aún mayor: que la velocidad de la luz era la misma se moviese como se moviese el laboratorio y la fuente de luz.

A grandes problemas, grandes soluciones, pero este fácil aforismo no se cumple sin el concurso de la chispa del genio creador, que acampa entre los humanos sólo cuando el destino quiere, y muchos siglos hubieron de pasar desde Aristóteles hasta Galileo. En este caso Planck, Einstein, y los que vinieron en su estela, alumbraron las teorías cuántica y relativista, con el conocido anecdotario de la no creencia del último en la primera. Es innecesario describir aquí el contenido y los éxitos, que duran hasta hoy, de estas teorías, pero nos detendremos en cambio en comentar las dificultades que surgen si cedemos a la tentación de llevar su aplicación hasta los límites extremos.

La Relatividad Restringida es la que sale mejor parada. Es una construcción bella y exquisitamente determinista como la mecánica newtoniana, a la que trasciende de manera muy elegante elevando a propiedad universal del espacio-tiempo la peculiar simetría que presentaban las ecuaciones del electromagnetismo de Maxwell. Hasta hoy no conoce fisuras ni inconsistencias teóricas de relieve, ni hay el menor indicio de que la naturaleza la viole en alguna rara situación. La recentísima polvareda mediática de la superación del límite de la velocidad c de la luz en el vacío por neutrinos disparados desde el CERN hasta los laboratorios del Gran Sasso en Italia, se ha disipado al hallarse la causa técnica del que habría sido un demoledor resultado y c sigue siendo una barrera absoluta. El mundo relativista implica que el tiempo fluye de manera distinta según los observadores, la simultaneidad se hace también relativa y hay aparentes paradojas como la de los gemelos, pero nada en esto es absurdo o inconsistente. Puede ser, a lo más, sorprendente, pero los laboratorios confirman las predicciones más allá de toda duda razonable.

Distinta es la situación con la Teoría Cuántica. Lo primero que hay que decir es que desde el punto de vista cuantitativo funciona mejor que ninguna otra, en los ámbitos para los que se creó, y se apunta éxitos en todos los frentes a pesar de paradojas como la del «gato de Schrödinger» y negar conceptos tan arraigados y naturales como el del realismo local.

Puesta a prueba en este terreno (desigualdades de Bell), ha salido siempre victoriosa frente a alternativas con variables ocultas. Parece completa. Desmontó por su base el determinismo mecanicista al impedir conocer simultáneamente y con absoluta precisión la posición y la velocidad de una partícula, explicó la radiación térmica del cuerpo negro, el efecto fotoeléctrico y la estructura del átomo. La energía atómica, el láser, la microelectrónica, la RMN, los superconductores, hablan por ella. Muy bien, pero tiene el grave inconveniente de que «no se entiende», y ya el gran Richard Feynman dedicó palabras poco elogiosas a quienes se atreven a presumir de lo contrario. La interpretación canónica –la de la escuela de Copenhague– es de naturaleza estadística: la medición de una variable física la hace un observador externo –«clásico», precisaríamos– sobre un conjunto de sistemas cuánticos idénticos, que se describe mediante una «función de onda», y los posibles resultados se obtienen con determinadas probabilidades.

Al medir, la función de onda colapsa –inevitable perturbación– en un estado particular para cada resultado, de manera postulada pero no explicada. Si en un sistema cuántico que tiene partes hacemos una medida o manipulación sobre una de ellas, la otra se entera instantáneamente por alejada que esté (fenómeno de la «no localidad» ejemplificado por la paradoja de Einstein-Podolsky-Rosen), creando problemas de conciliación con el dogma relativista. No es extraño que Einstein la hubiese mantenido siempre bajo sospecha a pesar de que en parte fuese hija suya.

Es en el paso a límite de la aplicación a la cosmología donde encontramos algunos de los problemas más llamativos del paradigma cuántico. Si la teoría ha de ser universal, o sea siempre válida, se ha de poder aplicar al universo como un todo, no sólo a los átomos. Salvo que invoquemos la existencia de universos paralelos –una de las soluciones al problema citado del colapso de la función de onda y de paso al del «principio antrópico»– nos encontramos con el primer escollo de que ahora tenemos sólo un sistema, no el conjunto estadístico anterior. Otra dificultad añadida sería que nosotros, los observadores que hacemos medidas, formamos parte de él. Si la «función de onda del universo» (o sea su estado cuántico primigenio) describe un conjunto de potencialidades de existir de diferentes formas (por ejemplo, con distintas constantes físicas o incluso distintas dimensiones), entonces el universo que conocemos existe como resultado de un acto de observación, presumiblemente el efectuado por nosotros al escrutarlo.

Con otras palabras, el Universo viviría en un limbo de potencialidades y precipitaría (colapsaría) en la existencia real, o sea con características dadas, sólo cuando «alguien» lo observase. Queda menos claro si por observador se deba entender algún ser dotado de inteligencia o conciencia, o si bastara un animal que mire con curiosidad el cielo estrellado. Parece una fantasiosa huida hacia delante, pero no es fácil encontrar soluciones más realistas sin recortar las alas a la teoría.

Ha tenido notable eco mediático otra reciente propuesta de Alexander Vilenkin según la cual en el Big Bang el Universo habría saltado a la existencia desde algo equivalente a la nada a través de un «efecto túnel» cuántico. El tal efecto, bien conocido teórica y experimentalmente, obliga a suponer que la teoría cuántica precedería al universo. Llevando al límite otras ideas modernas, dado que esta teoría, como cualquier otra, es un corpus de leyes, o sea información sea que la nada primigenia no era la nada. Difícil dilema.

Antes de abordar el problema abierto de la conciliación entre el mundo cuántico y el de la gravedad, es obligada la mención del gran paradigma de la gravitación de la Teoría de la Relatividad General. Cumbre exclusiva de la genialidad einsteniana, catedral determinista que traduce la atracción gravitatoria a geometría no euclídea del espacio-tiempo, ha conocido y conoce espectaculares confirmaciones en astrofísica –los famosos experimentum crucis (3) y la previsión de los agujeros negros y las ondas gravitacionales– pero su estructura está dotada de una belleza clásica que muchos consideran fatal al condenarla a reinar solitaria e incompatiblemente respecto del Modelo Estándar. Apuntaremos aquí solamente las perplejidades que surgen al aplicarla, de nuevo, al ámbito cosmológico.

Aparte de que la propia noción del tiempo se desdibuja aún más en él, es conocida la historia de la predicción de la expansión del universo, de la amargura de Einstein por haber introducido artificiosamente la Constante Cosmológica para evitarla cuando poco después las observaciones de Hubble la confirmarían. Quizá es menos conocido el descubrimiento reciente de que esa expansión se está acelerando y es aquí donde el paradigma de la RG nos lleva a las cosas más extrañas. Explicar el movimiento local de las galaxias exigía ya la existencia de una abundante y misteriosa materia oscura –además de invisible, en gran parte no hecha de átomos o partículas ordinarios– pero, la aceleración observada de la expansión implicaría que tres cuartas partes del contenido del universo corresponden a una sustancia cosmológica –ya no se puede llamar materia a eso– que en parte puede resucitar a la polémica Constante y, por demás, estaría dotada de propiedades tan exóticas como presiones y temperaturas negativas. Son las llamadas «energía oscura» y «energía fantasma», inevitablemente evocadoras de la peripecia del viejo éter.

Concluiremos esta sección con una incursión en las ciencias de la vida a través del Paradigma Probabilista, que permite el salto desde mundo elemental cuántico –la relatividad es normalmente prescindible en este ámbito– a la complejidad. Integra las visiones cuántica, la estadística de Boltzman y la de Darwin –implementada por la genética moderna basada en el ADN que Monod bien sintetiza en El azar y la necesidad– afirmando que bajo toda la realidad física, desde la partícula elemental al ser vivo, subyace el indeterminismo absoluto, el caso inmanente. Por mucho que le disgustase a Einstein, los dados serían definitivamente el juego preferido de Dios. Para sistemas suficientemente homogéneos, como un gas, la indeterminación, equiprobabilidad e independencia estadística del evento elemental, produce leyes macroscópicas deterministas (Termodinámica), pero en sistemas más complejos, como la vida y su evolución, la casualidad de las mutaciones se traduce, mediante la selección natural, en la deriva genética y en una ausencia de finalidad, de proyecto, en ella.

Afirma así –y aquí está la operación del paso al límite– nuestra contingencia absoluta y el sinsentido de la responsabilidad de nuestros actos. Sin duda para la evolución de las especies el esquema tiene gran eficacia descriptiva y captura una parte importante de la verdad, pero a nuestro entender adolece de los mismos eslabones débiles que presenta la cadena de factores de la fórmula de Drake, en la que la asignación de un valor a la probabilidad de que surja la vida en un ambiente prebiótico y una especie inteligente en una biosfera con animales superiores, es completamente arbitraria a falta de una suficiente muestra estadística de planetas con vida y de civilizaciones en el cosmos. De ambas cosas, hoy por hoy, sólo conocemos un ejemplo. En extrema síntesis, quedaría espacio para que, jugando a los dados, Dios haga trampas al servicio de un proyecto sin que podamos detectarlo científicamente, y la negación de esta posibilidad no pasa de ser un postulado o un ejemplo de wishful thinking.

¿Una Teoría Final?

Porfiemos todavía en este obligado empeño que ha inspirado siempre el quehacer científico. Por encima del Modelo Estándar, o precisamente por sus éxitos –paragonaríamos el descubrimiento del bosón de Higgs al de Neptuno–, es más acuciante que nunca el problema de conciliar la teoría cuántica y la gravitación de forma matemáticamente consistente. Dejando aparte la cuestión general de la verificación experimental –o de la falsabilidad en el sentido de Popper– y la particular del tipo de gravedad que describe, la Teoría de Supercuerdas parece el más firme candidato para ello, de nuevo a falta sólo de resolver algunos «detalles menores», y es seguramente la propuesta más completa, potente y atractiva. Aceptémoslo y añadamos los progresos habidos en la comprensión de la frontera entre los dos reinos con la evaporación cuántica de los agujeros negros y sus balances de entropía e información. Ante este escenario, Stephen Hawking volvía a manifestar, cien años después de Kelvin, que la TOE está ya al alcance de la mano. Pero, ¿qué significa tal cosa?

De una Teoría Final se debe esperar al menos una serie de virtudes: que dependa a lo sumo de una sola constante universal empírica -o mejor aún, que ésta sea deducible de relaciones topológicas o similares-, que sea capaz de predecir todo experimento u observación posible o imaginable ahora y en el futuro, y que esté formulada sobre un formalismo matemático consistente y posiblemente cerrado, pues para los humanos sigue vigente la sentencia galileana de que el libro de la naturaleza está escrito en esos caracteres. Una TOE debe ser, pues ,«completa» en el sentido que se acaba de describir.

No parece que las cosas puedan ser así y, ciertamente ,no lo están al menos en lo que se refiere a la completitud del soporte matemático. El lógico-matemático austriaco Kurt Gödel probó en 1931 que para sistemas formales que tengan al menos la complejidad de la aritmética, existen siempre proposiciones dotadas de sentido cuya veracidad o falsedad no se puede decidir con los axiomas y reglas del sistema. Este demoledor resultado, respuesta negativa a un famoso problema planteado por David Hilbert, ha pasado a la historia como el Teorema de incompletitud de la lógica, sin duda, una cumbre del pensamiento humano de todos los tiempos a la que se ha dado muy poco relieve, probablemente porque desmonta muchos mitos. En su estela, otros lógicos han demostrado además que, en un sistema formal dado, el conjunto de las proposiciones indecidibles supera infinitamente al de las decidibles (teoremas).

En estas condiciones, parece claro que es indemostrable que la naturaleza no nos pueda sorprender nunca con un comportamiento nuevo, o sea fuera de las previsiones de la presunta TOE en vigor, precisamente porque involucre alguna proposición indecidible para el soporte matemático de esa TOE que, como mínimo, incluirá a la aritmética. El problema de la misteriosa correspondencia entre las matemáticas –universo platónico de entes de razón- y la realidad física nos llevaría demasiado lejos y supera a estas reflexiones y a su autor. Nos limitaremos a constatar que para algunos la Teoría Final es un sueño apetecible mientras para otros sería una jaula asfixiante. Estimamos que lo importante es trabajar, bien con el entusiasmo de la fe en poder alcanzar tan elevada meta, o bien con la convicción de que la aventura va a continuar eternamente con puertas abiertas al misterio y a sorpresas, pero siempre con la modestia de ser conscientes de los peligros de los apresurados y seductores pasos al límite que acechan en el camino.

NOTAS

  1. El Modelo Estándar unifica las interacciones Electromagnética y Nuclear Débil en una sola, llamada Electrodébil, e incluye a la Cromodinámica Cuántica, que describe la interacción Nuclear Fuerte. Es un ejemplo concreto de Teoría Cuántica de Campos.
  2. Existe una evolución de las GUT que une la gravedad con las otras interacciones en una QFT llamada Gravedad Supersimétrica (SUGRA). Cumple varios requisitos matemáticos de consistencia, pero ya al precio de invocar nuevas partículas supersimétricas y dimensiones espacio-temporales extra. Sería la teoría efectiva más inmediata a la Teoría de Cuerdas, la realmente fundamental en este sentido, y, a los efectos de nuestras reflexiones, no las distinguimos.
  3. Se trata de i) la precesión del perihelio de las órbitas planetarias, observable en el caso de Mercurio, ii) la curvatura de los rayos de luz por los campos gravitacionales, observada en la luz procedente de estrellas cerca del disco solar, iii) el corrimiento al rojo gravitacional, modificación de la frecuencia de la radiación observada por efecto Mossbauer en rayos gamma y crucial para la sincronización del sistema GPS. Mayores explicaciones en Internet con esas palabras clave.

Bibliografía

  1. Nosotros y el Universo, A. Tiemblo, Ed. Edaf, Madrid, 2011. Excursión por los distintos ámbitos teóricos del macro y microcosmos desde la perspectiva de la aventura humana del conocimiento.
  2. Los científicos y Dios, A. Fernández-Rañada, Ed. Nobel, Madrid, 2000. Muestrario de Premios Nobel y pensadores de la historia donde creyentes y no creyentes argumentan sus posiciones sobre los límites del conocimiento humano.
  3. La nueva mente del emperador, R. Penrose, Ed. Delbolsillo, Barcelona, 2009. Exposición de los grandes paradigmas de la física, con un relevante capítulo autocontenido dedicado al Teorema de Gödel.
  4. The trouble with Physics, Lee Smolin, Penguin, UK, 2007. Discusión de las limitaciones de la teoría de cuerdas, en particular su no inclusión de la gravitación en la forma background-independent propia de la Relatividad General, y descripción de otras propuestas teóricas alternativas.
  5. El azar y la necesidad, J. Monod. Ed. Barral. Barcelona. 1971. Texto paradigmático sobre la explicación de la evolución biológica basada en la aleatoriedad de las mutaciones en la transmisión del patrimonio genético, codificado en el ADN, y la presión selectiva favorecedora de las variantes más aptas para la supervivencia.
  6. Internet. Para numerosas cuestiones específicas y términos clave en este trabajo es útil la información disponible en Internet, con la obligada cautela sobre la fiabilidad y el rigor de la misma.