Sunteți pe pagina 1din 73

LA TEORÍA ―M‖ PRESENTADA POR STEPHEN HAWKING Y LEONARD

MLEDINOW COMO CANDIDATA A TEORÍA COMPLETA DEL UNIVERSO

DESDE LA PERSPECTIVA DE KARL S. POPPER

Edinson Cueto Quintero

Docente asesor: Gabriel Vargas Duque

UNIVERSIDAD DE CARTAGENA
FACULTAD DE CIENCIAS HUMANAS
PROGRAMA DE FILOSOFÍA
CARTAGENA DE INDIAS D. T. Y C.
Septiembre 30 de 2014

Trabajo de Grado

1
Introducción

Los físicos teóricos Stephen Hawking y Leonard Mledinow, mediante la teoría ―M‖ que

presentan en su obra El Gran Diseño (2010), proponen entretejer una red de teorías mediante

puntos específicos de conexión entre ellas, con el propósito de integrarlas en una sola y así

poder dar una explicación unificada y coherente sobre los detalles que abarca el problema del

origen del Universo. Sin embargo, debido a que desde la visión epistémica de Thomas Khun

no es admisible el acople de esta red de teorías, ni es posible una interpretación conciliadora

de las disimiles leyes contenidas en la teoría ―M‖, este trabajo propone una revisión al

enfoque epistemológico de la ―inconmensurabilidad‖ Khuniana. Es decir, proponemos un

examen a este presupuesto Khuniano, dado que separa a las teorías científicas (haciéndolas

incompatibles o intraducibles) en lugar de permitir su unificación, contrariamente a lo

propuesta por la teoría ―M‖. Por lo tanto, se plantea en este trabajo un análisis filosófico-

científico con el objetivo de verificar la validez y coherencia de los argumentos que soportan

a la teoría ―M‖, en tanto que esta es una tarea que comporta la filosofía como ―verdadera

administradora de la razón‖ (Heidegger, 2004, p 31).

En cuanto a las teorías implicadas en la explicación acerca del origen del universo que

presentan los físicos en cuestión, estas operan en diferentes campos en los que cada una se

especializa y contribuye a develar el interrogante que más ha inquietado a la raza humana: el

origen del universo. Sin embargo, a pesar de que estas teorías han sido corroboradas a través

de múltiples experimentaciones, no se puede afirmar que sean verdades objetivas sino que

provisionalmente han resistido asiduas comprobaciones que confirman el grado de certeza de

sus postulados, pues, tal como lo plantea Karl Popper, lo que constituye fundamentalmente la

racionalidad de la ciencia es su carácter crítico y progresivo. Al respecto del carácter

provisional que se le debe otorgar a las confirmaciones obtenidas por las experimentaciones

2
de esas teorías, el físico y químico Gaston Bachelard (citado por Llinás, 2007, p. 28)

refiriéndose al conocimiento científico expresa lo siguiente:

(…) el conocimiento objetivo nunca está terminado, y como nuevos objetos aportan sin cesar
temas de conversación en el dialogo entre el espíritu y las cosas, toda enseñanza científica, cuando
es viviente, será agitada por el reflujo del empirismo y del racionalismo‖. (Bachelard, 1981, p
289).

Ahora bien, con respecto al hecho de que el conocimiento científico está sometido al progreso

constante, Popper justamente plantea que:

Este siempre está abierto a revisión. Consiste en conjeturas comprobables - en el mejor de los
casos - conjeturas que han sido objeto de las más duras pruebas, conjeturas inciertas. Es
conocimiento hipotético, conocimiento conjetural. Este es mi primer comentario, y por sí
mismo es una amplia defensa de la aplicación a la ciencia moderna de las ideas de Sócrates: el
científico debe tener en cuenta, como Sócrates, que él o ella no sabe, simplemente supone.
(Popper, 1991) (1).

Al respecto de esta certidumbre aproximada, provisional y no absoluta, y a la posible

refutabilidad de las teorías científicas, el astrofísico John Gribbin afirma:

Los científicos menores, y muchos no-científicos, tienen otra idea equivocada. A menudo
piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán
la exactitud de sus modelos con una precisión cada vez mayor (hacia posiciones con más y
más decimales). ¡En absoluto! La razón para llevar a cabo experimentos que demuestren
predicciones previas no comprobadas es descubrir donde fallan los modelos. Encontrar
defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos
defectos (cosa que los modelos no pueden predecir con precisión, o explicar con detalle)
destacarán los detalles donde necesitamos una nueva comprensión, con modelos mejores, para
progresar. (Gribbin, 2007, p 16-17).

1
Conferencia pronunciada por Karl Popper en el acto de ceremonia de su investidura como Doctor Honoris
Causa en Universidad Complutense de Madrid en 1991.

3
Teniendo en cuenta que este trabajo no pretende hacer apología a los físicos cuya teoría

analiza, cotejaremos algunos postulados de la física newtoniana y de la teoría de la relatividad

general de Einstein, con el objetivo de corroborar sí existen puntos de conexión entre ellos e

inferir sí Hawking & Mledinow aciertan en el hecho de plantear que con el realismo

dependiente del modelo fundamentado en el efecto fotoeléctrico de Einstein, que demuestra la

condición dual de la luz (onda-partícula), se pueda armar una red de teorías que permitan

encontrar intervalos que se solapen entre sí, y que por lo tanto dieran lugar a una conectividad

(que permitiría un entendimiento entre ellas) por medio de algunos puntos específicos de las

teorías implicadas, que pudieran permitir concluir que se pueden integrar (conectando sus

puntos colindantes) en una sola teoría (la teoría ―M‖).

Se analizará además las críticas que los físicos Hawking & Mledinow le hacen a los filósofos

contemporáneos, cuyo quehacer también debe ser la autocrítica:

¿Cómo podemos comprender el mundo en que nos hallamos? ¿Cómo se comporta el


universo? ¿Cuál es la naturaleza de la realidad? ¿De dónde viene todo lo que nos rodea?
¿Necesitó el universo un creador? (…) Tradicionalmente, esas son cuestiones para la filosofía
pero la filosofía ha muerto. La filosofía no se ha mantenido al corriente de los desarrollos
modernos de la ciencia, en particular de la física. Los científicos se han convertido en los
portadores de la antorcha del descubrimiento en nuestra búsqueda de conocimiento.
(Hawking & Mledinow, 2010, p. 11).

1. Planteamiento y formulación del problema.

1.1. El problema de la investigación.

4
¿Existirá realmente inconmensurabilidad o intraducibilidad entre las teorías físicas que

explican el origen del universo?

Búsqueda de la conexión lógica entre las disimiles teorías que conforman la teoría “M”:

La teoría de la inflación plantea una expansión que es mucho más extrema que las predichas

por el Big-Bang de la teoría de la relatividad general. Sin embargo, al retroceder hasta el

estado inicial del universo, su tamaño es demasiado minúsculo (de una milmillonésima de

billonésima de billonésima de centímetro). Es aquí donde se hace necesaria la teoría cuántica,

pues, esta ópera en el mundo de lo micro. En tanto que la teoría de la relatividad opera en el

mundo de lo macro.

Ahora bien, sí el inicio del universo es explicado como un suceso cuántico, para poder

justificar un argumento que parta desde su origen hasta su estado actual, necesitaríamos de la

combinación de las teorías cuántica y relativista, pues, solo así es posible ir de lo micro a lo

macro. De manera que, a partir de la combinación de estas dos teorías se pueda deducir la

teoría de la inflación que plantea la explicación del big-bang. Por lo tanto, se requiere de una

conexión lógica entre estas tres teorías físicas, de modo tal, que se complementarían

mutuamente, a pesar de que cada una opere en diferentes estados y con particularidades muy

específicas propias de cada una de ellas. Esto nos llevaría a una necesaria unificación entre

ellas.

1.2. Descripción del problema.

Como se puede observar, esta nueva visión epistémica integra las teorías del pasado con las

que dieron lugar a las llamadas revoluciones científicas, y no admite la posibilidad de una

5
cabal o completa inconmensurabilidad. Es decir, de que no se pueden considerar como

completamente intraducibles las formulaciones de los físicos del pasado con respecto a las

reformulaciones posteriores que plantearon sus sucesores. Sino más bien, que el modelo que

utilizaron para interpretar el problema del universo que ellos observaban con sus limitaciones

técnicas, a pesar de que presentaba anomalías y limitaciones que naturalmente corresponden

al estado de la ciencia y las razones que epistémicamente eran posibles en esa etapa de las

comunidades científicas, estas formulaciones (en el caso de Ptolomeo y Newton) se ajustan en

algunos puntos específicos, si tenemos en cuenta esta nueva perspectiva del ―realismo

dependiente del modelo‖, que nos permite plantear un nuevo enfoque epistémico acerca del

estado y origen del universo. Además, en esas épocas pretéritas de la ciencia, como lo

comenta el profesor Fidel Llinás (Llinás: 2007): ―Se puede decir con certeza que aún no había

criterio de demarcación entre ciencia y pseudociencia, pues fácilmente se compaginaba la

astrología con la física o con la astronomía, como el caso de Kepler y otros‖. Es comprensible

también, que muchas de esas teorías con sus anomalías fueran compartidas por miembros (y

simpatizantes) de comunidades científicas involuntariamente, dado que eran propias del

momento histórico de sociedades religiosas que seguían una historia de la ciencia enmarcada

en una línea tradicional.

El ejemplo con el que Hawking y Mledinow pretenden explicar el realismo dependiente del

modelo, es con el más famosamente conocido en la historia de la ciencia, y que ha dado pie

para que se empezara a hablar de revoluciones científicas. Nos referimos al modelo

geocéntrico de Ptolomeo (Ptolomeo 85-165) versus el modelo Heliocéntrico de Copérnico

(Copérnico N. 1473-1543, De revolutionibus orbium caelestium), que está explicado en

detalle:

6
Así pues, ¿Qué sistema se ajusta más a la realidad, el ptolemaico o el copernicano? Aunque es
bastante habitual que se diga que Copérnico demostró que Ptolomeo estaba equivocado, eso
no es verdad. Tal como en el caso de nuestra visión y la de los pececitos en la pecera
redondeada, podemos utilizar ambas versiones como modelo de universo, ya que nuestras
observaciones del firmamento pueden ser explicadas tanto si suponemos que la Tierra o el Sol
están en reposo. A pesar de su papel en los debates filosóficos sobre la naturaleza de nuestro
universo, la ventaja real del sistema copernicano es simplemente que las ecuaciones de
movimiento son muchos más simples en el sistema de referencia en que el Sol se halla en
reposo (Hawking & Mledinow, 2010, p. 50).

Para una mejor comprensión de esta aparentemente controvertida afirmación, transcribimos el

ejemplo presentado en la página 47 del texto analizado, sobre la visión del mundo de los

pececitos:

HACE ALGUNOS AÑOS el ayuntamiento de Monza, en Italia, prohibió a los propietarios de


animales tener pececitos de colores en peceras redondeadas. El promotor de esta medida la
justificó diciendo que es cruel tener a un pez en una pecera con las paredes curvas porque, al mirar
hacia afuera, tendría una imagen distorsionada de la realidad. Pero ¿cómo sabemos que nosotros
tenemos la visión verdadera, no distorsionada, de la realidad? ¿No podría ser que nosotros mismos
estuviéramos en el interior de una especie de pecera curvada y nuestra visión de la realidad
estuviera distorsionada por una lente enorme? La visión de la realidad de los pececillos es
diferente de la nuestra, pero ¿podemos asegurar que es menos real?

La visión de los pececillos no es como la nuestra pero, aun así, podrían formular leyes científicas
que describieran el movimiento de los objetos que observan en el exterior de su pecera. Por
ejemplo, a causa de la distorsión, los objetos que se movieran libremente, y que nosotros
observaríamos en una trayectoria rectilínea, serian observados por los pececillos como si se
movieran en una trayectoria curvada. Sin embargo, los pececillos podrían formular leyes
científicas que siempre se cumplirían en su sistema de referencia distorsionado y que les
permitirían hacer predicciones sobre el movimiento futuro de los objetos de fuera de la pecera. Sus
leyes serían más complicadas que las formuladas en nuestro sistema de referencia, pero la
simplicidad es una cuestión de gustos. Si los pececillos formularan tal teoría, deberíamos admitir
que tienen una imagen válida de la realidad. (Hawking & Mledinow, 2010, p. 47).

En el caso de la alegórica formulación de teorías científicas por parte de los pececillos,

podríamos decir, que si bien la percepción de los objetos que se muevan por fuera de la pecera

estaría distorsionada por la curvatura del vidrio, el modelo en el que ellos se basaran para

interpretar esa realidad, aunque hiciera más complejas las predicciones de esos movimientos

¿haría acaso incompatible, incomparable o intraducible la predicción de ellos con respecto a

7
la nuestra? Además, su interpretación de la realidad podrá parecernos limitada y hasta

ridícula, pero ¿sería tan diametralmente opuesta a la nuestra como para afirmar que sean

incomprensibles o incomunicables? Así mismo podemos razonar que, sí la visión del cosmos

desde el modelo ptolemaico era bastante reducida y equivocada con respecto al modelo

copernicano, no podríamos afirmar que esa realidad cambió con la revolución copernicana,

pues, si bien se amplió esa visión del cosmos, sigue siendo la misma desde los dos modelos.

Con respecto a este punto (el modelo geocéntrico versus el modelo heliocéntrico), el profesor

Fidel Llinás al referirse a las diferencias entre los dos modelos, afirma lo siguiente:

Las dos teorías, tanto la de Ptolomeo como la Copérnico, en su sentido predictivo y explicativo
eran igualmente satisfactorias para dar razón de las apariencias, sin embargo, el copernicanismo
era más armonioso, coherente y natural que el engorroso y complicadísimo sistema de epiciclos y
deferentes de Ptolomeo (Llinás Zurita F, 2007, p. 84).

Hawking desde 1992 vislumbraba esta nueva visión conciliadora de las teorías científicas:

En la práctica, lo que sucede es que se construye una nueva teoría que en realidad es una
extensión de la teoría general. Por ejemplo, observaciones tremendamente precisas del
planeta Mercurio revelan una pequeña diferencia entre su movimiento y las predicciones
de la teoría de la gravedad de Newton. La teoría de la relatividad general de Einstein
predecía un movimiento de Mercurio ligeramente distinto del de la teoría de Newton. El
hecho de que las predicciones de Einstein se ajustaran a las observaciones, mientras que
las de Newton no lo hacían, fue una de las confirmaciones cruciales de la nueva teoría.
Sin embargo, seguimos usando la teoría de Newton para todos los propósitos prácticos ya
que las diferencias entre sus predicciones y las de la relatividad general son muy pequeñas
en las situaciones que normalmente nos incumben. (¡La teoría de Newton también posee
la gran ventaja de ser mucho más simple y manejable que la de Einstein!). (Hawking,
1992, p. 28).

Esta singular opción de usar en ciertos casos las fórmulas de Newton en lugar de las de las de

Einstein, también la explica Gribbin en su texto:

El modelo de gravedad de Albert Einstein, basado en su teoría general, explica lo mismo que
el modelo de Newton, pero también explica esos detalles sutiles de órbitas planetarias y
curvatura de la luz. En ese sentido, es un modelo mejor que el anterior, y hace predicciones

8
correctas (en particular, sobre el universo en general) que el viejo modelo no hace. Pero el
modelo de Newton es todavía lo que se necesita si se está calculando el vuelo de una sonda
espacial desde la Tierra hasta la Luna. Se podrían hacer los mismos cálculos usando la
relatividad general, pero sería más tedioso y daría la misma respuesta, de modo que ¿por qué
molestarse? (Gribbin, 2007, p 17-18).

1.3. Formulación del problema.

Ante la posibilidad de que la teoría ―M‖ conduzca a la modificación de la

inconmensurabilidad propuesta por Kuhn, nos llevaría hacia un nuevo enfoque epistémico

como modelo de la historia de la ciencia y de la filosofía de la ciencia. Lo anterior, debido a

que la visión epistémica khuniana no permitiría el acople de la red de teorías que contribuyen

a una interpretación conjunta de las disimiles leyes que regulan el universo a nivel micro y

macro, y con las cuales se logra una explicación muy aproximada acerca del origen del

universo (objeto principal de la teoría ―M‖). Y dado que es posible explicar el hecho de que

dos teorías den respuesta a un mismo fenómeno (como por ejemplo en la condición dual

onda-partícula de la luz), no podemos admitir la propuesta de inconmensurabilidad de Kuhn.

Por lo tanto, se hace inminente una imperiosa revisión de la teoría ―M‖, con el fin de verificar

la conmensurabilidad planteada en esta teoría.

El método utilizado, y el estado actual de las investigaciones de estas teorías presentadas por

los autores analizados en su obra El Gran Diseño, y que proponemos analizar en este trabajo,

despliega una visión tal, que impulsa a intentar desde la filosofía de la ciencia, explorar una

posible compatibilidad entre estas diversas y disimiles teorías. En esta obra, el ―realismo

dependiente del modelo‖ está enfocado en hallar la conexión entre estas teorías y en proponer

una conmensurabilidad entre ellas. Esto convierte a la teoría ―M‖ en una teoría

revolucionaria. Denominación que curiosamente es utilizada por Kuhm para denominar a

9
aquellas teorías innovadoras y que desplazan a las anteriores por carecer de una conexión

racional entre sí.

2. Justificación.

Se precisa una exploración analítica de la teoría ―M‖, e intentar su consideración por parte de

las teorías de los filósofos de la ciencia, pues, esta teoría conceptualiza de manera excepcional

sobre la materia física, el espacio-tiempo y el origen del universo. Se requiere además,

confirmar la verosimilitud de las diferentes teorías físicas que la componen, y la validez de los

argumentos que la soportan. Revisar hasta donde estas han sido corroboradas empíricamente a

través de experimentos realizados.

Además, el creciente auge de la física cuántica y la relativista, y sus contribuciones a develar

los interrogantes acerca del origen del universo y de la constitución de la materia ¿no hará

necesario su estudio y consideración por parte de la filosofía de la ciencia?

Se hace necesario observar también, sí la teoría ―M‖ cumple con el objetivo propuesto por sus

autores. Es decir, sí es posible asociar o conectar diferentes teorías al igual que en un mapa

geodésico, o si por el contrario constituye una visión equivocada de interpretación del origen

del universo y de las leyes de la naturaleza.

Con el argumento del realismo dependiente del modelo aplicado a las teorías científicas

vigentes, se abre la posibilidad de que todas las teorías se puedan integrar en una sola

mediante la red que las interconectaría en algunos puntos específicos (donde se solapan).

10
Tal vez muchos científicos, filósofos e historiadores de la filosofía de la ciencia propugnen

porque que se le de validez a una sola teoría; y la tendencia a través de la historia de la ciencia

ha sido esa. Sin embargo, desde la perspectiva de la teoría ―M‖ que pretende justificar este

trabajo, la visión intuitiva del futuro de la ciencia y de la filosofía de la ciencia es que se

requiere de más de una teoría, pero integradas e interconectadas en una red de teorías, para así

lograr encontrar una explicación general acerca del origen del universo. Por lo tanto, esta

justificación también incluye una revisión a la teoría del big-bang, dado que esta presenta una

explicación del origen del universo y se ajusta de manera lógica con las observaciones

astronómicas realizadas hasta el momento.

3. Objetivo generales.

Revisar la pertinencia y racionalidad de la teoría ―M‖ en cuanto a integradora de las teorías

físicas. Apoyándonos en el ―realismo dependiente del modelo‖ presentado por los autores de

esta teoría, plantear en el proyecto final la imposibilidad de la ―inconmensurabilidad‖. Este

objetivo general nos permitirá, además de una comprensión lo más aproximada posible de la

teoría ―M‖, interpretar con simpleza, pero con criterio objetivo las teorías de Newton y

Einstein. De modo que, mediante una observación detallada sobre la mecánica clásica

newtoniana y la relativista einsteniana, aplicando el método deductivo y la factorización

matemática, intentar hallar consideraciones claras y argumentos matemáticos para demostrar

la conmensurabilidad entre estas desiguales teorías físicas existentes.

3.1. Objetivos específicos.

Determinar si existen elementos de juicio para otorgarle validez a las críticas que plantean los

físicos teóricos a los filósofos contemporáneos, y por tanto, reflexionar sobre sí realmente la

filosofía está cumpliendo con su papel en cuanto a la definición heideggeriana de ser la

11
―verdadera administradora de la razón‖, y en cuanto a la definición planteada por Hawking

sobre la ocupación de los filósofos ―preguntarse el por qué”:

Hasta ahora, la mayoría de los científicos han estado demasiado ocupados con el
desarrollo de nuevas teorías que describan cómo es el universo para hacerse la pregunta
de por qué. Por otro lado, la gente cuya ocupación es preguntarse porqué, los filósofos, no
han podido avanzar al paso de las teorías científicas. En el siglo XVIII, los filósofos
consideraban todo el conocimiento humano, incluida la ciencia, como su campo, y
discutían cuestiones como ¿tuvo el universo un principio? Sin embargo, en los siglos XIX
y XX, la ciencia se hizo demasiado técnica y matemática para ellos, y para cualquiera,
excepto para unos pocos especialistas. Los filósofos redujeron tanto el ámbito de sus
indagaciones que Wittgenstein, el filósofo más famoso de este siglo, dijo: ―la única tarea
que le queda a la filosofía es el análisis del lenguaje‖. ¡Que distancia desde la gran
tradición filosófica de Aristóteles a Kant! (Hawking, 1992, p. 223).

Además, este trabajo propone analizar la teoría ―M‖ desde la perspectiva de Karl Popper.

Con los textos apropiados de física y filosofía, ya debidamente seleccionados,


desarrollaremos un análisis teórico-conceptual, aplicando el método hipotético-deductivo,
para sucesivamente a través del análisis cualitativo de cada uno de los capítulos del proyecto,
ir encontrando los elementos de juicio que permita llegar a una conclusión ajustada al objetivo
principal planteado en este proyecto: sí existe inconmensurabilidad o conmensurabilidad entre
las teorías físicas y sí son válidos los argumentos de la teoría ―M‖.

Capítulo I

Antes de iniciar la exposición del marco teórico de la teoría ―M‖ planteada por los físicos

teóricos Stephen Hawking y Leonard Mledinow como candidata a teoría Completa del

12
universo, en su obra El Gran Diseño (Hawking & Mledinow, 2010), entraremos a dilucidar en

este primer capítulo lo que para Karl Popper podría ser considerado como verdad científica,

dado que este trabajo pretende analizar dicha teoría desde la visión popperiana. De manera

que realizaremos una exploración semántica y filosófica sobre lo que comúnmente es

considerado como verdad para la física actual y lo que plantea Popper al respecto. Por lo

tanto, analizaremos los argumentos de los físicos actuales acerca de la materia y el origen del

universo, teniendo en cuenta los criterios de demarcación postulados por Popper en su obra

Conjeturas y Refutaciones (Popper: 1994).

1. Las características de una teoría auténticamente científica.

―Con la palabra «cierto» expresamos la convicción absoluta, la ausencia de cualquier tipo de

duda, y tratamos de convencer a los demás‖. Wittgenstein.

¿Los fundamentos de una teoría científica pueden ser considerados como verdades o

conocimiento objetivamente cierto? ¿Cómo puede un científico afirmar que sabe las cosas que

piensa que sabe? ¿Qué es lo que hace que las teorías científicas de nuestros tiempos sean

consideradas mejores que las del pasado? ¿Qué es lo que sabe la ciencia acerca del universo y

cómo es que lo sabe?

Las teorías más recientes acerca de la composición de la materia y el origen del universo, y

los experimentos que han permitido corroborar sus postulados, nos permiten obtener sólo

respuestas parciales a algunas de esas antiguas preguntas. Sin embargo, no hay duda de que,

así como nosotros hallado insuficiencia en las respuestas que fueron planteadas en el pasado

por la ciencia, llegará el día en que las respuestas actuales que nos suministran nuestros más

13
avezados científicos del presente, parecerán inconclusas e irregulares en el futuro. Ante la

posibilidad de que eso suceda, debemos admitir como un hecho necesario, el establecimiento

de un criterio de demarcación que nos permita darle un grado aceptable de verosimilitud a las

teorías actuales. Esta verosimilitud que le otorgamos a las teorías actuales, sólo es temporal,

pues como bien se sabe, la evolución del conocimiento humano a pesar del grado avanzado en

que se encuentra no ha concluido, y tal vez nunca llegué a su final. En este orden de ideas, si

analizamos cuanto ha avanzado la ciencia desde el pasado hasta el presente (podríamos decir:

desde Ptolomeo hasta Hawking), teniendo en cuenta su acelerado avance en los últimos 100

años, e imaginamos su proyección hacia el futuro, entonces es posible especular sobre

probables conexiones e inconmensurabilidades entre las teorías actuales y sus futuras

reformulaciones. Lo anterior nos lleva a plantearnos la siguiente pregunta: ¿a qué le

podríamos llamar certidumbre científica? A tal interrogante cabe la siguiente respuesta:

podemos llamar certidumbre científica a la función de correspondencia entre la carga

informacional contenida en los argumentos de las teorías científicas y los experimentos que se

realizan de acuerdo a modelos determinados; lo cual permite establecer provisionalmente que

los argumentos de tales teorías son válidos o ciertos. Enunciamos esta respuesta teniendo en

cuenta que los seres humanos hemos desarrollado la capacidad necesaria para comprender que

el conocimiento humano por muy preciso que sea, jamás podrá tener la pretensión de ser

absolutamente cierto. La ciencia actúa conforme a métodos establecidos, por acuerdos entre

los experimentadores y por la edificación y la visión que los mismos descubrimientos

científicos han permitido guiar la investigación. Lo cual garantiza que la ciencia sea objetiva

en su proceder, pero no en cuanto al conocimiento per sé que logra consolidar en el desarrollo

de su trabajo. Pero, aun afirmando que la ciencia sea objetiva en su proceder, es preciso

admitir que los métodos utilizados actualmente podrían ser modificados en el futuro,

arrojando resultados diferentes a los experimentos actuales sobre la materia y el origen del

14
universo. A pesar de esto, para evitar caer en confusión o desconcierto, se requiere de un

principio o acuerdo básico en el proceder científico: no dudar del método científico, aunque sí

de los resultados. Así lo manifiesta Mledinow en su libro compartido con Chopra: ―Sí, los

científicos y la ciencia son falibles. Aun así, estas razones no llevan a dudar del método

científico, sino que conducen a la necesidad de seguirlo tan escrupulosamente como sea

posible‖ (Chopra & Mledinow, 2012, p. 32). Es natural que así sea, pues sin otorgarle este

voto de confianza a su método, la ciencia carecería de orden y orientación, y sería ambigua

tanto en proceder como en sus resultados.

Esta credibilidad en su método fue lo que permitió que la mecánica clásica, la mecánica

cuántica y la relatividad general obtuvieran los resultados que corroboraron la eficacia de sus

argumentos y de su propio método. Sin embargo, esto no quiere decir que si fallan los

resultados de los experimentos, necesariamente el método esté errado, pues bien podría ser

que la teoría posea fallas. Al igual que también se puede dar el caso, tal como lo afirman

Hawking & Mledinow (2012): ―Pero diferentes teorías pueden describir satisfactoriamente el

mismo fenómeno a través de marcos conceptuales diferentes‖ (p. 53). Ahora bien, el método

que utilizaron las teorías mencionadas, no sólo demostraron que las teorías eran acertadas,

sino que su método era ordenado, coherente y preciso, pues los experimentos fueron repetidos

múltiples veces, arrojando los mismos resultados. Es decir, la aplicación del método no solo

permite la correspondencia entre los argumentos de la teoría y los experimentos realizados,

sino también la asertividad del método. Lo cual indica que la verificación del método per sé,

es su propia aplicabilidad. A pesar de las dudas acerca de su eficacia, Mledinow afirma: ―La

historia demuestra que el método científico funciona‖ (Ibíd.). Además, los postulados de estas

teorías se ajustan coherentemente a la dinámica interpretativa que ha permitido intentar

conocer nuestra realidad física. Aunque esta sea una interpretación válida de la realidad

15
física del mundo, no se puede afirmar que sea la interpretación de la realidad física. Por lo

tanto, estas teorías no están constituidas por verdades objetivas absolutas. Ahora bien, estas

teorías hacen importantes equivalencias entre las relaciones empírico-racionales que

conforman las leyes de la física y nuestras percepciones acerca de la realidad material de

nuestro mundo.

Sin embargo, la correspondencia entre las teorías científicas y nuestra percepción de la

realidad física sólo posee una relación que las hace formalmente válidas (temporalmente)

según nuestro método de aprehensión del conocimiento. Por lo tanto, sólo desde este punto de

vista constituyen una verdad. Una verdad, pero no la verdad. Es decir, son una verdad, pero

en cuanto a que cumplen una función relacional que media entre la carga informacional

expresada matemáticamente y nuestra percepción del mundo material, aunque la materia no

posea un estado de realidad definido. Ahora bien, los postulados de estas teorías mencionadas

tienen propiedades abstractas y propiedades físicas, dado que por su relación con los datos

empíricos dejan de ser abstractas y puramente formales, pues, confluyen hacia una realidad

tangible: la materia física. De esta manera, estas teorías coadyuvan a priori a la compleja

búsqueda de comprensión de la realidad material

De modo que sólo las creencias religiosas, que rehúsan el cuestionamiento y la duda

sistemática, tienen la ilusa pretensión de ser verdades absolutas. El ejercicio de la duda, es un

ejercicio saludable para el conocimiento, pues busca encontrar un piso firme para éste, a

través de las probables reinterpretaciones y modificaciones de sus explicaciones en diferentes

contextos de la ciencia y del flujo dinámico del tiempo. Toda comprensión confiable de un

conocimiento sólo es posible si iniciamos dudando de todo aquello de lo que se pueda dudar y

16
paso a paso intentamos ir removiendo todas esas dudas hasta llegar a conclusiones fiables,

aunque nunca lograremos una certeza absoluta.

De manera que en este sentido, se debe dudar de los postulados de una teoría, dado que con

ello es posible contrarrestar el engaño seguro en que podríamos incurrir. Por lo tanto, la duda

no nihilista es una oportuna apertura a la búsqueda de un conocimiento que sea verosímil. En

este orden de ideas, y desde el punto de vista epistemológico, no hay conocimiento objetivo

en ninguna de las teorías físicas que analizamos en este trabajo. De manera que plantear un

conocimiento objetivamente cierto, además de convertirlo en creencia subjetiva, constituye

una forma de engaño en cuanto a la interpretación de nuestra realidad material. Con respecto a

este tipo de engaño, cabe aquí recordar las palabras del legendario físico del Caltech, Richard

Feynman: ―El primer principio es que no puedes engañarte, y eres muy fácil de engañar‖

(Chopra & Mledinow, 2012, p. 36). Por lo tanto, el papel que juega el método científico en la

ciencia actual, es el de intentar validar provisionalmente los postulados de una teoría

específica, orientando las investigaciones hacia la búsqueda de posibles fallas en ella,

descartando dudas, en lugar de pretender demostrar supuestas verdades que llevarían a los

científicos a incurrir en un comportamiento característico de la psicología de los seres

humanos: la tendencia a crear patrones que predispongan la investigación a encontrar

corroboraciones en la teoría analizada, pues cuando éstas se dan (las corroboraciones) se

asume que surgieron por una buena causa. Según Popper, las expectativas (conscientes o

inconscientes) y las teorías definidas por el investigador influyen en las respuestas resultantes.

De esta manera, si se busca la verdad como principio, se crearía una estructura mental que

predispondría la certeza subjetiva del investigador a descubrir supuestos conocimientos de

carácter objetivo. Lo cual, naturalmente lo haría descubrir sorprendentes conexiones lógicas

entre la teoría y los experimentos que realiza. Es decir, que se terminaría descubriendo lo que

17
se quiere descubrir y no lo que realmente se podría descubrir. Leonard Mledinow advierte con

agudeza sobre este aspecto clave del método científico:

Deepak dice que la ciencia nunca ha alcanzado la objetividad pura, y tiene razón. El hecho es
que los conceptos empleados en la ciencia son concebidos por el cerebro humano. Puede que
los alienígenas con estructuras cerebrales distintas, con procesos de pensamiento y órganos de
los sentidos diferentes, puedan ver las cosas desde puntos de vista completamente distintos
pero igualmente válidos. Y si existe un cierto tipo de subjetividad en nuestros conceptos y
teorías, también existirá subjetividad en nuestros experimentos. De hecho, los experimentos
que se han realizado a los experimentadores demuestran que los científicos tienen una
tendencia a ver lo que quieren ver, y a convencerse con datos que quieren encontrar
convincentes. Sí: los científicos y la ciencia son falibles. Aun así, estas razones no llevan a
dudar del método científico, sino que conducen a la necesidad de seguirlo tan
escrupulosamente como sea posible. (Chopra & Mledinow, 2012, p. 32).

Es preciso agregar en este punto, que tal como lo plantea John Gribbin (2007): ―Bohr había

dejado claro que un modelo no tiene que tener sentido para ser un buen modelo; el único

requisito es hacer predicciones (basadas en matemáticas sólidas y física observada) que

encajen con el resultado de los experimentos‖ (p.23).

Como se observa, puede resultar tan engañoso dirigir la aplicación del método científico hacia

la confirmación de una teoría (es decir con una intención predispuesta), como también negar

de antemano la falibilidad de una teoría. Por tales razones, Popper afirma en el primer punto

de sus consideraciones formuladas en su obra ―Conjeturas y refutaciones: el desarrollo del

conocimiento científico‖, específicamente en las conclusiones del invierno de 1919-20:

Es fácil obtener confirmaciones o verificaciones para casi cualquier teoría, si son


confirmaciones lo que buscamos.

(…)

5. Todo genuino test de una teoría es un intento por desmentirla, por refutarla. La
testabilidad equivale a la refutabilidad. Pero hay grados de testabilidad: algunas teorías son
más testables, están más expuestas a la refutación que otras. Corren más riesgos, por decir así.
(Popper, 1994, p. 61).

18
Sin embargo, si bien es cierto que, tal como lo afirma Mledinow ―los científicos no están

casados con un solo método‖ (Chopra & Mledinow, 2012, p. 89), y que no buscan la verdad

sino la falsedad en sus teorías, también lo es, que las confirmaciones que se logren con los

métodos aplicados, a pesar de conceder fiabilidad a la investigación, no implica que los

resultados de esos experimentos puedan adquirir el grado de verdad, dado que toda ―buena‖

teoría podría arrojar datos contradictorios por el riesgo implícito de que sus predicciones

fallen, y ante el posible surgimiento de nuevos experimentos que sean incompatibles con la

teoría, y que lleven a la refutación de ésta. Popper lo explica de esta manera:

Las confirmaciones sólo cuentan si son el resultado de predicciones riesgosas, es decir, si, de
no basarnos en la teoría en cuestión, habríamos esperado que se produjera un suceso que es
incompatible con la teoría, un suceso que refutara la teoría.

(…)

6. Los elementos de juicio confirmatorios no deben ser tomados en cuenta, excepto


cuando son el resultado de un genuino test de la teoría; es decir, cuando puede ofrecerse un
intento serio, pero infructuoso, de refutar la teoría (en tales casos, hablo de ―elementos de
juicio corroboradores‖). (Popper, 1994, p. 60-61)

Según Popper, el criterio de refutabilidad o testabilidad que se debe aplicar a las teorías para

que puedan alcanzar el rango de teorías científicas, establece que sus postulados o enunciados

―deben ser susceptibles de entrar en conflicto con observaciones posibles o concebibles‖.

Popper (1991), en la conferencia pronunciada con motivo de su investidura como doctor

honoris causa por la Universidad Complutense de Madrid, expone las condiciones sobre el

carácter falsable de las teorías consideradas científicas de la siguiente manera:

Sobre todo, deberíamos entender que nunca podremos estar seguros de haber llegado a la
verdad; que tenemos que seguir haciendo críticas, autocriticas, de lo que creemos haber
encontrado y, por consiguiente, tenemos que seguir poniéndolo a prueba con espíritu crítico;
que tenemos que esforzarnos mucho en la crítica y que nunca deberíamos llegar a ser

19
complacientes y dogmáticos. Y también debemos vigilar constantemente nuestra integridad
intelectual que junto con el conocimiento de nuestra falibilidad, nos llevará a una actitud de
autocrítica y de tolerancia. (Popper, 1991).

De manera que, sí decimos que una teoría es objetiva es sólo en el sentido de que los pasos

que permiten postular sus argumentos se rigen por un método fiable, y sí decimos que es

correcta queremos decir con ello que, de momento la refutabilidad o testabilidad a la que ha

sometido no ha obligado a sus proponentes a reformular la correspondencia entre sus

postulados y los experimentos realizados para corroborarla. En este orden de ideas, si

aceptamos que los argumentos de una teoría no están basados en un conocimiento

absolutamente cierto, entonces sólo podemos convenir acerca de ellos en que se supone que

son ciertos, y que debido al auge del conocimiento (propio de nuestra época) son susceptibles

de ser reformulados en el tiempo, (tal vez en muy corto tiempo). Así lo plantea Popper

(1991): ―(…) Ya no se le permite a nadie pensar que su conocimiento está al día, ni siquiera

en el campo en el cual hubiera sido el líder la semana pasada‖ (ibíd.). Por lo tanto, se puede

afirmar que desde esta perspectiva popperiana todas las teorías que conforman a la teoría ―M‖

postulada por Hawking y Mledinow son falsas, dado que cualquier conclusión terminante o

definitiva que les otorguemos en el presente posee el riesgo ineludible de resultar falsa en el

transcurso del tiempo. De manera que para Popper, ninguna teoría puede ser considerada

como una verdad.

Cuando Newton presentó su desarrolló del Calculo infinitesimal entre 1665 y 1666 y sus

Principios Matemáticos de la filosofía natural en 1687 (que contenía el resumen más

completo y avanzado acerca de la Ley de la Gravedad) causó un gran impacto intelectual en

su época, y estas teorías adquirieron la fuerza de una verdad entre los contemporáneos de

Newton. Sin embargo, en 1905 Einstein con su teoría de la relatividad especial estructura un

20
nuevo modelo que elimina los conceptos de tiempo absoluto. En tal sentido, Hawking &

Mledinow (2010) explican que:

En consecuencia, la teoría de la gravitación de Newton no era consistente con la relatividad


especial y tenía que ser modificada.
(…) En los once años siguientes, Einstein desarrolló una nueva teoría de la gravedad, que
denominó relatividad general. El concepto de la gravedad en la relatividad general no es en
absoluto como el de Newton, sino que está basado en la propuesta revolucionaria de que el
espacio-tiempo no es plano como había sido supuesto anteriormente, sino que está curvado y
distorsionado por la masa y energía que contiene. (p. 115-116).

Posterior a estas modificaciones a la física clásica mediante la relatividad general de Einstein,

surge una nueva perspectiva para la ciencia: la necesidad de unificar las teorías.

2. La idea de unificación: Teoría de Todo (o Teoría de Cuerdas) y “Teoría M”.

Uno de los autores que para el objetivo de este trabajo de grado (se ha hallado) dilucida el

planteamiento del problema de la unificación de las teorías es Brian Greene (2), quien explica

en su libro El universo elegante, la manera en cómo las teorías de la relatividad y de la

mecánica cuántica, nos han llevado a la necesidad de buscar una teoría que armonice los

postulados de ambas, unificándolas en una gran teoría, que para él, fue un propósito que

persiguió Einstein en sus últimos años de vida, y la que algunos científicos creen haber

hallado en la teoría de las supercuerdas (3). Tal como lo explica Green a continuación, la

nueva teoría debería unificar los pilares de la física actual:

2
Brian Greene: profesor de física y matemática en la Universidad de Columbia, ampliamente reconocido por sus
argumentos a favor de la teoría de supercuerdas, investigador en más de una veintena de países.
3
Teoría desarrollada en detalle por Brian Greene en el libro El universo elegante, Supercuerdas, dimensiones
ocultas y la búsqueda de una teoría final de Editorial Crítica.

21
Esta teoría vendría a unificar esos dos grandes pilares de la física actual, el cuántico y el
gravitacional, al suponer que todo lo que sucede en el universo surge de las vibraciones de una
única entidad: microscópicos lazos de energía que se encuentran en el auténtico núcleo de la
materia y que habitan en espacios de dimensiones superiores a las cuatro del espacio-tiempo
einsteiniano. (Green, 2006, p.3).

Otro de los físicos que en su trabajo se ha ocupado de la unificación es John Gribbin, quien en

su obra Biografía del universo (Gribbin, 2007)4, expone que a principio de los años noventa,

el físico Ed Witten (1995) (5), siguiendo la iniciativa de muchos físicos teóricos de querer

estructurar la ―teoría de las cuerdas‖, le añadió una dimensión extra a ésta, e intentó demostrar

que las seis teorías candidatas a conformar la Teoría del Todo poseían aspectos que las

diferenciaban entre sí, pero que encajaban dentro de un modelo maestro al que le llamó Teoría

―M‖. Aunque Gribbin no se explica porque razón Witten utiliza la letra ―M‖ en su teoría,

explica que esta nos ayuda a entender el universo en que vivimos, partiendo desde el estado

de presión y de temperatura extremadamente alta, de donde surge el Big Bang, el cual ha sido

corroborado por las observaciones de la astrofísica, cuyas experimentaciones también son

aplicadas a la teoría de partículas (la cosmología y la física de partículas se han unido para

convertirse en física de astropartículas). Según Gribbin, el siguiente paso lógico después de

que Witten planteara la teoría ―M‖, sería especular respetablemente acerca de la pregunta más

antigua de todas ¿de dónde vino todo?:

La cosmología y la física de partículas se han unido para convertirse en física de


astropartículas. De modo que el siguiente paso lógico para probar el comportamiento de la
materia en las más pequeñas escalas es mirar hacia afuera en el espacio al comportamiento de

4
John Gribbin es un científico británico nacido el 19 de Marzo de 1946 en Maidstone. Se graduó en física en la
Universidad de Sussex en 1966, obtiene una maestría en ciencias de la astronomía en la misma universidad en
1967, y en 1971 se doctora en astrofísica en la Universidad de Cambridge.
5
Edward Witten es físico y matemático nacido el 26 de Agosto de 1951 en Baltimore-USA. Hijo de Louis
Witten, físico que se especializó en la gravitación y la relatividad general. Desarrolló la mayor parte de su labor
científica en el Instituto de Estudios Avanzados de Princeton. Se le deben a Witten grandes contribuciones a la
física teórica de las partículas elementales y a la teoría cuántica de campos.

22
la materia en las escalas más grandes, la escala del mismo universo, e investigar de donde
viene todo. Habiendo establecido lo que sabemos sobre las leyes de la física, y lo que
pensamos que sabemos, es hora de aplicar ese conocimiento a la biografía el universo – la
historia de cómo conseguimos estar aquí hoy. (Gribbin, 2007, p. 62).

Otro físico que permite llegar a la deducción acerca de la pertinencia de la unificación entre

las diferentes teorías científicas es Paul Davies, quien puntualiza que, aunque disimiles entre

sí, la combinación entre teorías (la mecánica cuántica y la Relatividad General) logra dar una

explicación más concisa y coherente acerca de la materia a pequeña y gran escala:

Evidentemente, los mundos macroscópico y microscópico se hallan íntimamente entrelazados.


No hay ninguna esperanza de comprender por completo la materia sólo a partir de sus
partículas constituyentes. Únicamente el sistema en conjunto da expresión concreta a la
realidad microscópica. Lo grande y lo pequeño coexisten. Uno no se incluye completamente
en el otro, ni el otro ―explica‖ completamente al primero. (Davies, 1985, p. 37).

Por su parte, Hawking en su exitosa obra publicada en 1992, ―Historia del Tiempo‖ comenta

al respecto la posibilidad de una teoría unificada:

No obstante, si descubrimos una teoría completa, con el tiempo habrá de ser, en sus líneas
maestras, comprensible para todos y no únicamente para unos pocos científicos. Entonces
todos, filósofos, científicos y la gente corriente, seremos capaces de tomar parte en la
discusión de por qué existe el universo y por qué existimos nosotros. Si encontrásemos una
respuesta a esto, sería el triunfo definitivo de la razón humana, porque entonces conoceríamos
el pensamiento de Dios. (p. 224).

Para concluir este punto de nuestro trabajo, relacionaremos la última frase con la que finaliza

la obra analizada en este trabajo, la cual pretende reforzar lo argumentado en la Teoría ―M‖:

―Si la teoría es confirmada por la observación, será la culminación de una búsqueda que se

remonta a más de tres mil años. Habremos hallado el Gran Diseño‖ (Hawking & Mledinow,

2010, p. 204)

23
3. La inflación y el big bang implicados en la teoría “M”.

La teoría aceptada universalmente por la ciencia, para explicar el origen del universo es, hasta

estos momentos, la teoría del Big Bang. La idea de un universo en expansión surge a partir de

la Teoría General de la Relatividad de Einstein. Sin embargo, existe otro antecedente histórico

de esta teoría a partir de las investigaciones de Vesto Slipher (1875–1969), un astrónomo

norteamericano que en 1912 logró obtener 41 espectros de la luz proveniente de las galaxias

exteriores a la Vía Láctea, de las cuales, 31 presentaban cambios de tonalidad hacia el rojo del

espectro de hidrogeno. Esto fue interpretado por Slipher como un probable alejamiento de

esas galaxias con respecto a la nuestra. Posteriormente, con el propósito de hallar una

explicación a este movimiento de alejamiento de esas galaxias, el astrónomo y sacerdote

belga, Georges Henry Lemâitre (1894–1966), luego de revisar exhaustivamente los trabajos

de Slipher y la Relatividad General de Einstein, desarrolló en el año 1927 unas ecuaciones

que le llevaron a la Hipótesis del Átomo Primitivo, cuyo planteamiento suponía que, dado que

las galaxias se están alejando, si retrocedemos lo suficiente en el tiempo, llegaremos hasta el

estado inicial del universo. Y plantea entonces que todas las galaxias estarían juntas, de modo

que toda la materia-energía conocida, y el espacio-tiempo, convergen en un estado primitivo

de muy alta densidad y condensación. A partir de ese estado comprimido del universo se da,

lo que Lemâitre llamó: El Trueno de una Gran Explosión, con el cual se da inicio al suceso de

la creación. Esta hipótesis resultó ser provocadora, pues se trataba de una época en donde se

creía que el universo era estático (cuya creencia era compartida por Einstein) y había existido

siempre. Además, las ecuaciones de Lemâitre y los espectros de luz de Slipher constituían una

evidencia indirecta y de poco peso.

24
Posterior a Lemâitre, Edwin Hubble (1899-1953) en 1929 postula la Ley de Hubble: las

galaxias se alejan de nosotros con velocidad proporcional a su distancia. Hubble con un

telescopio de cien pulgadas del observatorio de Monte Wilson, en Pasadena- California,

analizó el espectro de la luz que emiten las galaxias y ―determinó que prácticamente todas

ellas se están alejando de nosotros, y que cuanto más lejos están con mayor velocidad se

mueven‖ (Hawking & Mledinow, 2010, p. 142). Pero es preciso aclarar a qué clase de

expansión nos estamos refiriendo, pues tal como lo exponen Hawking & Mledinow:

Por ejemplo, no queremos decir que se esté expandiendo de la manera en que, por ejemplo,
expandiríamos una casa, empujando las paredes hacia afuera y situando una nueva sala de
baño donde antes hubo un majestuosos roble. Más que extenderse el propio espacio, lo que
está creciendo es la distancia entre dos puntos cualesquiera dentro del universo. (Hawking &
Mledinow, 2010, p. 143)

Más adelante, estas ideas concernientes a un universo en expansión, que poco a poco le

fueron dando más piso a la futura teoría del Big Bang, llevaron a Arthur Eddington (6) en

1931 a visualizar el universo como la superficie de un globo que se está expandiendo y las

galaxias como puntos sobre dicha superficie. Una imagen que arroja claridad del porqué las

galaxias que se encuentran más lejanas a las nuestra se alejan más rápidamente que las

cercanas. Hawking & Mledinow lo detallan así:

Por ejemplo, si el radio del globo se duplicara cada hora, la distancia entre dos ―galaxias‖
cualesquiera sobre el globo se duplicaría cada hora. Si en un cierto instante dos galaxias
estuvieran separadas un centímetro, una hora después estarían separadas dos centímetros y
parecería que se están separando la una de la otra con un ritmo de un centímetro por hora. Pero
si inicialmente hubieran estado separadas dos centímetros, una hora después estarían
separadas cuatro centímetros y parecería que se están separando entre sí a un ritmo de dos

6
Sir Arthur Stanley Eddington (28 de diciembre de 1882 en Kendal-22 de noviembre de 1944 en Cambridge),
astrofísico de la Universidad de Cambridge muy conocido en la primera mitad del siglo XX por su destacado
trabajo acerca de la Teoría de la Relatividad. En 1919 escribió un artículo titulado: Report on the relativity
theory of gravitation (Informe sobre la teoría relativista de la gravitación), con el fin de explicar la Teoría de la
Relatividad de Einstein al mundo anglosajón, debido a que, por causa de la Primera Guerra Mundial, los avances
científicos alemanes no eran muy conocidos en Gran Bretaña.

25
centímetros por hora. Esto es precisamente lo que Hubble descubrió: cuanto más lejos se halla
una galaxia, más velozmente se aleja de nosotros. (Hawking & Mledinow, 2010, p. 143-144).

Es importante aclarar que la expansión del espacio que separa a las galaxias, no les agranda el

tamaño, dado que esta extensión del espacio no afecta la materia que las constituye ni a

aquellos elementos que las mantiene cohesionadas.

Por ejemplo, si trazáramos un círculo alrededor de un racimo de galaxias sobre el globo, el


círculo no se expandiría a medida que el globo se expandiera si no que, como las galaxias
están ligadas entre sí por fuerzas gravitatorias, el circulo y las galaxias de su interior
mantendrían su tamaño o configuración aunque el globo se expandiera (Hawking &
Mledinow, 2010, p. 144).

El término Big Bang es acuñado por primera vez en 1949 por el astrofísico de la Universidad

de Cambridge Fred Hoyle, quién creía en un universo que se expandía eternamente (Hawking

& Mledinow, 2010, p. 146). Las primeras pruebas directas que se obtienen a favor del Big

Bang fueron en 1965, cuando se descubre una tenue radiación del fondo cósmico de

microondas (es decir, el calor residual de la creación que llena todo el espacio cósmico:

CMBR por sus siglas en inglés: Cosmic Microwave Background Radiation), descubierta

accidentalmente por dos científicos de los laboratorios Bell:

(…) Dicke y Peebles argumentaron que aun deberíamos ser capaces de ver el resplandor de los
inicios del universo, porque la luz proveniente de lugares muy distantes estaría alcanzándonos
ahora. Sin embargo, la expansión del universo implicaría que esta luz debería estar tan
tremendamente desplazada hacia el rojo que nos llegaría hoy en día como radiación de
microondas. Cuando Dicke y Peebles estaban estudiando cómo buscar esta radiación, Penzias
y Wilson se enteraron del objetivo de ese trabajo y comprendieron que ellos ya habían
encontrado dicha radiación. Gracias a este trabajo, Penzias y Wilson fueron galardonados con
el premio Nobel en 1978 (¡lo que parece ser bastante injusto con Dicke y Peebles, por no
mencionar a Gamow!). (Hawking, 1992, p. 67-68).

26
Imagen del firmamento producida por el satélite WMAP, publicada en el 21010 por el equipo
científico NASA/WMAP.

Tal radiación de fondo es la resultante del primer instante del universo primitivo, caliente y

denso, al momento posterior a la gran explosión. Los astrónomos han hallado otros indicios

que permiten confirmar la teoría de esa gran explosión, pero la investigación experimental

que ha terminado por darle el mayor sustento al argumento del Big Bang es el presentado en

el mes de Abril de 2014 por el Centro Harvard-Smithsonian para la Astrofísica de

Massachusetts (USA), que anunció (por medio de la agencia EFE) que ha detectado por

primera vez mediante un telescopio que tienen instalado en el Polo Sur, las ―ondas

gravitacionales primordiales‖ (los ecos del primer instante del universo) que se generaron

trillonésimas de segundo después de la explosión del Big Bang. El equipo del Centro

Harvard-Smithsonian, dirigido por John Kovac, afirma haber logrado percibir estas ―ondas‖ a

través del telescopio BICEP2 (Background Imaging of Cosmic Extragalactic Polarization) en

un pequeño retazo de cielo. Esas ondas gravitacionales permiten probar varias teorías: el Big

Bang, la inflación, la gravitacional, la cuántica y el inicio del espacio-tiempo planteado en la

relatividad general, entre otras.

27
Hawking al enterarse del hallazgo, comentó en una entrevista para Radio 4 de la BBC, que la

inflación concebida por primera vez por el cosmólogo Alan Guth se sustenta en la

argumentación de que en la creación del universo hubo un periodo de ―aceleración‖, es decir

una expansión ultrarrápida que prueba que hubo una explosión causada por el estado de alta

densidad y presión del inflatón (la partícula inicial). Esa inflación generó las ―olas

gravitacionales‖ que recientemente hallaron los investigadores de la Universidad de Harvard,

lo cual avala al Big Bang y de paso consolida a la teoría ―M‖. Solo están en espera a que en el

mes de Septiembre de 2014, sus competidores de la Agencia Espacial Europea confirmen el

hallazgo también, usando el satélite Planck.

Para Hawking esta es la confirmación de un descubrimiento de hace más de 30 años,

reiterando que desde 1982 había invitado a varios científicos que estaban ocupados en

comprobar experimentalmente esta teoría inflacionaria a que conformaran un ―taller de

trabajo‖ en la Universidad de Cambridge, donde ya se había llegado a la aceptación de la

teoría de la ―inflación‖, y que la primera corroboración parcial de la inflación fue diez años

después.

La teoría inflacionaria surge en 1980, cuando Guth aporta argumentos que van más allá de la

Teoría de la Relatividad General y teniendo en cuenta a la física cuántica. Es decir, en ella se

combina la física cuántica y la Teoría de la Relatividad General. Hawking & Mledinow

informan en el libro analizado en este trabajo y que fue publicado en 2010 (Hawking &

Mledinow, 2010, p. 148), que aún no se encontraba lista la teoría de la gravedad cuántica (7),

y que se desconocía cómo ocurrió la inflación. A pesar de que la gravedad cuántica aún no se

7
―Como no disponemos de una teoría cuántica completa de la gravedad, los detalles están siendo todavía
elaborados, y los físicos no están del todo seguros de cómo ocurrió la inflación‖. (Hawking & Mledinow, 2010,
p. 148).

28
encuentra completa, a la fecha, los experimentos confirman provisionalmente que si hubo

lugar a la inflación cósmica. Hecho que por supuesto, los autores desconocían al momento de

editar su libro. Sin embargo, ellos comentan acertadamente sobre la búsqueda de pruebas

experimentales acerca de la inflación:

(…) Tal como hemos advertido, podemos observar esas irregularidades como pequeñas
variaciones en las microondas que nos llegan de direcciones diferentes del firmamento. Se ha
comprobado que concuerdan exactamente con las exigencias generales de la teoría
inflacionaria; sin embargo, necesitaremos mediciones más precisas para poder distinguir
completamente la teoría descendente de la otras teorías, y así confirmarla o refutarla. Es de
esperar que tales mediciones sean llevadas a cabo por satélites en un futuro próximo.
(Hawking & Mledinow, 2010, p. 163).

Esta confirmación de la que hablaban en el 2010 estos autores, y que ya ha sido presentada a

la comunidad científica por los investigadores de la Universidad de Harvard, es para la física

y la astronomía (también debe serlo para la filosofía) el hallazgo más importante de los

últimos tiempos y abre una nueva era para la humanidad, puesto que permite una mejor y más

veraz explicación sobre cómo y cuándo se creó o se auto-creó el universo. Para muchos

astrofísicos, aplicando la estadística y las ecuaciones de las probabilidades, la posibilidad de

que los investigadores del centro Harvard-Smithsonian para la Astrofísica de Massachusetts

estén equivocados es muy mínima.

Ahora bien, la teoría de la inflación de Alan Guth plantea que el universo surgió de una breve

fase de expansión acelerada a partir de la partícula cuántica inicial, después de la cual se

produjeron las primeras ondas gravitacionales. Esa partícula elemental comprometida en tal

expansión se llama inflatón, que en sus diversas etapas de expansión liberó su energía

potencial dando lugar a todas las formas de energía, materia y radiación, dejando como

consecuencia el universo amplio que conocemos.

29
Einstein, por su parte, ya había planteado que el rastro de las ondas gravitacionales

primigenias sería tan débil que jamás sería posible hallarlas. No obstante, estas fueron

detectadas en el estudio relacionado anteriormente, y la señal de esa radiación de fondo ha

sido mucho más fuerte de lo que predijo Einstein. Dicha radiación de fondo es similar a una

radiación electromagnética, la cual tuvo lugar antes de que se originaran las primeras

estrellas. Estas ondas de luz constituyen la huella de las fluctuaciones cuánticas producidas

tras la explosión inicial que dio origen al universo, y poseen una temperatura equivalente

menor a 3 K, es decir, tres grados por encima del cero absoluto. Estas experimentaciones

requirieron la creación de una tecnología nueva, conformada por una cámara en una placa de

circuito impreso que incluía una antena para enfocar y filtrar la luz polarizada. El trabajo se

realizó en un lapso superior a los tres años, con el fin de detectar cualquier falla en el método

y evitar confusiones con el polvo de la Vía Láctea, que produce una señal similar.

Este hallazgo es la finalización de una búsqueda que inicio con los presocráticos, quienes

empezaron a plantear argumentos racionales que contribuyeran a dar una explicación acerca

de aquellos fenómenos considerados sobrenaturales debidos a la acción de los dioses o

producto del azar. Tales argumentos, que constituyen la transición del mito a la razón, son

también el inicio de la explicación del origen del mundo material basada en leyes naturales.

4. No existe el azar, sólo patrones regulares que se repiten.

Hawking & Mledinow (2010) explican que el planteamiento acerca de las leyes que rigen al

universo desde la antigüedad, surge a partir de las regularidades observadas en el movimiento

de los cuerpos astronómicos como el Sol, la Luna y los planetas, lo cual descartó la

intervención caprichosa de dioses o demonios. Los primeros en notar esas leyes fueron los

30
que se dedicaban al estudio de la astronomía (que justamente eran filósofos), lo cual significó

un quiebre con el pensamiento tradicional ensimismado en la mitología. Esas observaciones,

según Hawking & Mledinow (2010) jugaron un rol trascendental para el inicio de la ciencia:

Al cabo de un tiempo, se tuvieron que dar cuenta de que los eclipses no se producen al azar,
sino en patrones regulares que se repiten. Esos patrones resultaban más obvios para los
eclipses de Luna, y permitieron a los antiguos babilonios predecir con considerable exactitud
eclipses lunares, aunque no se dieron cuenta de que los produjera la Tierra al interceptar la luz
del Sol.
Los eclipses de Sol fueron más difíciles de predecir, porque sólo son visibles en un corredor
de unos sesenta kilómetros de ancho sobre la Tierra. (p. 21).

Sucesivamente las observaciones astronómicas fueron permitiendo el descubrimiento de leyes

que dieron lugar a la noción de determinismo científico. Y según el determinismo científico,

dado el estado inicial del universo en un sistema, un conjunto completo de leyes puede

determinar cómo evolucionará éste, y ―esas leyes deberían cumplirse siempre y en todo lugar;

de otra manera no serían leyes. No podrá haber excepciones ni milagros. Ni dioses ni

demonios podrían intervenir en el funcionamiento del universo‖ (Hawking & Mledinow,

2010, p.193). Esta nueva concepción inicia así:

Pero con Tales (c. 624-546 a, C.,), unos 2.600 años a. C., eso empezó a cambiar. Surgió la
idea de que la naturaleza sigue unos principios consistentes que podrían ser descifrados, y así
empezó el largo proceso de reemplazar la noción del reinado de los dioses por la de un
universo regido por leyes de la naturaleza y creado conforme a un plan que algún día
aprenderemos a leer. (Hawking & Mledinow, 2010, p. 23).

Ahora bien, debido a que en la época en que Newton propuso las leyes del movimiento y de la

gravedad, esas leyes eran las únicas conocidas, y el determinismo científico era

universalmente aceptado, tales leyes tomaron la fuerza de una verdad. Sin embargo, la

formulación de la teoría de la relatividad general por parte de Einstein, extendió la

31
conceptualización de esas leyes y agregó otros aspectos del universo que aún no habían sido

descubiertos. Entre esas nuevas ideas de Einstein, estaba incluida la de unificación y Greene

las explica así:

Durante los últimos treinta años de su vida, Albert Einstein buscó incesantemente lo que se
llamaría una teoría unificada de campos, es decir, una teoría capaz de describir las fuerzas de
la naturaleza dentro de un marco único, coherente y que lo abarcase todo. Einstein no estaba
motivado por las cosas que a menudo relacionamos con la actividad científica, como, por
ejemplo, intentar hallar una explicación para estos o aquellos datos experimentales. Lo que le
impulsaba era una creencia apasionada en la idea de que una comprensión más profunda del
universo pondría de manifiesto la auténtica maravilla: la sencillez y el enorme poder de los
principios en los que se basa. Einstein deseaba explicar el funcionamiento del universo con
una claridad nunca antes conseguida, lo que nos permitiría a todos nosotros contemplar con
asombro y admiración su belleza y elegancia absolutas. (Greene, 2006, p.7)

Pero según Greene, Einstein nunca pudo alcanzar su sueño, debido a que en su época se

desconocían muchos detalles esenciales de la materia y de las fuerzas de la naturaleza, y si se

conocían eran escasamente comprendidas. Sin embargo, durante las décadas siguientes,

nuevas generaciones de físicos trabajaron incansablemente sobre los datos de sus

predecesores, con el fin ―hacer encajar todas las piezas de un modelo más completo con el

que entender el funcionamiento del universo‖ (Green, 2006, p.7). En la actualidad,

transcurrido mucho tiempo después de que Einstein planteara la búsqueda de una teoría

unificada, muchos físicos creen haber hallado un marco teórico que permite encajar todas las

teorías.

Sin embargo, el problema se deriva del hecho de que existen grandes diferencias entre estas

teorías. Actualmente operan en física varias teorías, y cada una de ellas contribuye a una

interpretación de nuestra realidad material en diferentes campos. Entre ellas se encuentran: la

física Cuántica, la Mecánica Clásica y la Relatividad General. En el caso de la Física

Cuántica, debido a que en sus postulados está implicado el indeterminismo, ha forzado a

32
plantear una nueva lógica paraconsistente. Es decir una lógica cuántica que incluye tanto la

coherencia como la decoherencia, pues en ella (la física cuántica) determinismo e

indeterminismo están imbricados en la composición de la materia.

5. Conexión lógica entre las disimiles teorías que conforman la teoría “M”.

La teoría del Big-Bang, derivada a partir de la teoría de la relatividad general, propone que al

retroceder hasta el estado inicial del universo este posee una magnitud microscópica (de una

milmillonésima de billonésima de billonésima de centímetro), por lo que su análisis sólo es

posible desde la teoría cuántica, dado que únicamente ella opera a ese nivel. Es decir, que a

ese nivel no funciona la teoría de la relatividad general ni la mecánica clásica. Por lo tanto,

como el inicio del universo es un suceso cuántico, sólo es teorizable desde la física cuántica.

Ahora bien, una vez la materia que surge del Big Bang alcanza un tamaño macro (galaxias,

soles y planetas), resulta razonable la acción de las leyes del movimiento newtonianas (a bajas

velocidades), las cuales son deterministas y coherentes. Luego, en ese orden establecido, la

energía-materia y el espacio-tiempo, junto con la ley de gravedad relativista (la de Einstein)

permitieron la evolución del universo hasta el estado actual. De manera que, aun a pesar de

que en algunos aspectos difieren y en otros se conectan, las leyes implicadas en estas teorías

físicas se complementaron para permitir la configuración del universo que conocemos hasta

ahora.

La conexión entre estas teorías, es una búsqueda que empezó a partir de la necesidad de

interpretar nuestra percepción acerca de la realidad de la materia sin que se excluyan

mutuamente las leyes descubiertas para sustentar las teorías que explican lo micro y lo macro.

33
En esa iniciativa, algunos físicos optaron por la teoría de las «supercuerdas» y otros por la

teoría ―M‖, aunque los argumentos de las dos sean parecidos. En el caso de Brian Greene, sus

argumentos para apoyar la teoría de las supercuerdas son los siguientes:

La teoría de las supercuerdas genera una amplia red de recursos. Se trata de un tema amplio y
profundo que inspira muchos de los descubrimientos cruciales de la física. Dado que esta
teoría unifica las leyes de lo grande y de lo pequeño, es decir, las leyes que gobiernan la física
cuando nos trasladamos hasta los rincones más lejanos del cosmos y cuando descendemos
hasta la partícula más diminuta de la materia, existen muchos caminos para aproximarse a este
tema. He optado por centrarme en la evolución de nuestro modo de comprender el espacio y el
tiempo. Creo que ésta es una vía especialmente atractiva para desarrollar el tema, ya que
realiza un corte rico y fascinante a través de las teorías nuevas y esenciales. Einstein mostró al
mundo que el espacio y el tiempo se comportan de maneras asombrosamente poco corrientes.
Actualmente, la investigación más avanzada ha integrado sus descubrimientos en un universo
cuántico que posee numerosas dimensiones ocultas entrelazadas en el tejido del cosmos -
dimensiones cuya geometría profusamente entrelazada tiene muchas probabilidades de
contener la clave de algunas de las cuestiones más difíciles que se han planteado jamás-.
Aunque algunos de estos conceptos son bastante sutiles, veremos que es posible captarlos
mediante analogías con cuestiones muy cercanas. (2006, p. 7).

Aunque en este trabajo nos ocupamos de la teoría ―M‖, tomaremos como referencia la

elección de Greene en su obra El universo elegante (2006), ―He optado por centrarme en la

evolución de nuestro modo de comprender el espacio y el tiempo‖ (p. 7), que también es

expuesto por Hawking & Mledinow (2010) en el Capítulo 5, La Teoría de Todo, ya que en el

análisis de estos cambios, se encuentran finos detalles que acercan y separan a las teorías

cuánticas, newtonianas y la relatividad general.

6. Algunas importantes diferencias entre la Mecánica Clásica y la Teoría de la

Relatividad General:

La nueva imagen del espacio-tiempo

34
En la Relatividad, la gravedad ya no es la fuerza que actúa a través del espacio vacío que
separa los objetos que interaccionan (según Newton), sino que es el efecto de la materia y la
energía al deformar la tela geométrica del espacio alterando la trayectoria de los objetos
(Hawking & Mledinow, 2010, p. 150).

Según Hawking & Mledinow (2010), en la nueva visión de Einstein acerca del espacio y del

tiempo Einstein, este toma en cuenta la teoría unificada de la electricidad y el magnetismo de

James Clerk Maxwell (p.105-110), y plantea que el tiempo ya no puede ser considerado

separadamente de las tres dimensiones espaciales, sino que tiempo y espacio están imbricados

entre sí. Es decir, que a las tres dimensiones espaciales (derecha-izquierda, adelante-atrás y

arriba-abajo), hay que adicionarles una cuarta dimensión: espacio-tiempo (futuro-pasado). Por

lo tanto, así como la definición de derecha-izquierda, adelante-atrás o arriba-abajo dependen

de la orientación del observador, así también la medición y el sentido del tiempo dependerán

de la velocidad y la ubicación espacio-temporal del observador. Hawking, en la Historia del

Tiempo lo explica así:

En otras palabras, ¡la teoría de la relatividad acabó con la idea de un tiempo absoluto! Cada
observador debe tener su propia medida del tiempo, que es la que registraría un reloj que se
mueve junto a él, y relojes idénticos moviéndose con observadores diferentes no tendrían por
qué coincidir. (Hawking, 1992, p. 41).

35
En cuanto a la concepción einsteniana de gravedad y la curvatura del espacio-tiempo, el físico

Kip Thorne, en su obra Agujeros negros y tiempo curvo- El escandaloso legado de Einstein,

dilucida estas diferencias: para Newton ―la gravedad es la fuerza proporcional al producto de

las masas de los objetos e inversamente proporcional al cuadrado de la distancia entre ellos‖

(Thorne, 1995, p.70), en tanto que para Einstein la gravedad es el efecto de la masa y la

energía al distorsionar al espacio-tiempo.

Ahora bien, si la concepción de tiempo cambió y se unificó a la de espacio, con ellas también

cambió la visión física del mundo. En las páginas 116, 117 y 118, y páginas 151 y 152

(Hawking & Mledinow, 2010) plantean que la distancia más corta entre dos puntos ya no es

una línea recta:

Por ejemplo, sobre la superficie de la Tierra, la distancia más corta entre dos puntos – que
sabemos que es un segmento rectilíneo en la geometría euclidiano - es el camino que conecta
los dos puntos a lo largo de lo que se denomina un círculo máximo. (Un círculo máximo es
una línea en la superficie de la Tierra cuyo centro coincide con el centro de la Tierra. El
ecuador es un ejemplo de círculo máximo, y también lo es cualquier círculo obtenido
inclinando el ecuador por alguno cualquiera de sus infinitos diámetros). (Hawking &
Mlodinow, p. 116).

Es decir, que el concepto de recta cambia su sentido en la física relativista de Einstein, por el

de ―línea geodésica‖. Es decir, se pasa a la geometría no euclidiana de Riemann (Riemann,

1826-1866) que toma como base Einstein para explicar la curvatura del espacio-tiempo tetra-

dimensional. Ahora bien, ¿por qué a primera vista tendemos a pensar que la línea recta es el

camino más corto entre dos puntos? Esto se debe a nuestra percepción común de que el

espacio-tiempo es tridimensional y plano. Sin embargo, en la teoría de la relatividad general

debido a que los cuerpos se mueven en un espacio-tiempo cuatridimensional, su recorrido

siempre será curvo con respecto a un plano bidimensional. Las aerolíneas han tomado en

36
consideración este postulado de la física relativista (Hawking & Mledinow, p. 116-118) y lo

aplican al trazado de rutas de los aviones, obteniendo resultados prácticos, dado que

economizan tiempo y combustible. Por ejemplo, en los vuelos de New York a Madrid (dos

ciudades que se hallan en la misma latitud), a simple vista el trayecto más corto sería ir en

línea recta. De esta manera el avión recorrería 3.707 millas. Pero, realmente existe un camino

más corto, que debido a la redondez de la tierra, parece curvado si lo trazamos en un mapa

plano. Por este trayecto se puede viajar de New York a Madrid recorriendo 3.605 millas.

Einstein hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras,
sino que es una consecuencia de que el espacio-tiempo no sea plano, como previamente se
había supuesto: el espacio-tiempo está curvado, o ―deformado‖, por la distribución de masa y
energía en él presente. Los cuerpos como la Tierra no están forzados a moverse en órbitas
curvas por una fuerza llamada gravedad; en vez de esto, ellos siguen la trayectoria más
parecida a una línea recta en un espacio curvo, es decir, lo que se conoce como una geodésica.
Una geodésica es el camino más corto (o más largo) entre dos puntos cercanos. Por ejemplo,
la superficie de la Tierra es un espacio curvo bidimensional. Las geodésicas en la Tierra se
llaman círculos máximos, y son el camino más corto entre dos puntos. Como la geodésica es
el camino más corto entre dos aeropuertos cualesquiera, el navegante de líneas aéreas le dirá al
piloto que vuele a lo largo de ella. (Hawking, 1992, p. 51).

37
Por su parte, a Hawking, además de reconocérsele el haber presentado una mejor explicación

acerca del tiempo (su obra Breve Historia del Tiempo aparece en el libro Guinness Records

por sus extraordinarias ventas), también se le reconoce el haber dado el primer paso para unir

la mecánica cuántica con la teoría de la relatividad, lo cual permitió una mejor comprensión

acerca del Big Bang, dado que el universo se origina a partir de perturbaciones cuánticas. Y

aunque Hawking no lo menciona en las obras analizadas, esta investigación halló también

ciertas conexiones entre la mecánica newtoniana y la relatividad general.

7. Conexión matemática entre la mecánica newtoniana y la relatividad general.

Energía cinética en mecánica newtoniana

En la mecánica clásica, la energía cinética de una masa puntual depende de su masa (m) y sus

componentes del movimiento. Esta se expresa en julios (J). 1 J = 1 kg•m2/s2. Estos son

descritos por la velocidad (v) de la masa puntual, así:

Energía cinética en la relatividad general

Si la velocidad de un cuerpo es una fracción significante con respecto a la velocidad de la luz,

es necesario utilizar la teoría de la relatividad general para poder calcular la energía cinética.

En la relatividad se debe cambiar la expresión para el momento lineal, y de ella por

interacción se puede deducir la expresión de la energía cinética:

38
Cuando se aplica la expresión relativista anterior, desarrollándola en serie de Taylor y

tomando únicamente el término (1 / 2) m (v2 / c2), se retoma la expresión de la energía

cinética típicamente utilizada en la mecánica newtoniana, dado que por factorización simple

se reduce a la misma fórmula aplicada para la energía cinética en esta (mecánica newtoniana),

como se observa a continuación:

Se toma únicamente el primer término de la serie de Taylor ya que, conforme la serie

progresa, los términos se vuelven cada vez más y más pequeños y es posible despreciarlos.

La ecuación relativista muestra que la energía de un objeto se acerca al infinito cuando la

velocidad (v) se acerca a la velocidad de la luz (c), entonces es imposible acelerar un objeto a

esas magnitudes. Este producto matemático es la fórmula de equivalencia entre masa y

energía, cuando el cuerpo está en reposo obtenemos esta ecuación:

39
Así, la energía total (E) puede particionarse entre las energías de las masas en reposo más la

tradicional energía cinética newtoniana de baja velocidad. Cuando los objetos se mueven a

velocidades mucho más bajas que la luz (ej. cualquier fenómeno en la tierra) el primero de los

dos términos de la serie predomina.

La relación entre energía cinética y momentum es más complicada en este caso y viene dada

por la ecuación:

Esto también puede expandirse como una serie de Taylor, el primer término de esta simple

expresión viene de la mecánica newtoniana. Lo que sugiere esto es que las fórmulas para la

energía y el momento no son especiales ni axiomáticas, pero algunos conceptos emergen de

las ecuaciones de masa con energía y de los principios de la relatividad.

m = Masa de un cuerpo cualquiera

p = Momentum o cantidad de movimiento

c = Velocidad de la luz

v = Velocidad de un cuerpo cualquiera

E = Energía

Ec = Energía cinética

γ = Factor relativista

Conclusión:

40
A partir del análisis de la conexión matemática entre la mecánica newtoniana y la teoría de la

relatividad general, se puede concluir que:

Cuando se aplica la fórmula de energía cinética (Ec) en la mecánica relativista, en velocidades

muy mínimas con relación a la velocidad de la luz (v<<c), dicha fórmula (luego de aplicadas

las operaciones de factorización) se reduce a la misma fórmula de energía cinética en la

mecánica clásica (newtoniana). Es decir, que en cuanto a la energía cinética (Ec), ambas

teorías aplican la misma fórmula cuando se trata de velocidades muy bajas (v<<c). Por lo

tanto, en este punto (el de la energía cinética) se conectan o coinciden estas dos teorías. Es

decir, que la mecánica relativista no desplaza, ni anula del todo a la mecánica newtoniana.

41
Capítulo II

1. Las bases popperianas en las investigaciones de Hawking.

Como se puede verificar en varias obras de Hawking, éste se apoya en argumentos

popperianos para fundamentar sus planteamientos. Algunas son deducibles a partir de sus

argumentos y otras son directas, como es el caso de la siguiente referencia relacionada por

Hawking en el siguiente fragmento de su obra El universo en una cáscara de nuez:

Cualquier teoría científica seria, sobre el tiempo o cualquier otro concepto, debería en mi
opinión estar basada en la forma más operativa de filosofía de la ciencia: la perspectiva
positivista propuesta por Karl Popper y otros. Según esta forma de pensar, una teoría científica
es un modelo matemático que describe y codifica las observaciones que realizamos. Una
buena teoría describirá un amplio dominio de fenómenos a partir de unos pocos postulados
sencillos, y efectuará predicciones definidas que podrán ser sometidas a prueba. Si las
predicciones concuerdan con las observaciones, la teoría sobrevive a la prueba, aunque nunca
se pueda demostrar que sea correcta. En cambio, si las observaciones difieren de las
predicciones, debemos descartar o modificar la teoría. (Como mínimo, esto es lo que se
supone que ocurre. En la práctica, la gente cuestiona a menudo la precisión de las
observaciones y la fiabilidad y el talante moral de los que las han realizado). Si adoptamos la
perspectiva positivista, como yo hago, no podemos decir qué es realmente el tiempo. Todo lo
que podemos hacer es describir lo que hemos visto que constituye un excelente modelo
matemático del tiempo y decir a qué predicciones conduce. (Hawking, 2002, p. 12).

1.1. Stephen Hawking como precursor de la unificación entre la relatividad general y la

mecánica cuántica.

A lo largo de la investigación realizada en este trabajo, se han hallado varias referencias

acerca de la iniciativa de Hawking de unir otras teorías no relacionadas en este trabajo por

cuestiones de espacio. Un ejemplo de ello es, a la que se refiere en su último libro Breve

Historia de Mi Vida, en la cual plantea:

42
(…) Esta expresión contiene las tres constantes fundamentales de la naturaleza: c, la velocidad
de la luz; G, la constante de Newton de la gravitación; y h, la constante de Planck reducida.
Revela que existe una relación profunda y previamente no sospechada entre la gravedad y la
termodinámica, la ciencia del calor. (Hawking, 2014, p. 87).

Sin embargo, por cuestiones de espacio nos hemos remitido a las teorías que han sido

explicadas en este trabajo. Pues bien, el primer intento de unificar la teoría de la relatividad

general y la mecánica cuántica es reconocido a Hawking por muchos de sus colegas. Entre

ellos se pueden nombrar a Dennis William Siahou Sciama (8) (1926 – 1999), Martin Rees (9).

Además de las referencias de parte de sus colegas, en cuanto al primer paso hacia tal

unificación, el propio Hawking en su más reciente obra, Breve Historia de mi Vida, revela

esta iniciativa suya:

Tuvimos tal éxito con la teoría general clásica de la relatividad que en 1973 me sentía un poco
perdido tras la publicación de La estructura a gran escala del espacio-tiempo. Mi obra con
Penrose había demostrado que la relatividad general se rompería con las singularidades, así
que el siguiente paso evidente era combinar la relatividad general, la teoría de lo muy grande,
con la teoría cuántica, la teoría de lo muy pequeño. Yo no tenía formación en teoría cuántica,
y el problema de la singularidad (10) en aquel momento me pareció muy difícil de afrontar, así
que como ejercicio de calentamiento pensé en cómo se comportarían las partículas y los
campos gobernados por la teoría cuántica cerca de un agujero negro. En concreto me pregunté
si podían existir átomos en los que el núcleo fuera un agujero negro diminuto primordial,
formado en el universo temprano. (Hawking, 2014, p. 86-87).

Ahora bien, como se ha podido observar desde el capítulo I de este trabajo, tanto la teoría de

las Supercuerdas como la Teoría ―M‖ constituyen una nueva visión epistémica que intenta

8
Sciama fue un físico británico quien, a través de su trabajo y el de sus estudiantes, jugó el mayor rol en el
desarrollo de la física británica después de la segunda guerra mundial. Es considerado uno de los padres de la
cosmología.
9
Martin John Rees, Shropshire, Reino Unido, 23 de junio de 1942 (71 años), es un astrónomo británico. Ha sido
rector (Master) de Trinity College, Cambridge (2004-2012) y presidente de la Real Sociedad de Londres (2005-
2010).
10
La singularidad aparece definida en El Gran Diseño como: punto del espacio – tiempo en que alguna
magnitud física se hace infinita (Hawking y Mledinow: 2010, p. 210).

43
integrar las diferentes teorías de la física, (incluyendo aquellas que dieron lugar a las llamadas

revoluciones científicas), mediante aproximaciones, que en algunos casos son

complementarias. De manera que el interrogante que surge a partir de este intento de

unificación es el que se plantea en el siguiente ítem.

1.2. ¿Cómo hacer posible la unificación entre teorías que son incompatibles?

En el caso de la teoría ―M‖, este enfoque es posible a través de ―el realismo dependiente del

modelo‖ expuesto por Hawking & Mledinow en el capítulo 3, titulado ―¿Qué es la Realidad?‖

(p. 47). Entre los argumentos que ellos presentan para explicar el marco de la teoría ―M‖,

cuyo objetivo es acoplar teorías que son aparentemente incompatibles, está el hecho de que

dichas incompatibilidades en algunos casos dependen del modelo utilizado para interpretar

cada una de esas observaciones acerca de la realidad del universo. Es decir, que cuando dos

modelos diferentes dan resultados diferentes sobre un mismo hecho, esto indica:

Primero: no se puede afirmar que existe una sola realidad acerca de este hecho. Segundo: el

resultado que arroja cada modelo dependerá del concepto de realidad en el cual se pretende

correlacionar la observación realizada.

Por lo tanto, las teorías de vanguardia (como la teoría ―M‖) deben tener en cuenta que, si se

intenta construir una realidad acerca del universo, no se debe tener en cuenta un solo modelo,

sino la suma de los diferentes modelos que hayan demostrado ser efectivos en cada espacio-

temporal en que se esté teorizando sobre esos hechos. De manera que el realismo dependiente

del modelo también postula respuestas acerca del por qué las teorías interpretan de manera

diferente el mismo hecho observado. De lo cual, tampoco se podría excluir el hecho de que

44
puedan existir conexiones entre dos teorías, como las que presentan Hawking & Mledinow

entre la física newtoniana y la einsteniana, dado que la aplicación de cada uno de esos

modelos permiten estructurar un concepto conjunto acerca de la realidad.

En este orden de ideas, nuestra interpretación general acerca de la realidad del universo, es

una especie de crucigrama, en donde cada teoría aporta un significado a determinado hecho

observado, pero cada una independientemente no le puede dar respuesta al todo. A su vez, el

todo no se puede interpretar mediante un solo modelo o una sola realidad. Cada modelo

utilizado aporta una visión de esa realidad total que se intenta interpretar como un todo. Los

autores del Gran Diseño refiriéndose a la dualidad de la luz, lo explican de la siguiente

manera:

Dualidades como esta – situaciones en que dos teorías muy diferentes describen con precisión
el mismo fenómeno – son consistentes con el realismo dependiente del modelo. Cada teoría
describe y explica algunas propiedades, pero no se puede decir que ninguna de las dos teorías
sea mejor ni resulte más real que la otra. Parece que con las leyes que rigen el universo ocurra
lo mismo y que no haya una sola teoría o modelo matemático que describa todos los aspectos
del universo sino que, tal como hemos dicho en el primer capítulo, se necesite una red de
teorías, la de la denominada teoría M. Cada teoría de dicha red describe adecuadamente los
fenómenos dentro de un cierto intervalo y, cuando sus intervalos se solapan, las diversas
teorías de la red concuerdan entre sí, por lo cual decimos que son parte de la misma teoría.
Pero no hay una sola teoría de dicha red que pueda describir todos y cada uno de los aspectos
del universo – todas las fuerzas de la naturaleza, las partículas que experimentan dichas
fuerzas, y el marco espacial y temporal en que tiene lugar todo eso - . Aunque esa situación no
satisface el sueño tradicional de los físicos de obtener una teoría unificada, resulta aceptable
en el marco del realismo dependiente del modelo. (Hawking & Mledinow, 2010, p. 67-68).

Según Hawking & Mledinow, una conclusión importante a la que se puede llegar a partir del
realismo dependiente del modelo es la siguiente:

(…) no hay imagen – ni teoría – independiente del concepto de realidad. Así, adoptaremos una
perspectiva que denominaremos realismo dependiente del modelo: la idea de que una teoría
física o una imagen del mundo es un modelo (generalmente de naturaleza matemática) y un

45
conjunto de reglas que relacionan los elementos del modelo con las observaciones. Ello
proporciona un marco en el cual interpretar la ciencia moderna.

Los filósofos, desde Platón hasta ahora, han discutido a lo largo de los siglos sobre la
naturaleza de la realidad. La ciencia clásica está basada en la creencia de que existe un mundo
real externo cuyas propiedades son definidas e independientes del observador que las percibe.

(…)

En filosofía, esta creencia es denominada realismo.

(…)

Los realistas estrictos a menudo argumentan que la demostración de que las teorías científicas
representan la realidad radica en sus éxitos. Pero diferentes teorías pueden describir
satisfactoriamente el mismo fenómeno a través de marcos conceptuales diferentes. De hecho,
muchas teorías que habían demostrado ser satisfactorias fueron sustituidas posteriormente por
otras teorías igualmente satisfactorias basadas en conceptos completamente nuevos de la
realidad. (Hawking & Mledinow, 2010, p. 51-53).

Para apoyar el argumento del realismo dependiente del modelo, se relaciona a continuación la

argumentación resumida de Stephen Covey (11) (1932 - 2012), presentada en su texto Los

Siete Hábitos de la Gente Altamente Efectiva. Este autor, aunque no era físico sino

administrador de empresas, plantea también el caso especial de cuando dos percepciones de la

realidad concluyen en una interpretación diferente de un mismo hecho, haciéndolas

incompatibles entre sí. Covey inicia explicando que toma la acepción del término paradigma

en el sentido general de modelo, teoría, percepción, supuesto o marco de referencia de una

realidad, es decir, un paradigma es el modo con que «vemos» el mundo, no en los términos

de nuestro sentido de la vista, sino como percepción, comprensión e interpretación de un

hecho. Para Covey, los paradigmas son una especie de mapas que se adecuan a nuestros fines.

Pero aclara: ―Todos sabemos que «el mapa no es el territorio». Un mapa es simplemente una

explicación de ciertos aspectos de un territorio. Un paradigma es exactamente eso. Es una

11
Covey, Stephen Richards, fue escritor, conferencista, religioso y profesor estadounidense, ampliamente
conocido por su libro Los siete hábitos de las personas altamente efectivas, que alcanzó un gran éxito de ventas
en todo el mundo.

46
teoría, una explicación o un modelo de alguna otra cosa‖ (Covey, 1997, p. 32). De manera

que para Covey el modelo no es la realidad de la cosa que se observa:

Todos tenemos muchos mapas en la cabeza, que pueden clasificarse en dos categorías
principales: mapas del modo en que son las cosas, o realidades, y mapas del modo en que
deberían ser, o valores. Con esos mapas mentales interpretamos todo lo que experimentamos.
Pocas veces cuestionamos su exactitud; por lo general ni siquiera tenemos conciencia de que
existen. Simplemente damos por sentado que el modo en que vemos las cosas corresponde a lo
que realmente son o a lo que deberían ser. (Covey, 1997, p. 15).

Para sustentar su planteamiento, Covey explica su perspectiva al respecto, utilizando un

ejercicio que denomina: ―una experiencia intelectual y emocional‖ (Covey, 1994, p. 33), y

que según él, aprendió en la Harvard Business School. Tal experiencia se apoya en la

observación de las siguientes imágenes:

Imagen de la página 35:

Ahora mire la figura de la página 36 y describa cuidadosamente lo que ve.

47
¿Ve una mujer? ¿Cuántos años tiene? ¿Cómo es? ¿Qué lleva puesto? ¿En qué roles la ve?

Es probable que describa a la mujer del segundo dibujo como una joven de unos veinticinco
años, muy atractiva, vestida a la moda, con nariz pequeña y aspecto formal. Si usted es un
soltero, le gustaría invitarla a salir. Si su negocio es la ropa femenina, tal vez la emplearía
como modelo.

Pero, ¿y si yo le dijera que está equivocado? ¿Qué pensaría si yo insistiera en que se trata de
una mujer de 60 o 70 años, triste, con una gran nariz, y que no es en absoluto una modelo? Es
el tipo de persona a la que usted probablemente ayudaría a cruzar la calle.

¿Quién tiene razón? Vuelva a mirar el dibujo. ¿Logra ver a la anciana? En caso contrario,
persista. ¿No identifica su gran nariz ganchuda? ¿Su chal? Si usted y yo estuviéramos
hablando frente a frente podríamos discutir el dibujo. Usted me describiría lo que ve, y yo
podría hablarle de lo que veo por mi parte. Podríamos seguir comunicándonos hasta que usted
me mostrara claramente lo que ve y yo le mostrara lo que veo. (Covey, 1997, p. 15).

(…) pase a la página 57 y examine esa otra figura. Vuelva a la anterior. ¿Puede ver ahora a la
anciana? Es importante que lo haga antes de continuar leyendo.

Descubrí este ejercicio hace muchos años en la Harvard Business School. El instructor lo
usaba para demostrar con claridad y elocuencia que dos personas pueden mirar lo mismo,
disentir, y sin embargo estar ambas en lo cierto. (…).

Imagen de la página 57:

48
El profesor pidió entonces a uno de nosotros que le explicara lo que veía a un estudiante de la
otra mitad. En su diálogo, se irritaron al tropezar con problemas de comunicación.
— ¿Qué quieres decir con que es una anciana? ¡No puede tener más de veinte o veintidós
años!

— ¡Vamos! Debes de estar bromeando. ¡Tiene setenta años, podría tener cerca de ochenta!

— ¿Qué te pasa? ¿Estás ciego? Es una mujer joven, y muy guapa, me gustaría salir con ella.
Es encantadora.

— ¿Encantadora? Es una vieja bruja.

Los argumentos iban y venían, con los dos interlocutores seguros y firmes en sus posiciones.
Todo esto ocurría a pesar de una muy importante ventaja con la que contaban los estudiantes:
la mayoría de ellos conocían de antemano la posibilidad de que existiera otro punto de vista,
algo que muchos de nosotros nunca admitiríamos. Sin embargo, al principio, sólo unos pocos
tratamos realmente de ver la figura con otro marco de referencia. Después de un rato de
discusión fútil, un alumno se acercó a la pantalla y señaló una línea del dibujo. «Éste es el
collar de la joven», dijo. Otro respondió: «No, ésa es la boca de la anciana». Poco a poco
empezaron a examinar con calma puntos específicos de diferencia, y finalmente un alumno, y
después otro, hicieron la experiencia de un reconocimiento súbito al centrarse en las imágenes
respectivas. Mediante una continuada comunicación, tranquila, respetuosa y específica, todos
los que nos encontrábamos allí finalmente llegamos a comprender el otro punto de vista.

(…).

49
Esto no significa que no existan hechos. En nuestro experimento, dos individuos inicialmente
influidos por distintas imágenes condicionadoras miraban juntos la tercera figura. Miraban los
mismos hechos (líneas negras y espacios blancos) y los reconocían como hechos. Pero la
interpretación que cada uno de ellos daba a esos hechos representaba experiencias anteriores,
y los hechos carecen de significado al margen de su interpretación. (Covey, 1997, p. 15 - 18).

Como se puede observar, para Covey, los resultados obtenidos por medio de un paradigma o

modelo, aplicado para interpretar un hecho, dependen de la noción que se tenga de esa

realidad. Dicha interpretación es similar a lo afirmado por Hawking & Mledinow, el cual

consideran como una conclusión importante de su libro: “No hay imagen – ni teoría –

independiente del concepto de realidad” (Hawking & Mledinow, 2010, p. 51). Aunque es

preciso aclarar que Covey comparte la noción de ruptura que plantea Khun en la Estructura

de las Revoluciones Científicas, pues considera que Khun ―demostró que los descubrimientos

significativos en el campo del esfuerzo científico aparecen primero como rupturas con la

tradición, con los viejos modos de pensar, con los antiguos paradigmas‖ (Covey, 1994, p. 39).

Y utiliza como ejemplo el cambio de paradigma entre Ptolomeo y Copérnico. De manera que,

según Covey, sí existen las revoluciones científicas, y éstas son el resultado de tales rupturas:

Para Ptolomeo, el gran astrónomo egipcio, la Tierra era el centro del universo. Pero Copérnico
creó un cambio de paradigma, suscitando muchas resistencias y persecuciones al situar al Sol
en el centro. Súbitamente, todo fue objeto de una interpretación distinta.

El modelo newtoniano de la física es un paradigma de movimientos regulares y todavía


constituye la base de la ingeniería moderna. Pero es parcial, incompleto. El mundo científico
moderno se vio revolucionado por el paradigma einsteiniano, el paradigma de la relatividad,
cuyo valor predictivo y explicativo es mucho mayor. (Covey, 1997, p. 19).

Sin embargo, en este trabajo se muestra de manera clara y concisa, que tales rupturas no son

absolutas u omnipresentes en la historia de la ciencia. Aunque sí se puede utilizar el

argumento de Covey conjuntamente con el de los autores de la teoría ―M‖, para comprender

los casos en los que dos modelos arrojan interpretaciones diferentes o dos realidades

50
diferentes acerca de un mismo hecho. Es decir, el argumento de Covey es afín con el realismo

dependiente del modelo expuesto por Hawking & Mledinow para estructurar la teoría ―M‖.

Además, es preciso agregar que Hawking & Mledinow comparten el punto de vista de Hume

(1711 – 1776), pero en el sentido en que, ―a pesar de que no tenemos garantías racionales para

creer en una realidad objetiva, no nos queda otra opción sino actuar como si dicha realidad

fuera verdadera‖ (Hawking & Mledinow, 2010, p. 54).

Para los científicos, al igual que para los estudiantes que participaron en el ejercicio

presentado por Covey, los resultados que arrojan los modelos son correlativos con la noción

de realidad que tiene el investigador con respecto al hecho estudiado. Pero para evitar que esta

consideración conduzca a la ciencia a incurrir en la ambigüedad o en la incertidumbre total, es

preciso atender la recomendación de Mledinow:

De hecho, los experimentos que se han realizado a los experimentadores demuestran que los
científicos tienen una tendencia a ver lo que quieren ver, y a convencerse con datos que
quieren encontrar convincentes. Sí: los científicos y la ciencia son falibles. Aun así, estas
razones no llevan a dudar del método científico, sino que conducen a la necesidad de seguirlo
tan escrupulosamente como sea posible. (Chopra & Mledinow, 2012, p. 32).

De manera que se puede considerar a los modelos como si fueran una realidad verdadera,

pero no como la realidad verdadera, es decir, son una interpretación de la realidad, pero

pueden existir otras realidades acerca del mismo hecho. Sin embargo, aun teniendo en cuenta

que se puede considerar un modelo como si fuera una realidad, se debe atender la

recomendación de Gribbin, cuando señala que se debe tomar al “como si” como se lee:

Los modelos científicos son representaciones de la realidad, no la realidad en sí misma, y no


importa lo bien que funcionen o lo precisas que sean sus predicciones bajo las circunstancias
apropiadas, siempre se considerarán aproximaciones y ayudas a la imaginación, más que la

51
verdad absoluta. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está
compuesto por partículas denominadas protones y neutrones, lo que en realidad debería decir
es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera
formado de protones y neutrones. Los mejores científicos toman el «como si» como se lee,
pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a
menudo olvidan esta diferencia crucial. (Gribbin, 2007, p. 17).

Ahora bien, para Hawking & Mledinow, el intrincado debate trabado entre las corrientes

filosóficas realistas y antirrealistas se puede resolver utilizando el realismo dependiente del

modelo, dado que según ellos, mediante este argumento no tiene sentido preguntar si un

modelo es real o no, sino que más bien se debe preguntar si ese modelo concuerda o no con

las observaciones. Argumentan que, en el caso en que dos modelos concuerden con las

observaciones, como es el caso del efecto fotoeléctrico realizado por Einstein, no se puede

concluir que uno sea más real que el otro. Podemos optar por el modelo que más se acomode

a la situación que se está tratando, pero no se podría afirmar que el otro esté equivocado. Y

plantean su hipótesis acerca de qué tipo de modelo se debería elegir:

Un modelo es satisfactorio si:


1) Es elegante.
2) Contiene pocos elementos arbitrarios o ajustables.
3) Concuerda con las observaciones existentes y proporciona una explicación de ellas.
4) Realiza predicciones detalladas sobre observaciones futuras que permitirán refutar o falsar
el modelo si no son confirmadas. (Ibíd., p, 60).

Nótese la similitud con los puntos 2 y 6, planteados por Popper en la página 61 de su obra

Conjeturas y Refutaciones, que mencionamos en el capítulo I:

2. Las confirmaciones sólo cuentan si son el resultado de predicciones riesgosas, es decir, si,
de no basarnos en la teoría en cuestión, habríamos esperado que se produjera un suceso que es
incompatible con la teoría, un suceso que refutara la teoría.

(…)

52
6. Los elementos de juicio confirmatorios no deben ser tomados en cuenta, excepto cuando
son el resultado de un genuino test de la teoría; es decir, cuando puede ofrecerse un intento
serio, pero infructuoso, de refutar la teoría (en tales casos, hablo de ―elementos de juicio
corroboradores‖). (Popper, 1994, p. 61).

Por lo tanto, desde la perspectiva del realismo dependiente del modelo no existe un modelo

standard y excluyente desde el cual interpretar la realidad a partir de las observaciones.

Aunque, como se ha dicho, no se podría afirmar con respecto a un modelo, que éste coincida

con la realidad, sino con una realidad.

Al respecto de este punto, Chopra, en el libro que comparte con Mledinow, afirma: ―La

ciencia es el mejor método que conocemos para descubrir la verdad relativa al universo

material, pero los poderes de la ciencia tienen límites‖ (Chopra & Mledinow, 2012, p. 323).

2. La inconmensurabilidad.

Según el análisis que se ha propuesto, y a partir de la perspectiva de Popper expuesta en el

capítulo I de este trabajo, sólo se podría aludir a la inconmensurabilidad khuniana como a la

referencia de la existencia de diferencias entre las distintas teorías analizadas; pero no se

puede tomar esta inconmensurabilidad como un total desentendimiento o ruptura epistémica

entre ellas. Siendo así las cosas, no se puede considerar una intraducibilidad absoluta entre las

formulaciones de los físicos del pasado y las del presente. Por tanto, no se puede afirmar

estrictamente que la teoría de Einstein haya desplazado a la teoría Newtoniana.

Con respecto a las conexiones entre las teorías que llevaron a Hawking conjuntamente con su

colega Mledinow a armar una red de teorías en el libro El Gran Diseño, se puede observar al

primero ocupándose del tema en forma de preludio en sus obras anteriores:

53
¿CÓMO PROSEGUIRÁ EN EL FUTURO NUESTRO VIAJE EN POS DE NUEVOS
descubrimientos? ¿Culminaremos nuestra búsqueda de una teoría unificada completa que
gobierne el universo y todo lo que contiene? De hecho, como he dicho en el Capítulo 2, podría
ser que ya hubiéramos identificado la Teoría de Todo en la teoría M. Por lo que sabemos hasta
ahora, ésta no tiene una formulación única pero hemos descubierto una red de teorías
aparentemente diferentes, todas las cuales parecen aproximaciones en diversos límites a una
misma teoría subyacente. La situación es semejante, por ejemplo, al caso de la gravitación, en
que la teoría de Newton es una aproximación a la teoría de la relatividad general de Einstein
en el límite en que el campo gravitatorio se hace pequeño. La teoría M es como un
rompecabezas: es relativamente fácil identificar y ensamblar las piezas de sus bordes, es decir,
estudiar la teoría en los límites en que alguna magnitud se hace pequeña. (Hawking, 2002, p.
50).

Además, como ya se ha observado en el anterior capítulo de este trabajo, Hawking &

Mledinow explican que en ciertas circunstancias para la física experimental sí las diferencias

entre la mecánica newtoniana y la relativista son muy ínfimas, y las fórmulas de Newton son

más simples que las de Einstein, entonces resulta más práctico usar la mecánica clásica (este

es el caso de la conexión matemática entre la física clásica y la relativista en cuanto a la

energía cinética). Y ante este entendimiento entre una y otra ley física, se puede afirmar que

no son absolutamente intraducibles o incompatibles entre sí, tal como lo afirma Khun. Este es

el sentido que se le puede dar a lo que Einstein quiso decir (y téngase en cuenta que a Einstein

se le considera como el físico que produjo las más grande revolución en la historia de la

ciencia) cuando afirmó en una ocasión: ―No puede haber mejor destino para una teoría que el

de señalar el camino hacia otra teoría más vasta, dentro de la cual viva la primera como caso

limite‖. (Popper, 1992, p. 56)12.

Este punto de vista einsteiniano nos permite deducir que la ciencia ha llevado una línea

sucesiva de continuos progresos, pero con necesarios saltos intelectuales, que eventualmente

12
Esta frase hace parte del epígrafe del capítulo 1, página 56 de la obra de Popper en Conjeturas y Refutaciones.

54
produjeron las llamadas revoluciones científicas (interpretando estas como un cambio casi

total de una teoría a otra) y tener una base argumentativa para proponer que no existe

inconmensurabilidad en un sentido absoluto.

Esta discusión acerca de la inconmensurabilidad y las conexiones implicadas en la teoría ―M‖,

es la misma que encontramos en algunos textos referenciada como la controversia entre

continuismo y discontinuismo, de la cual se ocupa el profesor Fidel Llinás en su texto La

Revolución Científica: Tensión entre continuismo y discontinuismo en el caso de la Teoría del

Ímpetu (Llinás 2007) (13).

Ahora bien, de acuerdo a la discontinuidad, las nuevas teorías científicas deben ser

consideradas como una estructura argumentativa muy distinta de las anteriores e

intraducibles con respecto a aquellas. Sin embargo, de acuerdo al análisis de este trabajo, sólo

cabe hablar de revoluciones científicas cuando se presentan los llamados saltos intelectuales

entre una teoría y otra novedosa, como es el caso del paso de la teoría ptolemaica a la

copernicana, en donde la visión humana del planeta cambió.

Según la discontinuidad o inconmensurabilidad, el término revolución parece tener

erróneamente una connotación de ruptura radical entre una teoría y otra, dado que este

término (revolución), supone un giro total de una teoría a otra completamente distinta, y es

vista como una visión completamente aislada de las anteriores teorías. Es decir, al parecer de

los discontinuistas, se descubre una nueva interpretación de la realidad del universo y se

desecha la anterior. Según los seguidores de esa corriente, el nombre que se le asigna a esa

13
El profesor Fidel Llinás es Magister en filosofía y a la fecha el Decano de la Facultad de Ciencias Humanas de
la Universidad del Atlántico.

55
nueva interpretación de la realidad, debido a sus rotundas diferencias con la anterior, es

revolución.

Para comprender lo hiperbolizada que resulta de esta visión excluyente de las teorías

anteriores con respecto a la que provoca dicha revolución, relacionaremos a continuación

algunas afirmaciones de los propios científicos protagonistas de esas llamadas revoluciones.

Por ejemplo, Nicolás Copérnico (Citado por Hawking, 2010) en el libro primero de su obra

Sobre las Revoluciones de los Orbes Celestes, (y téngase en cuenta que a partir de su obra se

empieza a usar por primera vez el término revolución), afirma lo siguiente:

Confieso que voy a exponer muchas cosas de diferente manera que mis predecesores, aunque
conviene apoyarse en ellos, puesto que por primera vez abrieron la puerta en la investigación
de estas cosas.

Otro físico, al cual se valora como precursor de otro gran cambio de paradigma científico es

Isaac Newton, y a este se refiere Hawking en su libro A hombros de Gigantes, Las Grandes

Obras de la Física y la Astronomía, afirma lo siguiente:

El 5 de febrero de 1676 Isaac Newton escribió una carta a su más acérrimo enemigo, Robert
Hooke, que contenía la frase: «Si he logrado ver más lejos, ha sido porque he subido a
hombros de gigantes». Presentada a menudo como un homenaje a los descubrimientos
científicos de sus predecesores Copérnico, Galileo y Kepler, esta frase se ha convertido en una
de las más citadas en la historia de la ciencia. En efecto, Newton reconoció las contribuciones
de aquellos hombres, algunas veces en público y otras en escritos privados. (Hawking, 2010,
p.643).

Al respecto de estos comentarios a favor de la continuidad planteados por estos personajes

relevantes en la historia de la ciencia, lo que se deduce de la referencia expuesta por Hawking

en el libro mencionado anteriormente, es que estos refleja adecuadamente cómo la ciencia, y

56
de hecho el conjunto de la civilización, consiste en una serie de pequeños progresos, cada uno

de los cuales se alza sobre los alcanzados anteriormente.

Sin embargo, para Hawking, tal continuidad no es absoluta, ya que manifiesta que se requiere

de ciertos saltos intelectuales en el proceso de descubrir nuevas teorías, y esto lo aclara en la

introducción de esta misma obra:

Newton dijo que había subido a hombros de gigantes. Pero tal como este volumen ilustra muy
bien, nuestra comprensión no avanza tan sólo edificando lenta y continuamente a partir de los
trabajos anteriores. Algunas veces, como ocurrió con Copérnico o con Einstein, tenemos que
dar un salto intelectual a una nueva visión del mundo. Quizá Newton debería haber dicho ―use
hombros de gigantes como trampolín‖. (Hawking, 2004, p. 10).

Ahora bien, como se sabe, desde la teoría heliocéntrica de Copérnico hasta la actualidad, los

seguidores del discontinuismo utilizan el término revolución cuando surgen saltos

intelectuales entre las teorías científicas (con sus nuevos conceptos y nueva terminología,

distinta a la ya existente), y también cuando las teorías presentan una nueva visión acerca de

la interpretación de la realidad y del orden universal. Y dado que según ellos, el término

revolución significa que se presenta un giro intelectual de 180 grados entre la teoría anterior y

la nueva, este denominado cambio absoluto, como vimos, realmente no guarda estricta

relación con las propias afirmaciones de aquellos mismos autores de las llamadas

revoluciones científicas.

Con respecto al cambio de percepción de la realidad, sucede de igual manera que con el niño,

que por ser pequeño todo lo valora gigante, pero cuando se hace adulto las dimensiones de las

cosas toman otra perspectiva y su apreciación acerca de la realidad cambia.

57
En cuanto a las consideraciones acerca de las definiciones referentes a revolución científica,

éste difiere mucho de lo que en esencia significan esas revoluciones como formulaciones

novedosas, provisionales, de la interpretación de naturaleza del mundo. De manera que al

analizar las teorías más relevantes (como lo hemos hecho en este trabajo), se observa que las

semejanzas y diferencias más notables entre éstas, se comprende que no existe discontinuidad

absoluta, tal como plantean los seguidores de la corriente discontinuista. Por lo tanto, desde

nuestra visión continuista, revolución significa la reelaboración o reconstrucción crítica de

todo cuanto ha avanzado y progresado la ciencia a través de toda su historia.

La continuidad en la historia de la ciencia, corresponde a la corriente que sostiene que existe

continuidad entre las teorías desde la antigüedad, el medioevo, la época moderna y las teorías

de vanguardia, de las que nos hemos ocupado en este trabajo. Por lo tanto, esta corriente

considera que el conocimiento científico actual es una construcción histórico-cronológica,

dado que se formó por acumulación y mediante la cual se ha potencializado y actualizado sus

avances. Es decir, que el conocimiento científico que guía a la ciencia actual se caracteriza

por un hilo conductor consecuente que conecta y ha permitido el hallazgo de nuevas teorías.

Tal línea conectiva, en algunas ocasiones es muy delgada y en otras es más gruesa. Es decir,

existen conexiones fuertes y débiles, que se mantienen desde el inicio de las primeras

indagaciones de tipo científico desde Tales de Mileto. Y es justamente desde Tales de Mileto

donde comienzan Hawking & Mledinow su trabajo en la obra analizada en este trabajo, hasta

llegar a la Teoría ―M‖. Aunque las argumentaciones de Tales han perdido su eficacia con

respecto a los argumentos científicos actuales y a los que se han venido desarrollando durante

toda la historia, esto no le resta méritos al filósofo de Mileto, pues, tanto historiadores de la

ciencia como filósofos, y los propios físicos actuales (como Hawking & Mledinow), destacan

en Tales de Mileto el primer paso dado del mito a la razón. De manera que su nombre siempre

58
estará incluido en las diferentes versiones acerca de la historia de la ciencia y de la filosofía.

Para los seguidores del continuismo, los argumentos que han dado lugar a que la ciencia

llegara hasta su estado actual, no siempre presentan esos giros contundentes o extremos, que

según los seguidores de la teoría khuniana han dado origen a una nueva interpretación acerca

del origen del universo. Es decir, no todo es inconmensurable, ni tampoco conmensurable

entre las teorías.

De manera que, los continuistas valoramos la continuidad histórica como hilo conductor que

permitió llegar a la idea de una teoría unificada o teoría ―M‖, en donde cada etapa de la

historia de la ciencia se ha ido convirtiendo en un soporte o ―trampolín‖ para el posterior

período de mejores formulaciones científicas.

Por otro lado, existen ciertas teorías que sí fueron desplazadas completamente por sus

sucesoras. Un ejemplo de eso es la teoría del flogisto. Según esta teoría, todas las sustancias

que eran susceptibles de entrar en combustión, lo hacían básicamente porque contenían

flogisto. El proceso de combustión consistía en la pérdida de dicha sustancia. Así que esta

teoría planteaba que sustancias como el carbón y el azufre estaban compuestas de flogisto. Sin

embargo, la teoría del flogisto fue descartada completamente por el químico y biólogo francés

Antoine Lavoisier (1743 - 1794) quien demostró que la combustión es esencialmente un

proceso mediante el cual el oxígeno se combina con otras sustancias. En el año 1800 la

mayoría de los químicos ya habían reconocido la validez del experimento de Lavoisier y la

teoría del flogisto quedó definitivamente descartada.

De igual forma aconteció con la astrología. Al respecto del descarte de la astrología, Hawking

en su libro El Universo en una Cáscara de Nuez dilucida lo siguiente:

59
Pero el motivo real por el que la mayoría de científicos no cree en la astrología no es la
presencia o la ausencia de evidencias científicas acerca de ella, sino que no resulta consistente
con otras teorías que han sido comprobadas experimentalmente. Cuando Copérnico y Galileo
descubrieron que los planetas giran alrededor del Sol y no de la Tierra, y Newton formuló las
leyes que rigen sus movimientos, la astrología devino extremadamente implausible. ¿Por qué
deberían las posiciones de los planetas en el firmamento vistas desde la Tierra, tener
correlación alguna con las macromoléculas de un planeta menor que se auto-denominan vida
inteligente? Es esto lo que la astrología nos quisiera hacer creer. Para algunas de las teorías
descritas en este libro no hay más evidencia experimental que para la astrología, pero creemos
en ellas porque son consistentes con teorías que han superado numerosas pruebas
experimentales. (Hawking, 2002, p. 28).

Como último ejemplo del hecho de que una teoría sea desplazada por otra, relacionamos a

continuación la teoría del estado estacionario versus teoría del Big Bang. La teoría estacionara

fue propuesta por primera vez en la década de 1920 por Sir James Hopwood Jeans (1877 –

1946), físico, astrónomo y matemático británico. Este proponía una cosmología de estado

estacionario, y tal teoría fue defendida por Einstein. Esta teoría fue más tarde revisada y

defendida en 1948 por Fred Hoyle, Thomas Gold, Hermann Bondi, entre otros. Sin embargo,

a partir de los cálculos teóricos, realizados en el trabajo de Hawking y Penrose, se demostró

que un universo estático era imposible si se tiene en cuenta la relatividad general. Además, las

observaciones de George Lemâitre, George Gamow y Edwin Hubble demostraban que el

universo se estaba expandiendo, pues las mediciones así lo mostraban. Los problemas de esta

teoría surgieron a finales de la década de 1960 cuando las evidencias observacionales

permitieron mostrar que el universo estaba cambiando, que las galaxias estaban tomando

distancia unas de otras a velocidades colosales. Esto concordaba con la teoría del surgimiento

explosivo del universo, que según los cálculos, dicha explosión había ocurrido hace unos

12.750 millones de años, aproximadamente. La prueba definitiva vino con el descubrimiento

de la radiación de fondo de microondas en 1965, pues en el modelo estacionario, el universo

60
había sido siempre igual y no había motivos para que se produjera una radiación de fondo con

características térmicas.

3. Los aportes de Hawking a la teoría inflacionaria.

La reciente corroboración de la teoría inflacionaria cuya autoría se le atribuye a Allan Guth,

pone de manifiesto que esta ya había sido objeto de estudio por parte de Hawking, y a ésta se

refiere en su reciente obra:

Había estado trabajando sobre todo en agujeros negros, pero mi interés en la cosmología se
vio renovado por la idea de que el universo temprano había pasado por un periodo de
expansión inflacionaria. Así habría crecido de tamaño a un ritmo cada vez mayor, igual que
los precios suben en las tiendas. En 1982, empleando métodos euclidianos, demostré que ese
universo no sería del todo uniforme. El científico ruso Viacheslav Mujanov obtuvo resultados
parecidos aproximadamente en la misma época, pero no fueron conocidos hasta más tarde en
Occidente.

Puede considerarse que esas irregularidades surgen de fluctuaciones térmicas debido a


la temperatura efectiva en un universo inflacionario que Gary Gibbons y yo habíamos
descubierto hace ocho años. Más tarde muchas otras personas hicieron predicciones parecidas.
Organicé un encuentro de trabajo en Cambridge al que asistieron las principales figuras en la
materia, y en aquella reunión establecimos la mayor parte de la visión actual de la inflación,
incluidas las importantísimas fluctuaciones de densidad que dieron lugar a la formación de las
galaxias y, por tanto, a nuestra existencia.

Aquello fue diez años antes de que el satélite explorador del fondo cósmico (COBE
por sus siglas en inglés) registrara diferencias en el fondo de microondas en diferentes
direcciones producidas por las fluctuaciones de densidad. Así, que de nuevo, en el estudio de
la gravedad la teoría iba por delante de los experimentos. Más adelante las fluctuaciones
fueron confirmadas por la sonda de anisotropía de microondas del satélite Wilkinson (WMAP,
por sus siglas en inglés) y por el satélite Planck, y coincidían exactamente con las
predicciones. (Hawking, 2014, p. 137-138).

Esta teoría fue propuesta por Alan Guth en 1980. Pero Guth basó su teoría en trabajos de

otros físicos como Hawking, que había estudiado lo campos gravitatorios sumamente fuertes

como los que se encuentran en las proximidades de un agujero negro en los mismos inicios

del universo. Por lo tanto, en la confirmación de tal teoría Hawking tiene méritos, por cuanto

61
enriqueció los argumentos teóricos que sirvieron de base para las experimentaciones que

terminaron hallando las ondas gravitacionales primitivas.

Hawking y Don Page ( 14 ) trabajaron juntos para intentar calcular la probabilidad de la

inflación en el estado inicial de Hartle-Hawking. Otros autores también se han dedicado a

analizar este problema, ya que la inflación es infinita, dado que según los físicos teóricos, una

vez que inicia, ésta se prolonga a sí misma y rápidamente abarca todo lo que hoy se conoce

como el universo.

4. La compleja conjunción entre determinismo e indeterminismo.

Un salto cuántico.

Este cambio acerca de la interpretación de la naturaleza, a pesar de que significó un salto,

guarda relación con las propias conclusiones de las teorías anteriores que precedieron a la

mecánica cuántica. Hawking se refiere a este impresionante cambio de la siguiente manera:

El éxito de las leyes de Newton y de otras teorías físicas condujo a la idea del determinismo
científico, que fue expresada por primera vez a comienzos del siglo XIX por un científico
francés, el marqués de Laplace. Laplace sugirió que si conociéramos las posiciones y las
velocidades de todas las partículas del universo en un instante, las leyes de la física nos
deberían permitir la predicción de cuál será el estado del universo en cualquier otro instante
del pasado o del futuro.

A primera vista, el determinismo también parece amenazado por el principio de


incertidumbre, que establece que no podemos medir con precisión la posición y la velocidad
de una partícula simultáneamente. Cuanto mayor es la precisión con que medimos la posición,
menor será la precisión con que podamos determinar la velocidad, y viceversa. La versión de
Laplace del determinismo científico sostenía que si conociéramos las posiciones y las

14
Don N. Page es uno de los más notables estudiantes de Stephen Hawking, con quien ha publicado varios
artículos científicos en diferentes revistas. Es físico teórico canadiense de la Universidad de Alberta, y es
cristiano evangélico. Su trabajo se ha enfocado en el cuantun en la cosmología y en la teoría física gravitacional.

62
velocidades de las partículas en un instante dado, podríamos determinar sus posiciones y
velocidades en cualquier otro instante del pasado y del futuro. Pero ¿cómo podríamos ni
siquiera empezar si el principio de incertidumbre nos impide conocer con precisión las
posiciones y las velocidades en un instante? Por buenos que sean nuestros ordenadores, si les
introducimos datos imprecisos, obtendremos predicciones también imprecisas.

Sin embargo, el determinismo restablecido en una forma modificada en una nueva teoría
denominada mecánica cuántica, que incorporaba el principio de incertidumbre. Hablando con
cierta impropiedad, diríamos que en la mecánica cuántica podemos predecir con precisión la
mitad de lo que podríamos esperar predecir en la perspectiva clásica de Laplace. En la
mecánica cuántica, una partícula no tiene una posición o una velocidad bien definidas, pero su
estado puede ser representado mediante lo que se llama la función de onda. (Hawking, 2002,
p. 28-29).

Ahora bien, ¿cuál sería entonces la imbricación entre determinismo e indeterminismo? En

física, si se trata de la mecánica clásica, opera la ley de causa y efecto, pero esta ley es

reemplazada por la teoría de la relatividad si se trata de grandes velocidades, y por la teoría

cuántica si se trata de dimensiones subatómicas. Como la física cuántica está guiada por el

principio de incertidumbre, en ella se aplican complejos cálculos probabilísticos que obedecen

al indeterminismo cuántico. Sin embargo, el indeterminismo no se debe confundir con el azar.

La matemática aplicada en la física cuántica se fundamenta en el análisis probabilístico y en

la estadística. De esta manera la física cuántica ha hecho posibles avances tecnológicos como

la fabricación de los chips electrónicos que hacen parte del hardware de las computadoras, de

los teléfonos inteligentes y de los equipos que se usan en la elaboración de tomografías

computarizadas. Próximamente estarán listos los ordenadores cuánticos. Tales ordenadores,

tendrán la capacidad de realizar cálculos superveloces que permitirán explotar el trabajo

hecho por los computadores de una manera exponencial, dado que no trabajan en base a bits,

sino a cubits.

5. La teoría de todo.

63
El reto para la física en el siglo XX, constituía en el problema de que la Teoría General de la

Relatividad y la Mecánica Cuántica poseen incompatibilidades. Como ya se ha dicho en el

capítulo I y en este capítulo, la física cuántica opera en el mundo de lo pequeño, es decir, del

átomo, en el cual la gravedad es extremadamente pequeña. Y la teoría de la relatividad opera

a la perfección en el mundo de lo macro, incluyendo objetos grandes como las galaxias,

excepto en los agujeros negros y en el Big Bang. En la relatividad general los efectos de la

física cuántica son imperceptibles. Entre los problemas que implicados en la teoría de

unificación, estaba el de considerar al mismo tiempo en su explicación, objetos

extremadamente densos y relativamente grandes como los agujeros negros, y otros

extremadamente pequeños y extremadamente densos, como por ejemplo el universo antes del

Big Bang. Al intento de unificar estas dos teorías, incluyendo los problemas derivados de su

integración se le denominó gravedad cuántica, y fue propuesta por primera vez en 1974, por

Stephen Hawking, quien tuvo la idea genial de tomar en cuenta la física cuántica para tratar

de conocer lo que ocurre en el borde de un agujero negro. Según la física cuántica, el vacío en

el sentido estricto del término, no existe (tampoco para el materialismo dialéctico). Y lo que

se pudiera considerar como vacío, está lleno de actividad. Allí hay un continuo de partículas

chocando unas con otras y emitiendo chispas reiteradamente, en el que aparecen y

desaparecen parejas de partículas de materia. Por ejemplo, un electrón y su correspondiente

partícula de antimateria, un positrón, que según las leyes de la física cuántica, chocan unas

con otras y se aniquilan. Por lo cual se les llama partículas virtuales. Y al vacío en cual

pululan estos efímeros pares de partículas se le denomina vacío cuántico. Al aplicar la idea

del vacío cuántico en los bordes del horizonte de un agujero negro, Hawking propone que los

pares virtuales creados justo en ese borde, se separarían antes de poderse aniquilar. Una

partícula desaparecería en el abismo del agujero negro, en tanto que la otra por haber perdido

64
a su compañera, no tiene con quien destruirse y se puede escapar del horizonte del agujero

negro. Esto lleva a la conclusión de que los agujeros negros emiten radiación, y de paso

demuestra también que los agujeros negros, no son tan negros esta última idea fue defendida

por primera vez por Hawking). La radiación de Hawking tiene consecuencias asombrosas:

dado que la radiación lleva energía, y la energía según la relatividad es equivalente a la masa

(E = mc2), un agujero que emite radiación de Hawking va disminuyendo su masa, y por lo

tanto se irá desvaneciendo. Aunque lo hace a un ritmo demasiado lento.

5.1. Descubriendo dos realidades contradictorias.

Por su parte, Einstein fue un genio revolucionario, en el sentido en que, tomó los viejos

conceptos newtonianos como base y avanzó hacia nuevas ideas. Esto, como es lógico de

imaginar debió ocasionarle problemas en sus investigaciones, que de seguro causaron

contrariedades en su mente. Como es el caso de la dualidad de la luz, que lo llevó a investigar

el efecto fotoeléctrico: ¿la luz es onda o es partícula? Un experimento demuestra que es una

emisión de partículas y otro demuestra que es una onda.

Por un lado, Einstein se encontró con que la teoría de Planck aseveraba que la luz está hecha

de cuantos de energía que se proyectan en el espacio. ―La energía de un cuanto de luz debía

ser, de acuerdo con las suposiciones de Planck, igual a la frecuencia de la luz multiplicada por

la constante de Planck‖ (Heisenberg, 1959, p. 19). Este planteamiento de la Teoría de los

Cuantos, que establecía que los intercambios de energía entre la materia y la luz, solo son

posibles por cantidades finitas (cuantos) de átomos de luz, que posteriormente se

denominarían fotones (esta teoría presentaba el inconveniente que no lograba explicar

fenómenos ondulatorios, como por ejemplo: interferencias, difracción, etc.). Esta teoría era

65
considerada como revolucionaria con respecto a la teoría de la luz como onda (teoría

ondulatoria tradicional). Según la teoría de Maxwell, la luz consistía, bien en ondas

electromagnéticas, bien en cuantos de luz, es decir en paquetes de energía que atraviesan el

espacio a la velocidad de la luz. ¿Pero podría ser la luz las dos cosas?

Por su parte, Einstein sabía que los fenómenos conocidos de difracción e interferencia sólo se

podían explicar a través de la teoría ondulatoria ¿Cómo conciliar la contradicción que existía

entre ambas teorías, la de los cuantos y la ondulatoria? Tomó la decisión de no pretender

refutar la incomprensión entre ambas, sino que más bien decidió aceptar la condición dual de

la luz, cuya interpretación y experimentación le valió el premio nobel. Según Heisenberg,

―Tomó, simplemente, la contradicción como algo que quizá habría de entenderse sólo mucho

más tarde‖ (Heisenberg, 1959, p. 20). Al respecto de la contradicción Pascal (Blaise Pascal

1623 – 1662) afirmó: ―La contradicción no es una señal de la falsedad, ni la falta de

contradicción una señal de la verdad‖.

6. Conclusiones.

El emparejamiento entre las aplicaciones de los modelos newtoniano y relativista, que permite

igualar en este punto específico a estas teorías científicas, nos permite abogar por uno de los

más interesantes puntos de la teoría ―M‖: el hecho de que las teorías de vanguardia no han

desplazado del todo a las viejas teorías, y que por lo tanto no es absoluta la consabida

inconmensurabilidad khuniana. Y esta es la pauta que utilizan los proponentes de la teoría

―M‖ para acortar las ―rupturas epistémicas‖ o el ―cambio total‖ que los seguidores de la teoría

de Khun utilizan para sustentar las llamadas revoluciones científicas. Esto hace de la teoría M,

una teoría constituida por una diversidad de teorías, las cuales, individualmente ninguna

podría responder al problema del origen del universo, pero que conectadas o entretejidas en

66
red, logran darle validez a los argumentos con los que Hawking & Mledinow pretenden

presentar una explicación coherente y satisfactoria del más viejo de los interrogantes de la

humanidad.

Tal conexión entre estas disímiles teorías es reforzada también por medio del argumento del

―realismo dependiente del modelo‖, que según los autores, permite afirmar que esas viejas

teorías no han perdido su sentido, pues se acoplan a un contexto y a una percepción de la

realidad que difiere de la que intenta interpretar la ciencia actual.

Ahora bien, sí la teoría ―M‖ (como candidata a teoría completa del universo), es la unión

heterogénea de diversas teorías científicas, que permiten unirlas en puntos específicos, pero

que también pueden ser distanciadas según el tipo de realidad que deseamos develar, entonces

los seres humanos no podemos estar seguros de que exista una única y definitiva

interpretación de la realidad del mundo físico. Lo cual, inicialmente es dilucidado a través del

ejemplo de la visión de los pececillos en la página 47 del texto, y que detallan en las páginas

siguientes:

(…) ¿Cómo sabemos que no somos tan sólo personajes de una opereta generada por
ordenador, como Jim Carrey en la película El show de Truman? Si viviéramos en un mundo
imaginario sintético, los acontecimientos no tendrían por qué tener lógica ni consistencia
alguna ni obedecer ninguna ley. Los alienígenas que lo controlaran podrían considerar más
interesante o divertido observar nuestras reacciones, por ejemplo, si la luna llena se partiera en
dos o si cada persona que se sometiera a dieta desarrollara un antojo incontrolable por los
pasteles de crema de banana. Pero si los alienígenas impusieran leyes consistentes, no
tendríamos manera de decir si hay otra realidad tras de la realidad simulada. Sería fácil decir
que el mundo en que viven los alienígenas es el mundo «real» y que el mundo generado por
ordenador es un mundo falso. Pero si -como nosotros- los seres en el mundo simulado no
pudieran observar su universo desde fuera, no tendrían razón para dudar de sus propias
imágenes de la realidad. Eso es una versión moderna de la idea de que todos nosotros somos
personajes del sueño de alguien. (Hawking & Mledinow, 2010, p. 50-51).

67
Por su parte la teoría de la inconmensurabilidad, plantea que la realidad que permite develar

una teoría, dista radicalmente de la anterior, cuya revaluación es asumida como una

revolución científica, dado que interpreta de manera distinta nuestra percepción de la realidad.

Es decir, la inconmensurabilidad sólo admite un único modelo de realidad. Por lo tanto, ante

el resultado diferente arrojado por la aplicación de dos teorías en un mismo experimento, se

optará por uno de los dos y se debe considerar a un modelo correcto y al otro equivocado. En

el caso de la luz por ejemplo, los seguidores de Khun tendrían que definirse entre sí esta es

una onda o es una partícula. Cuestión que empezó a debatirse a partir del experimento que le

permitió a Einstein obtener el premio Nobel de física.

Además, también podemos plantearnos en estas conclusiones la pregunta: ¿cómo convergen

continuidad y discontinuidad en la teoría ―M‖?

La respuesta a este dilema surgido a partir de la dualidad de la luz, según Hawking y

Mledinow es: depende del modelo que se utilice. De acuerdo a este concepto, sí aplicamos

uno de los dos y obtenemos un resultado específico, no podríamos desechar el resultado del

mismo experimento mediante otra teoría, y mucho menos afirmar que éste está equivocado.

Por lo tanto, según el realismo dependiente del modelo nunca se va a develar un estado nuevo

de realidad, sino que sólo se descubrirá otra perspectiva de lo que nosotros llamamos

«realidad»; aunque tales teorías en el planteamiento de sus argumentos presenten

incompatibilidades y similitudes, como lo es el caso de la conexión y diferencias

significativas que hemos analizado antes entre la mecánica clásica y la relativista.

En la teoría de la inconmensurabilidad y de la discontinuidad el término ―realidad‖, aparte de

resultar siendo problemático desde el punto de vista lingüístico, también lo es desde el punto

68
de vista epistémico. Tal ambivalencia o conflicto terminológico-epistemológico, es resuelto

por los físicos teóricos Hawking & Mledinow con el realismo dependiente del modelo. Por lo

tanto, se puede afirmar que en lo sucesivo las teorías que surjan no debelaran nuevas

realidades, sino más bien otras alternativas de la realidad.

Para Hawking & Mledinow (los primeros en plantear el realismo dependiente del modelo)

con este concepto nuevo inicia el desarrollo de una nueva dinámica interpretativa de la

realidad.

Por su parte, Hawking afirmó recientemente (15) que el universo que vemos bien podría ser en

realidad una ilusión. Del mismo modo que un holograma es un objeto en dos dimensiones que

simula tener tres dimensiones, nuestro universo de cuatro dimensiones (arriba-abajo, adelante-

atrás, izquierda-derecha, espacio-tiempo) podría ser en realidad una estructura de tres

dimensiones que ―parece‖ tener cuatro.

Con respecto a la revisión de las críticas que plantean Hawking & Mledinow a los filósofos

contemporáneos y que también hace parte del análisis de este trabajo, se puede concluir que

parte de ellas son falaces. Ese es el caso de la expuesta en el capítulo I de este trabajo: ―la

filosofía ha muerto‖ (16).

15
Tales afirmaciones hacen parte de la conferencia presentada por Hawking en el auditorio del Palacio de
Congresos Magma, en el marco la III Edición del Festival Starmus titulado ―Starmus, 50 años del hombre en el
espacio‖, sur de Tenerife (Islas Canarias), realizado del 22 al 27 de Septiembre de 2014, en el cual se reunió un
grupo destacado de científicos, astronautas y Premios Nobel. Contacto Prensa: Porter Novelli: Brezo Rodríguez
/Natividad Fradejas / Ana Sierra /91 702 7300 – press@starmus.com
brezo.rodriguez@porternovelli.es / natividad.fradejas@porternovelli.es / ana.sierra@porternovelli.es
@PN_Turismo.
16
―(…) Tradicionalmente, esas son cuestiones para la filosofía pero la filosofía ha muerto. La filosofía no se ha
mantenido al corriente de los desarrollos modernos de la ciencia, en particular de la física. Los científicos se han
convertido en los portadores de la antorcha del descubrimiento en nuestra búsqueda de conocimiento‖ (Hawking
y Mledinow, 2010, pág., 11).

69
En cuanto a la afirmación de que ―La filosofía no se ha mantenido al corriente de los

desarrollos modernos de la ciencia, en particular de la física‖, tal vez tengan razón, dado que,

evidentemente muchos filósofos se han desinteresado de los recientes hallazgos realizados por

la física, y no han cumplido con su papel de revisar sus teorías, en tanto que éste es un papel

que históricamente han desempeñado los filósofos desde la antigüedad. Sin embargo, si el

propio Hawking afirma que ―Cualquier teoría científica seria, sobre el tiempo o cualquier otro

concepto, debería en mi opinión estar basada en la forma más operativa de filosofía de la

ciencia: la perspectiva positivista propuesta por Karl Popper y otros‖, entonces, eso quiere

decir que él particularmente se está basando en la filosofía popperiana para fundamentar sus

argumentos. De lo cual, se puede deducir que, sí la filosofía popperiana está presente en su

obra (realmente no sólo está presente en su obra, también en la de otros físicos), entonces la

filosofía al darle soporte, consistencia y fiabilidad a sus teorías, se encuentra en ellas y resulta

falsa la afirmación. Por lo tanto, resulta ser una contradicción el afirmar ―que la filosofía ha

muerto‖.

Ahora bien, si acaso sea acertada su afirmación de que ―Los científicos se han convertido en

los portadores de la antorcha del descubrimiento en nuestra búsqueda de conocimiento‖, tales

descubrimientos han sido posibles, debido a que estos se han servido de la filosofía de la

ciencia como instrumento en la formulación de sus problemas de investigación. En especial

de la teoría popperiana.

Además, se debe tener en cuenta que la filosofía no produce (ni es su papel hacerlo)

conocimientos en los campos de la ciencia, sólo coadyuva, ejerciendo críticamente su rol a

través de un verdadero riguroso control y revisión de los cimientos argumentativos de la

ciencia.

70
BIBLIOGRAFÍA

Covey, Stephen. Los Siete Hábitos de la Gente Altamente Efectiva. Editorial Paidós Ibérica S.

A. © 1998. ISBN: 84-493-0432-6.

Chopra D., y Mledinow L. Guerra de Dos Mundos, Ciencia Contra Espiritualidad, D. R.

Santillana Ediciones Generales, S. A. de C.V., © 2012. ISBN: 978-607-11-1688-8.

Davies, Paul, Súper-Fuerza, 1985 Salvat Editores S.A. E Barcelona ISBN 0-671-47685-8.

Festival Starmus III Edición, Starmus, 50 años del hombre en el espacio, Tenerife, Islas

Canarias, del 22 al 27 de Septiembre de 2014. Contacto Prensa: Porter Novelli: Brezo

Rodríguez/Natividad Fradejas/Ana Sierra/91 702 7300–press@starmus.com,

brezo.rodriguez@porternovelli.es/natividad.fradejas@porternovelli.es,

ana.sierra@porternovelli.es, @PN_Turismo.

Greene, Brian, El universo elegante, Supercuerdas, dimensiones ocultas y la búsqueda de una

teoría final. Editorial Crítica, S.L.2006, Diagonal, 662-664, 08034 Barcelona. ISBN: 84-

8432-781-7

Gribbin, John and Mary, Biografía del Universo. Editorial CRÍTICA © 2007. ISBN: 978-84-

8432-914-5.

71
Hawking S., A HOMBROS DE GIGANTES. LAS GRANDES OBRAS DE LA FÍSICA Y LA

ASTRONOMÍA. Editorial Crítica, S.L. Barcelona © 2010. ISBN: 978-84-9892-094-9.

Hawking S. y Mlodinow L., EL GRAN DISEÑO. Bogotá Edit. Planeta colombiana S.A. ©

2010. ISBN 13: 978-958-42-2519-1.

Hawking, S., El UNIVERSO EN UNA CÁSCARA DE NUEZ. © 2002 Editorial Planeta, S.A.,

Córsega, 273-279, 08008 Barcelona. ISBN: 84-8432-293-9

Hawking, S., HISTORIA DEL TIEMPO. DEL BIG BANG A LOS AGUJEROS NEGROS.

Editorial Planeta De Agostini S. A © 1992. ISBN: 84—395-2169-3.

Heidegger, M., ¿Qué es la Filosofía? 2004, Herder Editorial, S. L., Barcelona. ISBN: 84-254-

2312-0

Heisenberg, W. FÍSICA Y FILOSOFÍA. © Editorial La Isla, S. R. L. Buenos Aires, 1959.

Khun, Thomas, LA ESTRUCTURA DE LAS REVOLUCIONES CIENTÍFICAS (Traducción:

Agustín Contín) Breviarios 213 Fondo de Cultura Económica 1971.

Llinás, Zurita F., La Revolución Científica: Tensión entre continuismo y discontinuismo en el

caso de la Teoría del Ímpetu. Universidad de Atlántico ISBN: 978-958-44-1537-0

Barranquilla, Colombia 2007.

72
Popper, K. Lección sobre el conocimiento, conferencia pronunciada con motivo de su

investidura como Doctor Honoris Causa por parte de la Universidad Complutense de Madrid,

28 de octubre de 1.991.

Popper, Karl, Conjeturas y refutaciones: el desarrollo del conocimiento científico. Ediciones

Paidós Ibérica. 1994. ISBN 978-84-7509-146-4.

Thorne, Kip, Agujeros negros y tiempo curvo. El escandaloso legado de Einstein. Critica

Grijalbo Mondadori Barcelona 1995. ISBN: 84-7423-697-5.

73

S-ar putea să vă placă și