Modelo Estándar de Partículas y

el Universo Temprano

 

Mario I. Caicedo

Departamento de Física, Universidad Simón Bolívar

 

 

Durante el transcurso de esta esta charla vamos a discutir algunos aspectos de la historia primordial del Universo destacando el Modelo de la Gran Explosión y las preguntas que este deja sin contestar, finalmente nos vamos a asomar a la física moderna que pueda arrojar alguna luz sobre la respuestas a dichas preguntas.

 

 

 

UN SIGLO DE FISICA

 

Ha terminado un siglo, y casualmente estamos a 100 años de que M. Planck introdujera (en diciembre de 1900) las primeras ideas acerca de la naturaleza cuántica de la radiación y la materia, y a 96 de que Einstein comenzara (en 1904) la revolución relativista, es un buen momento para mirar atrás y contemplar una parte del legado de la física del siglo XX.

 

El siglo anterior nos ha colocado en una posición que habíamos soñado desde siempre,  pues poseemos los conocimientos que nos permiten esbozar un cuadro que explica la realidad física que nos rodea con una precisión sin precedentes. Durante los primeros estudios de este boceto hemos aprendido a reconocer la existencia de muy diversas escalas que deben ser descritas con diferentes herramientas. Más aún, hemos visto que en las zonas de transición entre estas escalas el  cuadro se desdibuja pero entendemos que el siguiente paso en nuestra búsqueda de conocimientos corresponde efectivamente a entender como interactúa la física de las diversas escalas.

 

La mecánica clásica describe el movimiento de objetos ordinarios con una precisión que no podemos calificar con algo menos que pasmosa, la mecánica cuántica ortodoxa describe la física microscópica a escalas de   metros y energías no muy altas. La relatividad especial describe tanto la mecánica de objetos macroscópicos que se desplazan a grandes velocidades, como la teoría electromagnética. Finalmente, en los dos extremos de nuestra capacidad de detección tenemos por una parte a la relatividad general da cuenta de una buena parte de los fenómenos que ocurren a escala cosmológica (100 Mpc) y por otra el modelo estándar de partículas que describe la estructura de la materia y de las interacciones no gravitacionales.

 

En resumen, debemos decir que la física del siglo XX está signada por dos teorías fundamentales: la mecánica cuántica y la teoría de gravitación de Einstein y por la paradoja de que hasta el momento ambos paradigmas han resultado irreconciliables, lo que resulta catastrófico para los fines de la completitud, puesto que a la escala de Planck, esto es a longitudes del orden de[1]:

 

cm

 

los efectos cuánticos en la estructura del espacio tiempo deben sin duda ser muy importantes. Más aún la escala de Planck es la escala que gobierna el comienzo del universo y por lo tanto si queremos poder describir con éxitos los albores del Universo es menester construir una teoría consistente de la gravedad cuántica.

 

Uno de los avances más notables de la ciencia del siglo XX consiste en haber puesto en evidencia que hace unos diez a quince mil millones de años el Universo comenzó con una gigantesca explosión –The Big Bang!-, y más aún de haber afrontado el reto de dar una descripción científica de la historia del universo. Esta esta charla está dedicada a discutir el Modelo de la Gran Explosión, algunas de las preguntas que este deja sin contestar y a explorar la física moderna que pueda arrojar alguna luz sobre la respuestas a dichas preguntas.

 

 

COSMOLOGIA

 

 

La evolución del universo desde la primera centésima de segundo de su existencia hasta hoy es descrita de manera bastante confiable por una teoría que denominamos Modelo de la Gran Explosión. Esta teoría nos provee de una descripción de la expansión del universo, el origen de los elementos más ligeros (nucleosíntesis) y de la famosísima Radiación de Fondo Cósmica (CMB), así como de un marco teórico para entender la formación de galaxias y otras estructuras de gran escala. De hecho, el Modelo de la Gran Explosión  es soportado por tantas pruebas experimentales que también se le conoce como Modelo Estándar Cosmológico. Como consecuencia de nuestra confianza en el modelo estándar hay una pregunta evidente que debemos contestar: por qué el universo era como era en la primera centésima de segundo de su formación?

 

Hoy día entendemos que –grosso modo- podemos dividir la historia del universo en tres regímenes asociados a tres escalas diferentes, a saber

 

La Cosmología Estándar (seg)

La Cosmología de Partículas  (seg)

Cosmología Cuántica  (seg)

 

Como ya hemos comentado, la cosmología estándar es la teoría mejor sustentada y describe la historia del universo desde la primera centésima de segundo hasta nuestros días. Esta descripción está basada en la Relatividad General y da cuenta de un buen número de observaciones experimentales.

 

La cosmología de partículas esboza el cuadro del universo en tiempos inimaginablemente cercanos al Big Bang y a unas escalas de energía (del orden de los Gev) que caen dentro de lo que podríamos denominar física conocida. Nuestra comprensión de los fenómenos que ocurren a estas energías provienen de los grandes laboratorios como el CERN y el FERMILAB donde los aceleradores nos permiten simular las condiciones que prevalecían en el universo a los =0.00000000001 segundos luego del Big Bang. Esta area de la cosmología es bastante más especulativa ya que involucra algunas extrapolaciones –por decir lo menos-asociadas a dificultades de cálculo que podríamos describir como intratables. La herramienta teórica básica para describir la física a estas energías se conoce como Modelo Estándar de Partículas, y es un producto de los años ’70. Las denominadas teorías de gran unificación (GUT’s) proven de un marco que permite llevar adelante extrapolaciones a tiempos más chicos (o energías aún mayores) con el fin de describir la transición de fase de la gran unificación. 

 

La cosmología cuántica especula acerca de los orígenes del universo y, sin duda alguna, constituye la parte más especulativa de nuestra historia ya que se trata de describir procesos a tiempos tan tempranos:

 

0.0000000000000000000000000000000000000000001 segundos

 

 (el Tiempo de Planck) que ni siquiera es posible concebir una estructura clásica para el espacio-tiempo, en consecuencia debe recurrirse a una descripción cuántica de la gravedad, lo que solo es posible en algunas aproximaciones sumamente crudas ya que aún no disponemos de una teoría consistente de la gravedad cuántica.

 

 

 

Fig 1: Cronología del Universo:   El diagrama ilustra los principales eventos que ocurrieron durante la evolución del universo. Obsérvese que la escala vertical (tiempo) no es lineal. A medida que regresamos al tiempo de la gran explosión las temperatures se elevan y los eventos físicos se suceden con mayotr rapidez. Many of the transitions and events may be unfamiliar to newcomers; we shall explain these in subsequent pages. Debemos hacer énfasis en notar el enorme rango (cantidad de órdenes de magnitud) cubierto por las escalas de tiempo y temperatura. Debido a la equivalencia entre temperatura y energía (, donde  es la constante de Boltzman) no es extraño reportar temperaturas en unidades de energía, esto se hace sistemáticamente en el diagrama, donde a temperaturas extremadamente altas se utilizan gigaelectron volts (GeV) en lugar de Kelvins. 1 GeV es equivalente a unos 10,000,000,000,000K.

 

 

 

 

 

 

 

EL MODELO DE LA GRAN EXPLOSION

 

El modelo cosmológico estándar hace predicciones mesurables acerca de cuatro áreas fundamentales:

 

Expansión del Universo.

Nucleosíntesis de los elementos ligeros.

Origen de la radiación de Fondo Cósmico (CMB).

Formación de las galaxias y otras estructuras de gran escala .

 

La notable coincidencia entre las predicciones y las observaciones son la fuente de nuestra confianza en el modelo.

 

En 1929 E. Hubble publicó un resultado (que ahora denominamos Ley de Hubble) estableciendo que la velocidad de recesión galáctica () es proporcional a la distancia al observador ():

 

 

 

Fig 2: Espectacular confirmación de la Ley de Hubble [N. Wright, 2000] 

 

La ley de Hubble es compatible con la visión de un universo Copernicano en que ningún punto de observación tiene características especiales. Más aún, Podemos imaginar que movemos las galaxias hacia el pasado a lo largo de sus trayectorias hasta que converjan en una pequeña región del espacio alcanzando una increíble densidad y temperatura para conformar una bola de fuego. De esta forma, la recesión galáctica observada inicialmente por Hubble sugiere que el universo comenzó con una violenta explosión en la cual todas las partículas comenzaron a alejarse unas de otras en una fase temprana superdensa constituida por la bola de fuego primordial.  Las mediciones de la constante de Hubble con diferentes métodos llevan al valor: km/sec/Mpc, valor que podemos utilizar para estimar la edad del universo () en unos 15 Gyr.

 

La idea de un universo copernicano se puede resumir en el El Principio Cosmológico que establece que

 

El Universo es Homogéneo e Isotrópico

 

El contenido físico del principio cosmológico es el siguiente: –a escalas muy grandes- el universo tiene la misma apariencia en cualquier punto del espacio y en cualquier dirección en que se observe (fig 3), esto significa que un observador localizado en un punto arbitrario del universo disfrutaría de un paisaje cosmológico esencialmente idéntico al nuestro incluyendo la observación de la recesión galáctica y la ley de Hubble, de manera que la expansión del universo no tiene un centro.

 

Hay una considerable evidencia experimental que soporta al principio cosmológico incluyendo la distribución de galaxias, y fuentes lejanas de radio, pero la evidencia más fuerte proviene del fondo de radiación cósmica que nos baña con una uniformidad casi perfecta. 

 

    

 

Fig 3: Estas imágenes muestran la notable coincidencia entre una observación del espacio profundo y la simulación de una distribución isotrópica y homogénea de galaxias.

 

El principio cosmológico constituye el punto de partida para proponer modelos matemáticos para el universo en el marco de la relatividad general. Técnicamente los modelos obtenidos reciben la denominación colectiva de Universos de Friedman (o también modelos de Friedman, Robertson y Walker) y es entre ellos que encontramos al modelo estándar.

 

La información concerniente a la expansión está codificada en una cantidad denominada factor de escala que está relacionada con la noción de distancia entre puntos del universo en particular, y con la topología (geometría del universo como un todo) en general. Podemos clasificar a los universos de Friedman en tres categorías que reflejan tres geometrías enteramente diferentes hiperbólica, plana y cerrada.

 

 

Fig 4: La topología de los Universos de Friedman sin constante cosmológica. Los valores de k están determinados por el cociente entre la densidad primordial y el valor crítico 

 

La posibles topologías del universo determinan la historia futura del universo, el caso  corresponde a un universo en eterna expansión mientras que el caso   describe un universo que termina en una singularidad de densidad (big crunch), el caso es un caso crítico que separa los regímenes de expansión eterna y de big crunch. El parámetro de curvatura () está determinado por el cociente

 

donde  es la densidad de masa del universo actual y  es la denominada densidad crítica (que se obtiene teóricamente a partir de la constante de Hubble). Mediciones de  basadas en las relaciones entre el corrimiento al rojo y la luminosidad llevan al valor . Desfortunadamente este resultado no coincide con lo que se deduce del estudio de la densidad de masa galáctica, que llevan a estimar  lo que lleva a una discrepancia notable  que representa un problema para el modelo de gran explosión ya que estos resultados indican que aparentemente falta materia en el universo (a este problema se le denomina el problema de la materia oscura)

 

Otro problema relacionado con el cociente entre la densidad del universo y el valor crítico  es el de la edad del universo, la consistencia con las observaciones actuales requiere halla sido increíblemente cercano a 1 en el universo temprano. Este problema se denomina problema del entonamiento (y también The flatness problem)

 

 

Fig 5: El problema de entonación un pequeñísimo cambio en la densidad del universo causarí su colapso hoy día

 

Nucleosintesis

 

Otra de las evidencias que soportan al modelo de gran explosión es la abundancia de elementos ligeros como el hidrógeno, el deuterio, el Helio y el Litio.

 

Debido a las elevadas temperaturas presentes en los primeros instantes () del universo según los describe el modelo de gran explosión la presión de radiación dominaba sobre la atracción gravitacional (lo que explica la expansión inicial), ahora bién, a medida que el universo se expande los fotones pierden energía (corrimiento al rojo gravitacional) lo que impolica una reducción de la temperatura. Un poco antes del primer segundo de existencia del Universo, la materia en forma de protones y neutrones estaba muy caliente y densa al punto que no era posible la formación de sistemas ligados de unos pocos protones y neutrones (es decir, la síntesis de núcleos ligeros), sin embargo, debido al enfriamiento provocó que cuando el universo tenía unos pocos minutos la temperatura había descendido a niveles que permitan la fusión de los núcleos ligeros. Esta teoría de la nucleosíntesis predice que cerca de 1/4 de la masa del universo debería estar constituida por Helio lo que es bastante cercano a la realidad. La abundancia de Deuterio esta inversamente relacionada con la densidad de nucleones en el universo, y las observaciones indican que debe haber un nucleón por cada 4 a 7 metros cúbicos de espacio.

 

Los elementos más pesados fueron creados más tarde en el interior de las estrellas y fueron arrojados al espacio debido a las explosiones de supernovas.

 

Probablemente la confirmación más espectacular del modelo de la gran explosión sea el descubrimiento de la Radiación de Fondo cósmico por A. Penzias y R. Wilson en 1965, la radiación había sido predicha por G. Gamow y sus colaboradores sobre la base de un modelo cosmológico simplificado.

 

La descripción del origen de la radiación de fondo que nos da el modelo estándar es la siguiente: unos 100,000 años después de la gran explosión la temperatura del universo había descendido lo suficiente como para permitir que los electrones y protones se combinaran para formar átomos de hidrógeno,

 

.

 

A partir de esta época la radiación electromagnética (fotones) no pudo continuar interactuando en forma efectiva con la materia y en consecuencia siguió propagándose libremente y perdiendo energía (debido a que su longitud de onda es afectada por la expansion del universo); en el tiempo del desacoplamiento la temperatura de la radiación era de unos 3000 Kelvin, y ha decaído a los 2.7 K que detectamos hoy día. 

 

Los observadores que miden la radiación de fondo están explorando el universo en un estadio muy temprano conocido como `surface of last scattering' (superficie de última intereacción con la materia). Los fotones del CMB han estado viajando hacia nosotros por más de diez mil millones de años cubriendo una distancia cercana a un million billion billion de kilómetros, lo que nos da una idea de los tiempos que estamos escudriñando cuando estudiamos la CMB.

 

El modelo estándar también nos da un marco de referencia para comprender el colapso de la material que lleva a la formación de galaxias y otras estructuras (cúmulos y supercúmulos galácticos). Según las predicciones del modelo, cerca de los 10,000 años después de la gran explosión la temperatura del Universo había descendido a tales niveles que la densidad de energía del universo comenzó a ser dominada por las materia en lugar de por la radiación como lo había sido antes. Este cambio en la forma de la densidad de energía trajo como consecuencia que las fuerzas gravitacionales entre las partículas comenzaran a ser importantes y que por tanto comenzaran a tener efectos, de manera que cualquier anomalía en la densidad tendería a aumentar (el colapso gravitacional) llevando al universo al estado en que le vemos hoy día.

 

Fig 6: El modelo del big-bang da un marco para entender la formación de estructuras como galaxias y cúmulos de galaxias.

 

Así pues vemos que efectivamente el modelo estándar provee de un marco que nos permite entender la formación de galaxias, sin embargo, no da cuenta del origen de las fluctuaciones primordiales de densidad que se requieren a los 10000 años cuyo origen deberíamos buscar en las épocas más tempranas de la formación del universo.

 

 

LOS PUNTOS DEBILES DEL MODELO DEL BIG BANG

 

A pesar de la consistencia lógica y el éxito predictivo del modelo estándar para el período que sigue al primer centésimo de segundo posterior al big bang quedan preguntas que atañen al estado inicial del universo para tiempos anteriores (quizá hasta su estado inicial) y que –aparentemente- deben ser contestadas por las cosmologías cuántica y de partículas. Estas son algunas de las preguntas:

 

El Problema de la Geometría y la Edad del Universo: Cómo es que la densidad de material del universo es tan cercana al valor crítico?

 

El Problema del Horizonte: Si nos detenemos a pensar un poco observaremos que la homogeneidad e isotropía del universo implican que las propiedades de regiones causalmente desconectadas (es decir sin eventos comunes) del universo son las mismas, cómo es posible que esto ocurra?, El problema se nota más al considerar el CMB cuyas variaciones son de aproximadamente 1 parte en 10.000.

 

El problema de la Materia Oscura: De qué está hecho el universo?,  falta materia?.

 

El Problema de las Fluctuaciones de Densidad: Es claro que las fluctuaciones en la densidad que dieron origen a la formación de galaxias tienen su origen en un futuro tan remoto que el modelo estándar no puede decir nada al  respecto, así que debemos preguntarnos: cuáles (y cuando actúaron) serán los fenómenos físicos que  dieron pie a la aparición de tales fluctuaciones ?

 

El problema de la Constante Cosmológica: Como podemos explicar el hecho de que la constante cosmológica es 120 ordenes de magnitud más chica que lo que se estima al aplicar (crudamente) la mecánica cuántica a la teoría de Einstein?

 

El problema de las Reliquias Exóticas: Las transiciones de fase durante el período primordial del universo debió dar lugar a la aparición de defectos topológicos (como por ejemplo monopolos), por qué no los detectamos hoy día?.

 

El Problema de la Singularidad: Cuál es la descripción del universo en el instante inicial: t=0?

 

 

COSMOLOGIA INFLACIONARIA

 

La solución a algunos de los problemas que hemos mencionado se encuentra en la denominada inflación a los  segundos del universo las temperaturas y densidades eran tan altas que algunos de los efectos debidos a las interacciones de la materia subnuclear debieron haber sido importantes. La idea de la inflación proviene de considerar la energía de un cierto vacio como término más importante en las ecuaciones quen determinan la evolución del factor de escala. Al poner en práctica esta hipótesis se encuentra (teóricamente) que en los primeros instantes del universo este crece de manera exponencial, esto ayuda a resolver el problema de entonamiento puesto que el crecimiento exponencial inicial del universo tiende a aplanarlo. Adicionalmente, la expansión exponencial permite que regiones del universo que aparecen causalmente desconectadas en nuestro pasado hallan podido estar muy cercanas en el universo primordial como para permitir el intercambio de información entre ellas ayudando en consecuencia a resolver el problema del horizonte.

 

EL MODELO ESTANDAR DE PARTICULAS

 

La hipótesis inflacionaria incorpora algunas ideas asociadas a las teorías de gran unificación, que no son más que extensiones del modelo estándar de partículas que desde los años ’70 ha constituido el paradigma para la descripción de la física a escalas de 10-16cm d.

 

El modelo estándar da una descripción de la realidad física a escalas de longitud  microscópicas (cuánticas)  lo que corresponde a energías de (Gev. Desde el punto de vista de la descripción matemática el MS es una generalización de la electrodinámica cuántica de Feynman, Tomonaga y Schwingwer  que considera las interacciones electromagnéticas a escala microscópicas como el intercambio de fotones entre partículas cargadas. De manera análoga, el modelo estandar divide a las partículas del mundo microscópico en  dos subcategorías: las partículas que forman la materia y las partículas que median las interacciones entre ellas.

 

Fig 7: Las partículas del Modelo Estándar

 

Las partículas materiales a su vez se subdividen en dos clases más (Quarks y Leptones) que se acomodan en seis familias como muestra la figura 7. De las tres familias de quarks solo la primera (los quarks up y down) está relacionada con la materia subnuclear ordinaria (neutrones y protones) , algo análogo ocurre con los leptones, de los cuales solo se asocian a la materia ordinaria el electrón (e) y su neutrino (). Las otras familias están formadas por partículas más pesadas que solo pueden producirse en reacciones de muy altas energías (es decir, a temperaturas muy altas).

 

Las interacciones se producen a través del intercambio de alguna de las otras partículas del modelo: el fotón () asociado a la interacción electromagnética, alguno de los bosones vectoriales intermedios () que portan las interacciones débiles o alguno de los gluones (g) que son los responsables de las interacciones fuertes. Los quarks sienten a todas las fuerzas, mientras que los leptones solo interactúan por fuerzas débiles o electromagnéticas.

 

El modelo estándar describe a las interacciones débiles y electromagnéticas como dos aspectos de una sola interacción denominada electrodébil, modelo de Weinberg-Glashow-Salam o (mas pomposamente) teoría . Esta última referencia al hecho de que el modelo recurre al uso de una simetría[2] local, a muy altas energías no hay distinción entre los fotones y los bosones vectoriales intermedios, la diferenciación solo ocurre a energías bajas evidenciando una transición de fase. La analogía más sencilla para  entender esta idea es la siguiente: imaginemos un vaso lleno con , a temperaturas superiores a C (tenemos agua) el comportamiento de las moléculas es isótropo, mientras que por debajo de esta temperatura se forma el hielo que requiere una cierta estructura ordenada (se ha roto la simetría), de esta manera las fases sólida y líquida del agua no son más que distintas manifestaciones de la sustancia: .

 

Fig 8: La unificación de las fuerzas a altas energías

 

El modelo estándar está basado en una simetría más grande denominada  y de allí el agrupamiento –aparentemente arbitrario- de las partículas que aparecen en el modelo. Hay argumentos para pensar en teorías basadas en simetrías más grandes, estas teorías denominadas Teorías de Gran Unificación (GUT’s)  no han tenido mucho éxito hasta el momento ya que predicen el decaimiento del protón evento que no ha sido observado.

 

El modelo estándar predice (a través de simulaciones numéricas) que la interacción fuerte hace imposible de la existencia de quarks libres (confinamiento), de manera que estos deben formar sistemas ligados (algo así como átomos que en lugar de electrones, neutrones y protones están constituidos por quarks). Estos estados ligados deben ser neutros ante la carga asociada a la interacción fuerte (denominada carga de color) lo que impone condicones bien restrictivas a los sistemas ligados que pueden formarse. Los estados ligados de quarks denominados hadrones se detectan comúnmente en los aceleradores de partículas y en los rayos cósmicos. Los hadrones formados por pares quark-antiquark se denominan mesones y los  bariones son sistemas formados por tres quarks. Los bariones mas notables por su estabilidad son el protón (con una vida media que ronda los yr) que corresponde a un estado uud y  los neutrones con la composición udd. Las famosas partículas de Yukawa son más que mesones asociados a la primera familia de quarks.

 

De la discusión anterior se desprende que evidentemente el modelo estándar de partículas es importante para la cosmología. En efecto, a los  seg de formación del universo la temperatura era de unos  Gev que es la energía de gran unificación, esta es la época inflacionaria dominada por los quarks y antiquarks, y de allí deberían quedar algunos restos fósiles como monopolos, cuerdas cósmicas y paredes de dominio. Al cumplirse los primeros seg de vida del universo  la temperatura había decaido a unos Gev lo que corresponde a la energía de la transición de fase electrodebil, es decir: a la diferenciación entre la interacción debil y la electromagnética, en esta época se produce el confinamiento de los quarks creándose los protones y neutrones (barionización). Finalmente al alcanzar los seg la evolución del universo sigue los patrones dictados por la teoría de la gran explosión.

 

EXCURSIONES AL TIEMPO DE PLANCK.

 

Cuando vamos aún más atrás en el tiempo, hacia la época de Planck encontramos que las energías típicas son del orden de los Gev. En estos regímenes inimaginables la noción de un espacio-tiempo descrito por la teoría de Einstein desaparece por completo y es necesario recurrir a una teoría cuántica de la gravedad, hoy día disponemos de una teoría denominada teoría de cuerdas que parece ofrecer la posibilidad de ser no solo una teoría consistente de gravedad cuántica, sino una teoría unificada de todas las interacciones.

 

La idea básica de la teoría de cuerdas consiste en abandonar la idea de familias de partículas puntuales que son sustituidas por un solo tipo de objeto básico: un objeto extendido unidimensional de dimensiones fantásticamente pequeñas (menores a los cm). Los diferentes estados de excitación (vibraciones) de las cuerdas son percibidos como partículas puntuales que de alguna forma deben reproducir las partículas del modelo estándar. La consistencia matemática de la teoría de cuerdas obliga a pensar que el espacio tiempo tiene 10 dimensiones  afirmación que entra en conflicto inmediato con nuestra experiencia. Según la teoría, las dimensiones extra escapan de la detección porque están enrolladas (compactificadas) en círculos de radios muy chicos, sin embargo, estas dimensiones tienen consecuencias notables entre las que se encuentran una explicación para el origen de la masa y de las cargas.

 

Las complicaciones matemáticas de la teoría de cuerdas son sencillamente indescriptibles, y aún estamos muy lejos de poder obtener resultados contrastables con la realidad. Sin embargo, hay indicaciones que apuntan a que la teoría podría incluir soluciones a un número importante de problemas cosmológicos los problemas de la materia oscura y de la constante cosmológica entre otros. De esta manera, no queda más que seguir investigando en esta área con el fin de afrontar el reto de obtener alguna física menos especulativa.

 

 

 

 

 

 

Bibliografía

 

 

  1. F. Adams y G. Laughlin,  The Five Ages of The Universe,  The Free Press, New York, 1999.
  2. S. Hawking, Historia del Tiempo Ilustrada, Crítica, Barcelona, 1988.
  3. R. D’Inverno, Introducing Einstein’s Relativity. Oxford University Press, 1992.
  4. P. Davies, El Universo Desbocado. Biblioteca Científica Salvat, Salvat Editores, Barcelona, 1985.
  5. J. S. Treffil,  De los Atomos a los Quarks. Biblioteca Científica Salvat, Salvat Editores, Barcelona, 1985.
  6. S. Weinberg, Gravitation and Cosmology, John Wiley & Sons, 1972.
  7. S. Weinberg, The First Three Minutes
  8. Enlaces

 

 

 

 

 


 



[1] Acá se ha introducido la masa de Planck

[2] piense en algo así como las rotaciones que dejan invariante a una esfera no coloreada