El Universo no tiene por qué ser un holograma

universo holograma

El pasado 4 de enero, un grupo de científicos de Reino Unido, Canadá e Italia, publicaron un documento en el que mostraban la primera evidencia observacional que indica que nuestro Universo podría ser un inmenso holograma.

Estos físicos y astrofísicos encontraron mientras estudiaban las irregularidades de la radiación cósmica de fondo, que hay pruebas que apoyan una explicación holográfica del universo, aunque no explica estas irregularidades mejor que otras teorías, como la de la inflación cósmica.

Como no podía ser de otra manera, este estudio fue considerado por muchos como la prueba de que vivimos en una matrix holográfica, siendo nuestra realidad programada por una entidad superior (un Dios). Se me hace especialmente gracioso cuando veo hablar de Dios a un conocido comunista que tiene un videoblog de éxito en youtube, pero supongo que no se puede ser coherente las 24 horas del día.

Pero tratemos de entender un poco en qué consiste esta teoría. No os asustéis. No voy a incluir complejas fórmulas que no entendería ni yo. Solo voy a explicaros el modelo tal como lo entiendo.

Aunque este tema se ha puesto de actualidad recientemente, la idea del Universo holográfico empezó a estudiarse en la década de los años 90. Según este principio, la información contenida en un volumen de tres dimensiones + el tiempo, estaría codificado en la superficie de dos dimensiones que lo contiene.

Este principio se inspiró en la termodinámica de los agujeros negros, cuya entropía (podríamos asemejarla a la información del sistema) está limitada por el área de la superficie de su horizonte de sucesos. Si ese horizonte de sucesos es una esfera, podríamos pensar que esa entropía dependería del volumen contenido, pero no. Depende del área que lo delimita. Depende del cuadrado del radio, en vez del cubo (una dimensión menos).

¿Qué pasa cuando algo cae dentro del agujero negro? ¿Qué pasa con la entropía que aporta esa objeto? Imaginad que lo que es atraído por el agujero negro sea una nave espacial. Podríamos pensar que la nave colapsaría y desaparecería para siempre. Pero según esta conjetura del universo holográfico, los matemáticos han teorizado otra posible alternativa al colapso. A medida que la nave se introduce en el agujero negro, toda la información de sus partículas se esparce y almacena en la superficie del horizonte de sucesos. Por lo tanto, una «copia» bidimensional de esa nave quedaría codificada en una superficie holográfica que rodearía el agujero negro.

Escalando este mismo concepto al universo entero, toda la información contenida dentro de su límite exterior podría ser una proyección tridimensional de la información codificada en la superficie que lo delimita.

Es una explicación rara donde las haya, pero tiene justificación matemática, aunque este modelo no termina de explicar todos los casos.

La holografía es una alternativa a la manera como se concibe la estructura y la creación del universo. La teoría de la relatividad general de Einstein explica bien el comportamiento del Universo a gran escala, pero falla a la hora de explicarlo a nivel cuántico. Los científicos han estado trabajando durante décadas para combinar la teoría de la gravedad de Einstein y la teoría cuántica. Hay quien tiene esperanzas en que el concepto de un universo holográfico pueda conciliar ambas, aunque esta línea no es la única que se está siguiendo para conseguirlo.

Y en cualquier caso, si admitiésemos la validez de esta conjetura del Universo holográfico, no aportaría ningún cambio sobre un presunto creador o Dios. Da igual que lo que haya creado en 7 días sea el Universo, o el holograma que lo proyecta. El efecto es el mismo.

  • @ Doc Halliday: muy buena simplificacion !! hace poquito termine de leer dos libros de B. Green y estaba tratando de compatibilizar eso con la conjetura de Maldacena, este resumen a «vuelo de Nazgul» me ayuda a visualizar mejor el concepto.

    Una teoria para gobernarlas a todas

  • Esto no quiere decir que el universo es un holograma en si, sino que es un modelo matemático para poder resolver algunos cuestionamientos que no se pueden resolver con modelos ya existentes como los nombrados en el articulo (teoría de la relatividad etc.) esta teoría esta mas asociada a la teoría de la información y se entiende que teniendo información de un lugar se puede llegar a la información macro ya que todo esta compuesto por lo mismo ejem. las computadoras y su sistema binario comprendes los 1 y 0 y tienes todo lo demás.

  • Personalmente, y en relación al último párrafo de Doc, soy pesimista en cuanto a que el ser humano pueda llegar a conocer las verdades últimas del Universo.

    Es asombroso lo que la mente humana ha conseguido y, estoy seguro, de que todavía quedan multitud de avances que las siguientes generaciones verán (si no la cagamos antes, claro), pero no puedo dejar de pensar que el cerebro humano y su inteligencia son, ni más ni menos, que el cerebro de un mono algo más listo que el resto.

    La evolución nos ha dotado de la capacidad de inquirir, de razonar, de sacar conclusiones, de la imaginación, de la creatividad… pero dudo de que unos señores (nosotros), que estamos sólo un escalón por delante de los bonobos, tengamos las herramientas necesarias para el conocimiento último (si es que éste fuera posible, se tengan las herramientas que se tengan, como bien apunta Doc)

    En cualquier caso, el cielo es la meta. Me gusta más pensar que lo que nos hace humanos no es tanto lo que llegamos a saber, sino el camino que hemos tomado para ello.

  • @ Doc Halliday:
    Soy un absoluto fan de Borges (aunque reconozco que su poesía melancólico-porteña me aburre un poco), especialmente de sus relatos.

    La Casa de Asterión me impactó cuando la leí, me parece absolutamente magistral. En el Aleph y otros relatos Borges sobrevuela la idea del conocimiento total, de los archivos y bibliotecas infinitos. Es una auténtica maravilla.

    Otra gran obra que es imposible de entender completamente sin haber leído a Borges, como es El Nombre de la Rosa, trata como uno de sus temas, precisamente, esto de lo que hablamos: la capacidad de conocer las causas últimas a través del intelecto y, en cierto modo, cómo el escepticismo y la lógica científica se pueden (y deben usar) para derribar los misticismos y supersticiones.

    Esto último lo he puesto, sobretodo, para no caer de lleno en el off-topic, pero es que Borges me pierde.
    :-D

  • @ Doc Halliday:

    La “ecuación universal” que resuma y explique lo que el universo es

    Siento decepcionarte un poco, pero una ecuación que describa perfectamente la teoría unificada microscópica definitiva no tiene porque explicar todo en el universo. Bueno, sí, pero es un poco más complicado que eso.

    Con esto me refiero a la cuestión de los fenómenos emergentes. ¿Qué es esto? Comportamientos que uno no esperarían simplemente viendo como se comportan los elementos de forma separada (parafraseando a Aristóteles: «El todo es más que la suma de sus partes»). Ya…. Todavía no me explico…. Veamos un ejemplo: Conductividad BCS. La teoría clásica de superconductividad (que explica la superconductividad a baja temperatura, no la de alta temperatura) nos dice que, si por alguna extraña razón, los electrones se atrajeran en lugar de repelerse entonces se formarían los llamados «pares de Cooper», que se comportarían como bosones, formarían condensado de Bose-Einstein y bla, bla, bla… ¿Qué es lo que hace que los electrones se empiecen a atraer? Que están inmersos en un material, cualitativamente, cuando un electrón pasa, atrae a los iones positivos de la red, y puesto que estos tardan un rato en volver a su posición, otro electrón puede ver esto como un potencial atractivo debido al primer electrón (es decir, interacción entre electrones a través de fonones, vibraciones de la red). Con esto, a partir de un objeto que conocemos bien (los electrones), estamos obteniendo un comportamiento que no esperaríamos de ellos (los electrones formando un condensando de Bose-Einstein).

    Obviamente, un fenómeno emergente tiene que venir de dichas ecuaciones, estas no pueden haber cambiado, pero aplicadas en un contexto que puede ser altamente no trivial y generando resultados totalmente inesperados.

  • @ Doc Halliday:

    Te dejo la referencia y, si te gusta la idea general, tienes barra libre para leerme la cartilla en los puntos donde el peso de mi ignorancia supere al de mi capacidad para fabular:

    No he leído todavía mucho, pero me ha recordado otro fenómeno físico emergente: La Segunda Ley de la Termodinámica.

    En el siglo XIX, con el desarrollo de la termodinámica se tenía una interpretación rígida de estas leyes. Sin embargo, con Boltzmann (y Maxwell) aparece la interpretación estadística, con lo que se intentan derivar estas leyes a partir de las Leyes de Newton en un sistema microscópico con muchas partículas. Y, en concreto, la derivación de la Segunda Ley es lo que se llama el Teorema H de Boltzmann (el cual, desde luego, no es perfecto. Un ejemplo es su relación con las recurrencias de Poincaré, pero ese no es el tema de hoy). Por lo tanto hay que entenderla de forma probabilista: puede haber pequeños momentos en que la entropía se reduzca, pero su probabilidad es muy pequeña.

    Ahora, uno puede pensar lo siguiente: La Segunda Ley de la Termodinámica no está equipada en las ecuaciones del movimiento. Las leyes de Newton son invariantes bajo inversión temporal (t -> -t) y las colisiones de cuerpos deberían serlo también. Entonces, los procesos físicos que aumentan la entropía deberían ser tan comunes como los que la reducen, lo cual nos restringe tanto la interpretación rígida como la interpretación estadística de la Segunda Ley. Y quien pensase esto tendría toda la razón (además, esto existe y tiene un nombre concreto: «paradoja de Loschmidt»). Entonces, ¿dónde encaja esta paradoja en el teorema H de Boltzmann? La verdad es que no encaja. Boltzmann supone que las partículas que forman el gas (porque en esa época solo pensaban en estos modelos) eran independientes y no había correlación entre ellas, lo que le permite circunvenir el problema de la inversión temporal.

    Esto luego se ha refinado y mejorado (incluso por el propio Boltzmann, conectándolo finalmente con la idea de microestados), llegando hoy en día a cosas como el «Fluctuation theorem», algo muy parecido pero para el caso en que no se está en equilibrio termodinámico. Sin embargo, el punto básico siempre es una «imposibilidad de distinguir» entre trayectorias en espacio de fases «suficientemente cercanas», donde estos dos términos entre comillas han de estar propiamente definidos. Es más justo una manera técnica de formular la idea de la independencia y no correlación que proponía Boltzmann.

    Por ello, uno puede diseñar experimentos en que esa «confusión de estados» no se de (por ejemplo, usando a Loschmidt) y no haya Segunda Ley (y el robot no te haga caso), véase por ejemplo el caso del «Spin echo»: https://en.wikipedia.org/wiki/Spin_echo



\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.