15 de abril de 2020

La Física cuántica, resumen ameno de la teoría.



(Tomado de la tesis doctoral: La Pedagogía del Caos. Por José Vicente Rubio)

Decía el físico Richard Feynman (1998, p. 44) que antes de 1920 la imagen que se tenía del mundo era de las cosas a gran escala: “Luego se descubrió también que las reglas para los movimientos de las partículas eran incorrectas. Las reglas mecánicas para la «inercia» y las «fuerzas» son erróneas –las leyes de Newton son erróneas– en el mundo de los átomos. En su lugar se descubrió que las cosas a pequeña escala no se comportan como las cosas a gran escala”.  

Pero si bien ese comportamiento bastante extraño, que se detectaba a través de instrumentos técnicos y matemáticos, era incomprensible para el entendimiento humano, y no había forma de experimentarlo debido a su infinita pequeñez, en ese panorama existe un principio que es clave para acercarnos a ese mundo de misterio: es el principio de incertidumbre de Werner Heisenberg, a partir del cual, según Greene (2011, p. 133), “la física dio un giro de noventa grados, para no volver jamás sobre sus pasos. Las probabilidades, las funciones de onda, las interferencias y los cuantos, todo esto lleva consigo unos modos radicalmente nuevos de ver la realidad”. 

Así mismo, González (2001, p. 90), citando a Bohr, dice: “si no sentimos vértigo ante la mecánica cuántica es que no hemos entendido. Suponemos que el vértigo nos ataca ante lo desconocido (…). Bohr nos previene de que será a la inversa: sentiremos vértigo al conocer”. 

Teniendo presente esta dificultad para acercarnos a la Física cuántica y en particular al principio de incertidumbre, parece necesario abordar conceptos que permitan, además de llegar a él de una manera amable, desentrañar su formidable riqueza; por eso comenzamos por el camino que trazó la física a finales del siglo XIX. 

Para realizar este viaje en forma didáctica, vamos de la mano de Marxia y Camilo, dos estudiantes universitarios que han viajado al mundo cuántico, y allí adoptan el papel de protagonistas de “Los juegos del hambre”1. Se encuentran en la inauguración de los 75 años de los juegos, y la plazoleta del capitolio está repleta de un público vibrante. 
  1. ¿Ondas o partículas? Comienza la incertidumbre 

Camilo sale al centro de la plaza para hacer la demostración de sus poderes. El público se queda en silencio cuando Camilo hace un gesto circular con sus brazos, y se produce un rumor sordo al aparecer entre sus manos una especie de bola de energía, que lanza en dirección al blanco que tiene a una gran distancia. La energía sale de sus manos en un rayo refulgente que zigzaguea inicialmente en ondas alargadas, pero que se van estrechando hasta formar una sola partícula de metal que se clava en el centro del blanco, ante la exclamación admirada del público. 

El turno es ahora para Marxia, quien ha tomado la decisión de aprovechar aquel momento para descargar su furia sobre el dictador y su cúpula de gobierno. Marxia lleva en sus manos una flecha preparada por su mentor –quien también es hostil al régimen–, que en su punta lleva una partícula de kreotón, un mineral poderosamente radioactivo de Panem. Marxia observa inicialmente el blanco, pero sus ojos recorren las graderías y se clavan en el enrejado acorazado donde imagina que observan el dictador y su cohorte. Enfila hacia ellos su arco, ante la sorpresa extrema del público, y la flecha sale disparada en esa dirección –esta era una tremenda osadía, pues aunque la flecha penetrara por una de las ranuras tras las que se ocultaba el dictador, probablemente allí no habría nadie y Marxia sería ejecutada de inmediato–, pero cuando la flecha estaba a punto de llegar al capitolio ocurrió un fenómeno muy extraño: la partícula adoptó la forma de mil ondas y penetró por todas las rendijas, produciendo una tremenda explosión. 

La transformación de ondas en partícula y de partícula en ondas –como se presenta en este relato– era motivo de una fuerte discusión, que desde el siglo XVII se había trenzado en la definición de la composición de la luz: ¿es una lluvia de corpúsculos?, ¿son ondas? Finalmente se había impuesto este enfoque, la teoría ondulatoria; pero a finales del siglo XIX existía al menos un fenómeno que esta no lograba resolver: el efecto fotoeléctrico. Se trataba de algo que ocurría cuando determinados rayos de luz incidían sobre una placa de metal. Se observaba un desprendimiento de cargas eléctricas, pero no se sabía por qué ni cómo ocurría esto. Si la luz eran ondas, no era posible que las ondas desprendieran la materia. 

Por esa época Max Plank –premio nobel de física y fundador de la teoría cuántica– había propuesto que ciertas formas de energía no se manifestaban de manera continua, sino en microscópicos paquetes que tenían una medida constante –lo que luego se llamaría la constante de Plank–. Einstein partió de este descubrimiento y logró resolver el efecto fotoeléctrico, proponiendo que la luz se desplazaba de esa manera, en pequeños paquetes de energía, a los que llamarían luego fotones, y que explica así: 

Con el objeto de conservar la idea principal de la teoría [corpuscular] de Newton, debemos suponer que la luz homogénea está compuesta de granos de energía y reemplazar los antiguos corpúsculos luminosos por cuantos de luz, que llamaremos fotones, pequeñas porciones de energía que viajan por el espacio vacío con la velocidad de la luz (Einstein, 1958, p. 222). 

Estos fotones al adquirir la condición de cuantos tenían la capacidad de desprender partículas de una placa de metal. De esta forma, además de resolver el enigma del efecto fotoeléctrico –lo cual le valió el premio nobel–, Einstein logró rescatar la teoría corpuscular, pero generó lo que de allí en adelante sería objeto de estudio fundamental de la física cuántica: la dualidad onda-partícula. 

Ahora las preguntas ya no eran solo por la composición de la luz, sino que se extendían a la composición de las ondas, de las partículas e incluso de todo lo material. 

Para aproximarnos a la solución al menos transitoria que le dio la física a esta dualidad, debemos descifrar lo que para esa época significaba el concepto de onda y de la primera partícula más pequeña que el átomo, que recientemente se había descubierto: el electrón. 

Según Einstein (1986, p. 74), “el movimiento de la onda es la propagación de un estado de perturbación de la materia y no la propagación de la materia misma”; esto se ve claro en las ondas que se forman en el agua: la onda es una forma que adopta el agua al ser perturbada; hasta aquí la onda no es algo “material” o real, sino una condición momentánea que adopta el agua, pero que desaparece poco a poco cuando termina la perturbación. Sin embargo, una onda es una forma de energía, porque de un lado mueve el agua y lo que esté en ella (un corcho, por ejemplo), y además perturba el agua adyacente para producir otra onda, y así sucesivamente. Entonces, continúa Einstein: “El asunto esencialmente nuevo aquí es que por vez primera estamos considerando el movimiento de algo que no es materia, sino energía que se propaga a través de la materia”, y esto se evidencia en las ondas de sonido, y más aún en las ondas electromagnéticas. 

Si recurrimos al fenómeno que se produjo cuando Camilo disparó ondas alargadas, y estas se fueron acortando hasta formar una partícula, podemos comprender a Feynman (1998, p. 44) cuando afirma: “A frecuencias más altas [las ondas] se comportan de forma mucho más parecida a partículas”. Las ondas –como las montañas– tienen crestas y valles, y la distancia que hay entre dos crestas –como entre dos montañas– se llama longitud de onda. Pues bien, a medida que esta longitud de onda es más corta –o sea que hay menor distancia entre montaña y montaña– la frecuencia se hace mayor, y así, como dice Feynman, a más altas frecuencias esas ondas se agrupan en partículas. 

Ahora pensemos en el electrón, que es una de las partículas más emblemáticas de la física cuántica y la que nos lleva de la mano al principio de incertidumbre. ¿Qué es? ¿De qué está hecho? ¿Cómo se comporta? Las respuestas que nos da la ciencia nos pueden dejar fríos, y para ello podemos recurrir a la descripción que de él hace el premio nobel de física Leonard Lederman (2007, p. 112). 

En 1898 [Thomson] anunció que los electrones son componentes del átomo (…) Los científicos creían que el átomo carecía de estructura y no se podía partir. Thomson lo había hecho trizas. Se dividió el átomo, y hallamos nuestra primera partícula elemental. Hoy, menos de un siglo después, toda nuestra superestructura tecnológica se basa en este pequeño compañero. En el curioso mundo del átomo, se le da al electrón un radio nulo. Ello da lugar a unos cuantos problemas obvios: Si el radio es cero, ¿qué es lo que gira? ¿Cómo puede tener masa? ¿Dónde está la carga? Pensad en el gato de Cheshire de Lewis Carroll. Lentamente desaparece hasta que no queda de él más que la sonrisa. Nada de gato, sólo sonrisa. 

Aunque el electrón –así como otras partículas subatómicas descubiertas posteriormente– parecía no tener masa, la ciencia hasta ese momento lo incluía en el orden de las partículas, es decir, de la materia, y con una naturaleza muy diferente a la de las ondas; pero la interpretación del efecto fotoeléctrico dada por Einstein y una serie de experimentos que le siguieron, pusieron la dualidad onda-partícula al orden del día, y no solo como manifestación de la luz, sino como expresión de la materia. Tal es el caso de Luis de Broglie, quien planteó para el electrón también la condición de onda. 

[De Broglie] sugirió que, del mismo modo que la luz es un fenómeno ondulatorio para el que la teoría cuántica demuestra que existe una descripción igualmente válida en términos de partículas, también un electrón –al que normalmente consideramos como una partícula– podría tener una descripción igualmente válida en términos de ondas (Greene, 2011, p. 116). 

La dualidad onda-partícula quedaba así definida, ya no solo para la luz sino también para la materia, y la manifestación de las ondas como partículas y de las partículas como ondas ponía los fenómenos subatómicos en el territorio de la incertidumbre. Tal situación se demostró con el experimento de la doble ranura –presentado magistralmente por Feynman (1998, pp. 99 a 104)–, donde los electrones se comportaban como ondas o partículas, dependiendo de las condiciones del experimento. 

  1. La incertidumbre en las ondas de probabilidad 

El dictador había logrado escapar a la gran explosión que había producido la flecha de Marxia, pero esta había debilitado la estructura de defensa, ataque y control de la dictadura. 

Camilo y Marxia habían sido rescatados del evento de inauguración de los juegos por las fuerzas de la revolución, y ahora hacían parte del plan de ataque final para destruir al régimen. Se preparaba un arma poderosa, pero de efectos impredecibles, que debía ser disparada desde un vector único, una especie de singularidad cercana al capitolio, que podía ser ocupada solo por una persona. 

Marxia ahora era considerada por toda la población como el “Sinsajo”, símbolo de la rebelión de todo el imperio, y debía acometer tan peligrosa misión. Después de que la nave la depositó en el lugar adecuado, tomó su arco y disparó una flecha que se disolvió en el aire. 

Los instrumentos de defensa del régimen detectaron que una fuerza agresiva muy potente se avecinaba, pero no lograban definir su velocidad ni su posición. Los medidores de energía oscilaban en cifras casi infinitas, pero presentando solamente cantidades de probabilidad. El jefe de la defensa no alcanzó a darse cuenta de su grave error cuando ordenó que dispararan hacia el sector del firmamento donde se alojaba la mayor carga de probabilidad, pues en ese preciso instante el dispositivo que Marxia había arrojado con su flecha colapsó la energía de todas las cargas, que se habían diseminado como ondas de probabilidad sobre el capitolio, y cayó como un misil, destruyendo la mayor parte de la fortaleza. 

Podremos acercarnos al concepto de ondas de probabilidad si comprendemos que en este relato lo que se cernía como una especie de lluvia de energías que emergían del dispositivo de la flecha lanzada por Marxia no eran propiamente ondas ni partículas, sino pura probabilidad de que lo fueran; se convertirían en tales y adquirirían todo su poder en el momento en que alguien determinara el lugar en que podría estar la mayor parte de ellas, y eso fue lo que activó la orden del jefe de la defensa del capitolio. 

A principios del siglo XX, la ciencia ya había descubierto que las ondas tenían una importancia vital, tanto como las partículas, y que estas, en determinadas circunstancias, se podían comportar como ondas; esto era estremecedor; pero otro descubrimiento vendría a conmover aún más los cimientos de la física: a la incertidumbre en la manifestación de la energía en ondas o partículas se agregaba ahora una incertidumbre más acentuada: la ciencia no hallaba la forma de medir con precisión, y a la vez, el movimiento y la velocidad de las partículas, y más grave aún, se construyeron leyes que predecían que nunca se podrían definir con exactitud estas variables. Dice Feynman (1998, p. 45): “La naturaleza, tal como la entendemos hoy, se comporta de tal modo que es fundamentalmente imposible hacer una predicción precisa de qué sucederá exactamente en un experimento dado. Esto es algo horrible”. A lo máximo que se podía aspirar, entonces, era a medir la probabilidad de la presencia de las partículas. 

A diferencia del marco establecido por Newton o incluso del que estableció Einstein, en los que el movimiento de una partícula se determina dando su posición y su velocidad, la mecánica cuántica muestra que a nivel microscópico no es posible conocer al mismo tiempo ambas características con total precisión. Además, cuanto mayor sea la precisión con que se conoce una de ellas, menor es la precisión con que conocemos la otra (Greene, 2011, p. 129). 

La principal razón para que no fuera posible la medición simultánea de la velocidad y posición del electrón quedó demostrada en el principio de incertidumbre formulado por Heisenberg en 1927: “Todo experimento realizado para determinar algunas cantidades numéricas hace ilusorio el conocimiento de otras, puesto que la perturbación, imposible de fiscalizar, del sistema observado altera los valores de las cantidades antes observadas” (Heisenberg, citado por González, 2001, p. 91). Esto, en palabras sencillas, quiere decir que para observar un electrón, la cantidad mínima de luz que se requiere es un fotón, pero este al detectar el electrón lo perturba y hace imposible definir simultáneamente la posición que tiene y la velocidad que lleva. 

Aquí se evidencia que la presencia de un observador afecta la observación, como lo afirmó el mismo Heisenberg en las conferencias que en 1929 dio en la Universidad de Chicago: 

En las teorías de la física clásica siempre se ha dado por supuesto, o bien que dicha acción recíproca [entre el observador y el objeto observado] es tan pequeña que puede despreciarse [el observador casi no afecta el objeto observado], o bien que su efecto puede eliminarse del resultado mediante cálculos fundados en el control de los experimentos. Tal suposición no es lícita en física atómica: la interacción entre el observador y el objeto produce cambios grandes e imposibles de fiscalizar, a causa de las mudanzas discontinuas2 características de los procesos atómicos (González, 2001, p. 90). 

Por supuesto que desde esta perspectiva, el papel del observador adquiere gran relevancia, y ha sido objeto de todo tipo de interpretaciones y aplicaciones; sin embargo, al hacer una incursión más profunda en el principio de incertidumbre, encontramos que la imagen de un electrón que es perturbado, conserva la lógica de la física clásica, en la que los cuerpos tienen una masa definida y una trayectoria a través del espacio; pero como ya lo había demostrado la ciencia reciente, los electrones casi no tenían masa y se podían comportar también como ondas. 

Pero más sorpresas vendrían luego, haciendo aún más borrosa la partícula: “Max Born, quien obtuvo el premio nobel de física por sus trabajos en mecánica cuántica, afirmó que una onda electrónica se debe interpretar desde el punto de vista de la probabilidad” (Greene, 2011, p. 119), y de allí se desprendió otra imagen alucinante, expresada en la famosa ecuación de Schrödinger, que describe al electrón como un paquete de ondas que debe verse como una probabilidad (González, 2001, p. 86). Nacían así las ondas de probabilidad, que se pueden expresar didácticamente de la siguiente manera: 

El átomo es como un puñado de arena [invisible], donde cada grano indica una probabilidad mayor o menor de presencia de la partícula-onda. En algunas partes la probabilidad de existencia es mayor, en otras menor (…) Esto es, para plantearlo con un ejemplo del mundo cotidiano: si la fotografía de un objeto nos sale borrosa no es por culpa de nuestra cámara o de nuestra ineficacia, sino porque el objeto mismo es borroso. Se distribuye en el espacio como diversas probabilidades de ser (González, 2001, pp. 87 y 93). 

Volviendo al relato, el dispositivo creado por los rebeldes y disparado por el arco de Marxia producía el efecto de esa explosión de polvo invisible o, mejor, inexistente, hasta el momento en que el sector de mayor concentración de probabilidad fuera detectado por alguien; la orden del jefe de la defensa fue la observación que materializó esa poderosa energía. 

Entonces el misterio se hace más profundo: no es solo que no podamos medir algo porque nuestros instrumentos no alcanzan a medirlo o perturbarlo, sino porque ese algo en cierto modo no tiene existencia antes de ser medido. La falacia tiene lugar, explica Wheeler, “porque pensamos que un fotón (o un electrón) son ondas o partículas antes de observarlas. Pero los elementos cuánticos, por el principio de incertidumbre, no son ni ondas ni partículas sino algo indeterminado hasta el momento de una medición” (González, 2001, p. 150). 

Esta incertidumbre, que así se torna esencial y definitiva, a pesar de que supuso una ruptura con la predicción mecánica e incluso con la causalidad, no terminó representando un colapso para la ciencia, sino que abrió una puerta a la predicción probabilística, que terminó siendo más exacta particularmente en el mundo de la microfísica. 

Unos pocos meses después de que De Broglie formulara su sugerencia, Schrödinger dio el paso decisivo hacia este objetivo, desarrollando una fórmula que determina la forma y la evolución de las ondas de probabilidad o, según el nombre que recibieron, las funciones de onda. No se tardó mucho tiempo en utilizar la ecuación de Schrödinger y la interpretación probabilística para realizar unas predicciones asombrosamente exactas. De acuerdo con la mecánica cuántica, el universo evoluciona según un formalismo matemático riguroso y preciso, pero este marco sólo determina la probabilidad de que llegue algún futuro concreto, sin decir qué futuro será realmente el que llegue (Greene, 2011, p. 121). 

Además, Heisenberg halló una relación matemática entre la precisión con la que se mide la posición del electrón y la precisión con que se mide su velocidad; descubrió que cada una es inversamente proporcional a la otra (Greene, 2011, p. 129). Así la incertidumbre quedaba entronizada en la ciencia, pero no ya como una amenaza, sino como un instrumento para predecir la probabilidad de los acontecimientos. 

  1. La incertidumbre en la superposición de estados 

Las murallas del Capitolio habían sido derribadas, y las fuerzas de la insurgencia penetraron con un solo objetivo: localizar al dictador, pues se consideraba que sobre él reposaba todo el poder del régimen. Sin embargo, la búsqueda fue infructuosa. El dictador podría haberse camuflado entre los miles de personas que corrían en la confusión del bombardeo. Su identificación parecía imposible, pero los avances en la tecnología computacional de los rebeldes abrigaron una esperanza: si utilizaban el procesador de qbits, que podía operar en diferentes estados cuánticos a la vez, y rastreaban toda la zona con su flotilla de drones, informada con la plantilla genética del dictador, probablemente darían con él. 

Y así fue, lo lograron, pero llevándose una gran sorpresa: el dictador había muerto años atrás y había descargado toda su información molecular en un dispositivo que se hallaba protegido por una cúpula imposible de penetrar. ¡Estaban gobernados y sometidos por una máquina infernal, y no había forma de detenerla! 

La ciencia había detectado que en el mundo subatómico todo se manifestaba ya como onda, ya como partícula en una condición de probabilidad. A partir de esta visión de la realidad se empezarían a intuir y evidenciar toda clase de extraños fenómenos signados por la incertidumbre. Lo primero que estaba medianamente claro era que una partícula, mientras no fuera observada, podía tener, sin distinción, los dos estados: onda y partícula de manera simultánea, y a esto se le llamó superposición de estados; Schrödinger lo representó con su famosa figura del gato que está vivo y muerto a la vez, mientras no se abra la caja a la que está confinado con una dosis de material radioactivo que puede romperse en cualquier momento. Bohr propuso resolver este problema con el principio de complementariedad, que parafraseado por González (2001, p. 107) enuncia: 

La sustancia básica de la materia y la energía tiene manifestaciones corpusculares y ondulatorias. Éstas son manifestaciones complementarias de un mismo sustrato profundo. El corpúsculo y la onda existen en una superposición de estados. Cuando observamos un cuanto, la superposición de estados desaparece y se muestra como partícula. 

Entonces, la observación define uno de los estados, colapsa la onda de probabilidad y es lo que se define de allí en adelante como colapso de la función de onda. 

La superposición de estados hoy día se aplica en el desarrollo de los computadores cuánticos, pues la computación clásica ya está llegando a su límite, debido a que los microchips están reduciendo su tamaño, al punto de que ya no van a poder funcionar. Se requiere entonces que en el mismo espacio ocurra un porcentaje mayor de operaciones, y esto se logra a través de los qbits, que permiten no solo los estados 0 o 1, sino el estado 0 y 1 a la vez –superposición de los dos estados–, de modo que se incrementa exponencialmente el número de operaciones. 
Si la tecnología de los rebeldes en Panem estuviera en el nivel de los computadores actuales, que aún trabajan con bits, nunca hubieran localizado al dictador o a la máquina que él dejó en su reemplazo; pero con el procesador de qbits pudieron realizar millones de operaciones a la vez para identificar el genoma de una gran cantidad de personas. 

  1. La incertidumbre en el efecto túnel cuántico 

Marxia y Camilo, junto con otros líderes de la rebelión, miraban desconsolados a través de los monitores aquella máquina que se escudaba bajo su cúpula protectora, pero que seguramente estaba preparando el contraataque. Entonces, asesorados por los expertos en tecnología idearon un plan: generarían alrededor de la cúpula una serie de microcasquetes –como cápsulas de balas nanoscópicas– y dispararían hacia ellos rayos LASER, con la esperanza de que algunas de las partículas, haciendo uso del efecto túnel cuántico, atravesaran la barrera y descontrolaran a la máquina. Lo hicieron, y sus instrumentos detectaron una cantidad inmensa de partículas oscilando alrededor de la máquina; pero la máquina misma era impenetrable. ¡Todo esfuerzo parecía insuficiente! 

La razón fundamental por la cual la miniaturización de los chips a escala nanotecnológica va a hacer imposible su funcionamiento, es otro efecto extraño de la física cuántica, al que conduce el principio de incertidumbre: el efecto túnel. Los electrones, que son partículas cuánticas, se comportan como ondas, y cuando se encuentran en un espacio muy reducido –como lo sería en el caso de los chips de tamaño molecular– pueden atravesar las paredes y escapar. 

Este fue el principio que usaron los insurgentes para atravesar la barrera que los separaba de la máquina, y se explica si se tiene en cuenta que la incertidumbre de la energía puede tomar el préstamo del tiempo y permitir, por ejemplo, que el electrón cruce una barrera para cuya acción no tiene suficiente energía. Greene (2011, p. 130) lo presenta de la siguiente manera: 

Si se dispara un perdigón de plástico contra un muro de hormigón de tres metros de espesor, la física clásica confirma lo que instintivamente pensamos que va a suceder: el perdigón rebotará volviendo hacia nosotros. La razón es, sencillamente, que el perdigón no tiene energía suficiente para penetrar en un obstáculo tan consistente. Sin embargo, a nivel de partículas fundamentales, la mecánica cuántica muestra inequívocamente que las funciones de onda –es decir, las ondas de probabilidad– de las partículas que constituyen el perdigón tienen todas ellas una parte diminuta que sale a través del muro. Esto significa que hay una probabilidad pequeña –pero no nula– de que el perdigón pueda realmente penetrar en la pared y salir por el otro lado. ¿Cómo puede suceder esto? La razón de que sucede nos remite, una vez más, al principio de incertidumbre de Heisenberg. 


Pues así como el principio de incertidumbre define una proporción entre la precisión de la medida de la velocidad y de la posición, también define una proporción entre la medición de la energía y el tiempo que se requiere para medirla. Por eso es posible que una partícula tome prestada la energía que requiere para atravesar el muro, siempre y cuando sea capaz de devolverla en un tiempo tan corto como lo permita el principio de incertidumbre. Esta propiedad también la usan las partículas para desaparecer y aparecer, bien sea por ellas mismas o convertidas en otras, como lo escribe David Bohm, citado por González (2001, p. 170): “Las partículas virtuales incesantemente toman prestada energía al espacio mismo y salen de la nada sólo para desaparecer al instante”. 

  1. La incertidumbre en el entrelazamiento y la teleportación cuántica 

La insurgencia había logrado penetrar la barrera, pero no tenía aún ningún poder sobre la máquina, y esta ya había localizado su refugio y empezaba a lanzar misiles sobre él. La situación era angustiosa, y se requería de alguna acción temeraria. Marxia recordó aquel día en que el dictador, junto a ella, celebraba su triunfo en los juegos, y una de las descargas cuánticas del espectáculo, por error, los había abrazado a los dos; alguna relación profunda debía haberse establecido, porque a partir de ese momento ella sentía una conexión extraña con aquel hombre; entonces, pidió que analizaran su ADN y lo compararan con el ADN del dictador, y ocurrió un milagro: ahora que el dictador no tenía células, partícula a partícula, molécula a molécula, Marxia y la máquina eran una misma cosa. 

La única explicación que hallaron era que en aquel espectáculo el rayo había producido un entrelazamiento cuántico entre los dos, y Marxia, apoyada en esta confirmación y en la tecnología desarrollada por los insurgentes, comenzó un acelerado proceso de teleportación y adoptó la forma de la máquina. Todos se dieron cuenta de que esto había ocurrido cuando se disolvió la cúpula, la máquina comenzó a apagarse y los misiles dejaron de caer sobre el refugio. 

Fenómenos tan sorprendentes como este existen en el mundo cuántico. A principios del siglo XX, una serie de experimentos, teoremas y ecuaciones (González de Alba, 2001, pp. 140 a 153) predecían o constataban la manifestación de partículas, que a distancias infinitas para ellas parecían comunicarse, rompiendo el límite de la velocidad de la luz. 

Para interpretar estas partículas, que a grandes distancias y sin posibilidad de comunicarse parecían tener conciencia de su existencia y estado recíproco, los físicos generaron el concepto de entrelazamiento: dos partículas son una misma cosa con doble manifestación, o dicho de una manera más radical, las dos partículas no tienen localidad, y la no localidad implica que las partículas no están localizadas a distancia, en dos lugares distintos, porque sencillamente no tienen lugar, y esto quiere decir que no es que se comuniquen a distancia, sino que están en una condición de entrelazamiento sin localidad. 

Marxia y el dictador, o más bien la máquina en que este se había convertido, aunque no estaban a distancia infinita, si se hallaban separados por una barrera, no solo impenetrable por el espacio sino también por el tiempo. Era como si estuviera a millones de años luz o en ninguna parte. Pero la condición de entrelazamiento que habían adquirido le permitió a Marxia trasladarse sin tiempo y sin espacio hasta la máquina y convertirse en ella misma. 

Esta condición de entrelazamiento fue denominada por la física “no separabilidad”, que significa que las dos partículas son un conjunto indivisible, por mucho que se alejen, hasta que una de ellas sea objeto de una medición. Penrose (1996, p. 260) lo dice de esta manera: “ninguno de los fotones por separado tiene un estado objetivo: el estado cuántico se aplica sólo a los dos en conjunto”. 

Pero las aplicaciones de la incertidumbre han ido más lejos aún: 
En 1998, científicos del Caltech reportaron un experimento por el que emplearon la no separabilidad para producir teleportación, esto es, «transporte sin cuerpo» y sin pasar a través de ningún medio físico, ni siquiera los puntos del espacio que separan la estación transmisora de la receptora. La teleportación consistió en el envío de los estados cuánticos de un rayo de luz para reproducirlo. Pero no fue como enviar un plano, sino una reconstrucción del original (González, 2001, p. 146-147). 

Es decir, no es que las partículas del original viajen a través del tiempo y del espacio para reconstruir una copia, sino que en el otro no lugar emerge la entidad como si fuera completamente nueva, pero de la misma naturaleza. Así, da lo mismo que las partículas estén a dos metros o a dos millones de kilómetros, porque en cierto modo no están en ninguna parte. Adquieren su cualidad de estar, o sea, de ocupar espacio, solo cuando se colapsa su función de onda; su onda está en todos los sitios a la vez, y en el momento en que se colapsa queda atrapada en un solo sitio. 
Por fortuna, estos y otros fenómenos que han sido descubiertos, o esperan serlo, pueden ir tomando forma en la banda humana de nuestra existencia, particularmente ahora que la ciencia está explorando el mundo de las nanopartículas. Entonces, es necesario estar preparados para el ingreso de una incertidumbre cada vez más profunda en nuestra vida. 

Salto de página 
BIBLIOGRAFÍA 

Collins, S. (2008). Los juegos del hambre. Versión novela y trilogía de películas. 

Einstein, A. (1958). La física, aventura del pensamiento. Buenos Aires: Editorial Losada. 

Einstein, A. e Infeld, L. (1986). La evolución de la física. Barcelona: Salvat. 

Feynman, R. P. (1998). Seis piezas fáciles. La física explicada por un genio. Barcelona, Grijalbo Mondadori. 

Gardner, M. (1994). La explosión de la relatividad. Barcelona: Salvat Editores S.A. 

González de Alba, L. (2001).  El burro de Sancho y el gato de SchrodingerUn paseo al trote por cien años de física cuántica y su inesperada relación con la conciencia. Barcelona: Paidós. 

Greene, B. (2011). El universo elegante. Supercuerdas, dimensiones ocultas y la teoría de lo fundamental. Barcelona: Crítica. 

Heisenberg, W. (1985). La imagen de la naturaleza en la física actual. Barcelona: Orbis. 

Heisenberg, W. (1959). Física y filosofía. Buenos Aires: Editorial La Isla. 

Lederman, L. (2007). La partícula divina. Si el universo es la respuesta, ¿cuál es la pregunta? Barcelona: Crítica. 

No hay comentarios:

Publicar un comentario