Páginas

jueves, marzo 04, 2021

Experimentos de la doble doble rendija rendija

Experimentos de la doble rendija                   

Por Jorge Senior

 

Lo que solemos llamar “el experimento de la doble rendija” es en realidad una serie de experimentos diferentes a lo largo de más de dos siglos.

1.       El experimento que inauguró este camino asaltado de sorpresas y lleno de asombros fue el que realizó Thomas Young en 1801.  Este es un experimento casero que podemos reproducir con elementos baratos de la cotidianidad, pero no por ello deja de ser tremendamente ingenioso y exigente en cuanto a la preparación cuidadosa. 

El experimento de Young se da en el contexto del debate centenario entre dos concepciones sobre la luz: la newtoniana de carácter corpuscular y la de Hooke y Huygens de carácter ondulatorio.

Sin entrar en detalles técnicos el diseño consiste en pasar un haz de luz (preferiblemente monocromática) por una rendija y observar el patrón que se forma cuando la luz llega hasta una pantalla.  Este patrón puede ser consistente con ambas concepciones.  Pero el asunto se torna interesante cuando son dos rendijas en disposición adecuada.  Entonces se forma un claro patrón de franjas paralalelas, fácilmente explicable para la concepción ondulatoria como un patrón de interferencia, pero no asimilable para la visión corpuscular.  Éste sería, pues, un experimentum crucis.  El experimento fue presentado en la Royal Society.  Y su consecuencia histórica es que la concepción ondulatoria de la luz se impondría ampliamente en ese siglo.

2.       En el siglo XX se realizan nuevas versiones del experimento en el marco del surgimiento y desarrollo de la mecánica cuántica.  En 1900 Max Planck había planteado la hipótesis cuántica como un truco matemático para modelar el fenómeno de la radiación de cuerpo negro. En el annus mirabilis de Einstein éste formuló una interpretación física del “cuanto de luz” (despúes llamado “fotón”) para modelar el efecto fotoeléctrico.  Esto parecía ir en contravía de la interpretación ondulatoria de la luz ya plenamente aceptada, incluso por Einstein que trabajó la Relatividad Especial y luego la General aceptando las ecuaciones de Maxwell y la idea de campo. 

En 1909 el británico Geoffrey Ingram Taylor hizo un experimento de doble rendija con luz de muy baja intensidad aproximándose a lo que sería un experimento de 1X1 o fotón por fotón.

En el Congreso de Solvay de 1911 Einstein defendió la tesis de la “doble naturaleza” de la luz que obtuvo gran oposición, entre otros del propio Planck.  Después vendría el modelo cuántico del átomo de Niels Bohr en 1913.  Einstein realiza otros aportes en esa línea de la cuantización (uno de los cuales prefigura el láser en 1916) y en los años 20 se desata la revolución física de Pauli, Schroedinger, Heisenberg, Dirac, Born, etc. En este contexto De Broglie presenta en 1924 su tesis doctoral sobre la “doble naturaleza” del electrón que recibe confirmación experimental en 1927 por parte de George Paget Thomson (hijo de J.J.) en Universidad de Aberdeen y de Clinton Joseph Davisson y Lester Halbert Germer, en Laboratorios Bell.  Luego se establecería la “doble naturaleza” de otras partículas.  Así pues, materia y radiación electromagnética exhiben esa característica de aparecer en unos experimentos como partículas y en otros como si fuesen ondas, dualidad experimental a la cual, erróneamente, se le llama “doble naturaleza”.

En 1955 Gottfried Mollenstedt y Heinrich Düker obtienen franjas de interferencia con un microscopio electrónico gracias a su invención del biprisma de electrones.  Y en 1961 Claus Jönsson realiza experimentos de rendijas que evidencian interferencia de electrones.

3.       Experimento 1X1 de Pier Giorgio Merli, Franco Missiroli, Giulio Pozzi, (ver imagen).  En este experimento de 1973 la innovación es la posibilidad técnica de lanzar una por una la partícula de prueba (al vacío) con el sorprendente resultado de que el patrón de interferencia se produce a medida que se van acumulando más y más partículas impactando en la pantalla.  ¡Esto es increíble!  Definitivamente no se trata de un fenómeno de interferencia cinética en tiempo real como sucede con las ondas de un estanque o con el sonido.  En este caso se trata de interferencia de ondas de probabilidad. Pero, ¿qué diablos es eso?  ¿un ente matemático o físico? Al comienzo y al final del viaje tenemos una partícula prefectamente determinada.  Pero al parecer no hay una trayectoria definida para cada partícula individual sino una suma de trayectorias con diferentes probabilidades perfectamente matematizables. ¿Cómo diablos computa la realidad esas trayectorias?  ¿qué es lo que realmente sucede entre el principio y el final del viaje de la partícula?  (Es como si durante el viaje la partícula se comportara como onda).  Este experimento 1X1 con electrone fue reproducido por el físico experimental japonés Akiro Tonomura de la Hitachi en 1989, quien no reconoció la primacía del trío italiano.

 


 

4.       El experimento “cuál vía” (“Which way” experiment): en este diseño se coloca un detector en la “entrada” de una de las rendijas, por así decirlo, para saber por cual vía coge la partícula. El resultado es que el patrón de ondas desaparece como predijo Richard Feynmann.  A esto lo denominan “el colapso de la función de ondas”.  Esto fenómeno es el que se ilustra con humor en el meme del muñeco que mira y no mira, el muñeco representa al detector (ver imagen). 

 


 

En este punto hay que tener rigor en el uso del lenguaje, pues muchos introducen la palabra “observador” como si de un juego a las escondidas entre la realidad cuántica y los seres humanos con conciencia se tratara.  De ahí salen un montón de especulaciones subjetivistas, es decir, mala filosofía, en torno a la fantasía de una conciencia con superpoderes mágicos y capaz de crear la realidad.  Nada de eso.  Los fenómenos cuánticos sucedieron desde el Big Bang y durante miles de millones de años antes de que existiera la humanidad, suceden en las estrellas lejanas sin intervención de humanos y pasan todo el tiempo a nuestro alrededor y hasta en nuestro cuerpo sin necesidad de conciencia alguna al respecto.  Lo que produce el “colapso de la función de ondas” es la interacción del sistema cuántico y el sistema clásico del detector, de ahí que el macrosistema conjunto no sea netamente cuántico.  Es un fenómeno objetivo y debe entenderse desde una teoría de la medición.

 

5.       Experimento de escogencia retardada (“Delayed choice”).  En este diseño el detector se coloca después de la barrera con la doble rendija y el resultado es el mismo que en el experimento anterior (“which way”): el patrón de interferencia desaparece siempre que el detector esté encendido y reaparece siempre que esté apagado (por mucho sigilo que tengas para ir a desconectarlo, bromean los físicos).

 

6.       Experimento de escogencia retardada y borrador cuántico (“Delayed choice quantum eraser”), 1999.  Este diseño experimental es mucho más complicado, pues además del rayo láser y la lámina de dos rendijas incluye un cristal especial (que genera entrelazamiento, pues de cada fotón del láser salen dos entrelazados con la mitad de energía), interferometría (beam splitters o desdobladores de haz),  prismas, espejos, un lente y 5 detectores, uno de los cuales hace las veces de pantalla.   

El objetivo del entrelazamiento de fotones es no interactuar con los fotones “señales” sino con sus gemelos entrelazados, apodados fotones “ociosos”.  De esta manera se busca evitar la decoherencia o colapso de función de ondas de los fotones “señales”. 

La idea básica del borrador cuántico es que si desdoblas un haz de fotones en dos “subhaces” que siguen dos rutas diferentes definidas y luego, mediante espejos, los haces confluir y allí los vuelves a desdoblar, vas a obtener dos nuevos subhaces entremezclados, sin que se pueda saber por cual ruta llegó cada fotón de estos dos nuevos subhaces.  Se habrá borrado la información de las rutas previas.

El proceso completo del experimento tiene dos montajes o fases. (1) El primer montaje es el típico experimento de rayo láser y doble rendija, pero con un cristal especial que convierte cada fotón en dos fotones entrelazados con la mitad de energía cada uno.  El cristal está ubicado después de las rendijas por tanto éste es un experimento “delayed choice”.  Luego se ubica un prisma que separa los pares entrelazados de fotones y los manda por rutas diferentes: a) la ruta de los fotones “señal”, con los cuales no habrá interacción, y que, independientemente de por cual rendija hayan pasado (gracias a una lente), van directo al detector-pantalla (en el cual aparecerá el patrón de interferencia o no, resultado esencial del experimento) y  b) la ruta de los fotones “ociosos”, que sí serán medidos.  En esta ruta de los fotones “ociosos”, mediante otro prisma, se separarán los fotones que pasaron por una rendija de los que pasaron por la otra y mediante espejos se enviarán respectivamente a los detectores A y B.  Manejando las distancias se garantiza que un fotón señal siempre llega al detector pantalla antes de que su pareja “ociosa” llegue al detector A o B.  Dado que no se han medido para nada los fotones “señal” debería aparecer un patrón de interferencia.  La medición que define la rendija tomada se ha medido en los fotones “ociosos” y, además, esta medición es posterior, puesto que los fotones “señal” llegan antes.  Pero hete aquí que no aparece patrón de interferencia.  ¡Asombroso!  ¿Cómo puede influir una medición posterior en algo que sucedió antes?  (De todos modos considérese que esta influencia es a través del entrelazamiento cuántico que es una especie de “acción a distancia instantánea”, sólo que en este caso ni siquiera es instantánea sino hacia el pasado, lo que algunos llaman “retrocausal”).

(2) El segundo montaje utiliza el sistema de “borrador cuántico” que ya explicamos antes, desdoblando haces y luego revolviéndolos de tal manera que ahora los fotones llegarán a otros dos detectores C y D, pero con estos detectores no se sabe por cual rendija pasaron. Se ha borrado la información.  Lo sorprendente ahora es que si sólo utilizamos los detectores C y D el patrón de interferencia reaparece.  Y no olvidemos que esta medida con los fotones “ociosos” hecha en los detectores C y D puede ocurrir mucho después de la llegada de los fotones “señal” al detector-pantalla.  En principio los detectores A y B y los detectores C y D podrían estar a millones de kilómetros y aún así se produciría el efecto de que la medición con A y B destruye el patrón de interferencia en la pantalla y con los detectores C y D se restaura.  Pareciera que con información se destruye, sin información se restaura, y todo ello con “retrocausalidad”.   

 

7.       Experimento con moléculas, 2013.  El experimento cuántico de la doble rendija se ha realizado con diferentes tipos de partículas, con átomos enteros, con moléculas pequeñas y algo más grandes como la buckyball de Carbono 60.  El récord está en 810 átomos con 10.000 masas atómicas, establecido en 2013.  Esto nos lleva a la siguiente pregunta: ¿cuál es la frontera entre el nivel cuántico de la realidad y el nivel clásico? ¿hay una frontera para la decoherencia?

 

 

2 comentarios:

  1. La frontera entre el nivel cuántico de la realidad y el nivel clásico puede darse posiblemte con la magnitud de Planck.

    ResponderBorrar

Sigue las reglas de la argumentación racional