Experimentos de la doble rendija
Por Jorge Senior
Lo que solemos llamar “el
experimento de la doble rendija” es en realidad una serie de experimentos
diferentes a lo largo de más de dos siglos.
1.
El experimento que inauguró este camino asaltado
de sorpresas y lleno de asombros fue el que realizó Thomas Young en 1801. Este es un experimento casero que podemos
reproducir con elementos baratos de la cotidianidad, pero no por ello deja de
ser tremendamente ingenioso y exigente en cuanto a la preparación
cuidadosa.
El experimento
de Young se da en el contexto del debate centenario entre dos concepciones
sobre la luz: la newtoniana de carácter corpuscular y la de Hooke y Huygens de
carácter ondulatorio.
Sin entrar en
detalles técnicos el diseño consiste en pasar un haz de luz (preferiblemente
monocromática) por una rendija y observar el patrón que se forma cuando la luz
llega hasta una pantalla. Este patrón
puede ser consistente con ambas concepciones.
Pero el asunto se torna interesante cuando son dos rendijas en
disposición adecuada. Entonces se forma
un claro patrón de franjas paralalelas, fácilmente explicable para la
concepción ondulatoria como un patrón de interferencia, pero no asimilable para
la visión corpuscular. Éste sería, pues,
un experimentum crucis. El experimento fue presentado en la Royal
Society. Y su consecuencia histórica es
que la concepción ondulatoria de la luz se impondría ampliamente en ese siglo.
2.
En el siglo XX se realizan nuevas versiones del
experimento en el marco del surgimiento y desarrollo de la mecánica
cuántica. En 1900 Max Planck había
planteado la hipótesis cuántica como un truco matemático para modelar el
fenómeno de la radiación de cuerpo negro. En el annus mirabilis de Einstein éste formuló una interpretación física
del “cuanto de luz” (despúes llamado “fotón”) para modelar el efecto
fotoeléctrico. Esto parecía ir en
contravía de la interpretación ondulatoria de la luz ya plenamente aceptada, incluso
por Einstein que trabajó la Relatividad Especial y luego la General aceptando
las ecuaciones de Maxwell y la idea de campo.
En 1909 el
británico Geoffrey Ingram Taylor hizo un experimento de doble rendija con luz
de muy baja intensidad aproximándose a lo que sería un experimento de 1X1 o
fotón por fotón.
En el Congreso
de Solvay de 1911 Einstein defendió la tesis de la “doble naturaleza” de la luz
que obtuvo gran oposición, entre otros del propio Planck. Después vendría el modelo cuántico del átomo
de Niels Bohr en 1913. Einstein realiza
otros aportes en esa línea de la cuantización (uno de los cuales prefigura el
láser en 1916) y en los años 20 se desata la revolución física de Pauli,
Schroedinger, Heisenberg, Dirac, Born, etc. En este contexto De Broglie
presenta en 1924 su tesis doctoral sobre la “doble naturaleza” del electrón que
recibe confirmación experimental en 1927 por parte de George Paget Thomson (hijo
de J.J.) en Universidad de Aberdeen y de Clinton Joseph Davisson y Lester
Halbert Germer, en Laboratorios Bell.
Luego se establecería la “doble naturaleza” de otras partículas. Así pues, materia y radiación
electromagnética exhiben esa característica de aparecer en unos experimentos
como partículas y en otros como si fuesen ondas, dualidad experimental a la
cual, erróneamente, se le llama “doble naturaleza”.
En 1955
Gottfried Mollenstedt y Heinrich Düker obtienen franjas de interferencia con un
microscopio electrónico gracias a su invención del biprisma de electrones. Y en 1961 Claus Jönsson realiza experimentos
de rendijas que evidencian interferencia de electrones.
3.
Experimento 1X1 de Pier Giorgio Merli, Franco Missiroli,
Giulio Pozzi, (ver imagen). En este experimento
de 1973 la innovación es la posibilidad técnica de lanzar una por una la
partícula de prueba (al vacío) con el sorprendente resultado de que el patrón
de interferencia se produce a medida que se van acumulando más y más partículas
impactando en la pantalla. ¡Esto es
increíble! Definitivamente no se trata
de un fenómeno de interferencia cinética en tiempo real como sucede con las
ondas de un estanque o con el sonido. En
este caso se trata de interferencia de ondas de probabilidad. Pero, ¿qué
diablos es eso? ¿un ente matemático o
físico? Al comienzo y al final del viaje tenemos una partícula prefectamente
determinada. Pero al parecer no hay una
trayectoria definida para cada partícula individual sino una suma de
trayectorias con diferentes probabilidades perfectamente matematizables. ¿Cómo
diablos computa la realidad esas trayectorias?
¿qué es lo que realmente sucede entre el principio y el final del viaje
de la partícula? (Es como si durante el
viaje la partícula se comportara como onda).
Este experimento 1X1 con electrone fue reproducido por el físico
experimental japonés Akiro Tonomura de la Hitachi en 1989, quien no reconoció
la primacía del trío italiano.
4.
El experimento “cuál vía” (“Which way”
experiment): en este diseño se coloca un detector en la “entrada” de una de las
rendijas, por así decirlo, para saber por cual vía coge la partícula. El
resultado es que el patrón de ondas desaparece como predijo Richard Feynmann. A esto lo denominan “el colapso de la función
de ondas”. Esto fenómeno es el que se
ilustra con humor en el meme del muñeco que mira y no mira, el muñeco
representa al detector (ver imagen).
En este punto hay
que tener rigor en el uso del lenguaje, pues muchos introducen la palabra
“observador” como si de un juego a las escondidas entre la realidad cuántica y
los seres humanos con conciencia se tratara.
De ahí salen un montón de especulaciones subjetivistas, es decir, mala
filosofía, en torno a la fantasía de una conciencia con superpoderes mágicos y
capaz de crear la realidad. Nada de
eso. Los fenómenos cuánticos sucedieron
desde el Big Bang y durante miles de millones de años antes de que existiera la
humanidad, suceden en las estrellas lejanas sin intervención de humanos y pasan
todo el tiempo a nuestro alrededor y hasta en nuestro cuerpo sin necesidad de
conciencia alguna al respecto. Lo que
produce el “colapso de la función de ondas” es la interacción del sistema
cuántico y el sistema clásico del detector, de ahí que el macrosistema conjunto
no sea netamente cuántico. Es un
fenómeno objetivo y debe entenderse desde una teoría de la medición.
5.
Experimento de escogencia retardada (“Delayed
choice”). En este diseño el detector se
coloca después de la barrera con la doble rendija y el resultado es el mismo
que en el experimento anterior (“which way”): el patrón de interferencia
desaparece siempre que el detector esté encendido y reaparece siempre que esté
apagado (por mucho sigilo que tengas para ir a desconectarlo, bromean los
físicos).
6.
Experimento de escogencia retardada y borrador
cuántico (“Delayed choice quantum eraser”), 1999. Este diseño experimental es mucho más
complicado, pues además del rayo láser y la lámina de dos rendijas incluye un
cristal especial (que genera entrelazamiento, pues de cada fotón del láser
salen dos entrelazados con la mitad de energía), interferometría (beam
splitters o desdobladores de haz), prismas, espejos, un lente y 5 detectores, uno
de los cuales hace las veces de pantalla.
El objetivo del
entrelazamiento de fotones es no interactuar con los fotones “señales” sino con
sus gemelos entrelazados, apodados fotones “ociosos”. De esta manera se busca evitar la
decoherencia o colapso de función de ondas de los fotones “señales”.
La idea básica
del borrador cuántico es que si desdoblas un haz de fotones en dos “subhaces”
que siguen dos rutas diferentes definidas y luego, mediante espejos, los haces
confluir y allí los vuelves a desdoblar, vas a obtener dos nuevos subhaces
entremezclados, sin que se pueda saber por cual ruta llegó cada fotón de estos
dos nuevos subhaces. Se habrá borrado la
información de las rutas previas.
El proceso
completo del experimento tiene dos montajes o fases. (1) El primer montaje es
el típico experimento de rayo láser y doble rendija, pero con un cristal
especial que convierte cada fotón en dos fotones entrelazados con la mitad de
energía cada uno. El cristal está
ubicado después de las rendijas por tanto éste es un experimento “delayed
choice”. Luego se ubica un prisma que
separa los pares entrelazados de fotones y los manda por rutas diferentes: a)
la ruta de los fotones “señal”, con los cuales no habrá interacción, y que,
independientemente de por cual rendija hayan pasado (gracias a una lente), van
directo al detector-pantalla (en el cual aparecerá el patrón de interferencia o
no, resultado esencial del experimento) y
b) la ruta de los fotones “ociosos”, que sí serán medidos. En esta ruta de los fotones “ociosos”,
mediante otro prisma, se separarán los fotones que pasaron por una rendija de
los que pasaron por la otra y mediante espejos se enviarán respectivamente a
los detectores A y B. Manejando las
distancias se garantiza que un fotón señal siempre llega al detector pantalla
antes de que su pareja “ociosa” llegue al detector A o B. Dado que no se han medido para nada los
fotones “señal” debería aparecer un patrón de interferencia. La medición que define la rendija tomada se
ha medido en los fotones “ociosos” y, además, esta medición es posterior,
puesto que los fotones “señal” llegan antes.
Pero hete aquí que no aparece patrón de interferencia. ¡Asombroso!
¿Cómo puede influir una medición posterior en algo que sucedió
antes? (De todos modos considérese que
esta influencia es a través del entrelazamiento cuántico que es una especie de
“acción a distancia instantánea”, sólo que en este caso ni siquiera es
instantánea sino hacia el pasado, lo que algunos llaman “retrocausal”).
(2) El segundo
montaje utiliza el sistema de “borrador cuántico” que ya explicamos antes,
desdoblando haces y luego revolviéndolos de tal manera que ahora los fotones
llegarán a otros dos detectores C y D, pero con estos detectores no se sabe por
cual rendija pasaron. Se ha borrado la información. Lo sorprendente ahora es que si sólo
utilizamos los detectores C y D el patrón de interferencia reaparece. Y no olvidemos que esta medida con los
fotones “ociosos” hecha en los detectores C y D puede ocurrir mucho después de
la llegada de los fotones “señal” al detector-pantalla. En principio los detectores A y B y los
detectores C y D podrían estar a millones de kilómetros y aún así se produciría
el efecto de que la medición con A y B destruye el patrón de interferencia en
la pantalla y con los detectores C y D se restaura. Pareciera que con información se destruye,
sin información se restaura, y todo ello con “retrocausalidad”.
7.
Experimento con moléculas, 2013. El experimento cuántico de la doble rendija
se ha realizado con diferentes tipos de partículas, con átomos enteros, con
moléculas pequeñas y algo más grandes como la buckyball de Carbono 60. El récord está en 810 átomos con 10.000 masas
atómicas, establecido en 2013. Esto nos
lleva a la siguiente pregunta: ¿cuál es la frontera entre el nivel cuántico de
la realidad y el nivel clásico? ¿hay una frontera para la decoherencia?
La frontera entre el nivel cuántico de la realidad y el nivel clásico puede darse posiblemte con la magnitud de Planck.
ResponderBorrarExcelente información!
ResponderBorrar