Páginas

lunes, marzo 29, 2021

viernes, marzo 19, 2021

Albert Einstein y la dosis sana de dogmatismo


Albert Einstein y la dosis sana de dogmatismo

Por Jorge Senior

Popper solía poner de ejemplo de actitud no dogmática a Einstein, especialmente con relación a la Relatividad General y la predicción diferencial con respecto a la mecánica celeste de Newton sobre el comportamiento de la luz al pasar cerca del Sol, puesta a prueba en el eclipse solar del 29 de mayo de 1919.  Este caso trata de la curvatura local del espacio-tiempo.

Sin embargo, la teoría especial de la relatividad fue refutada por experimentos poco después de formulada en dos fulgurantes artículos de 1905 en la revista alemana Anales de Física (Annalen der Physik).  Como veremos, en este episodio se refuta esa imagen ejemplarizante y aleccionadora del gran científico judío en la retórica popperiana.

La falsación de la teoría especial de la relatividad que se estudiará en este breve artículo fue realizada por el físico experimental Walter Kaufmann.  Este físico judío alemán tiene el mérito de haber sabido apreciar la diferencia clave entre la “teoría del electrón” de Einstein y la de Lorentz, que al principio muchos no captaron debido a que hacían predicciones idénticas. 

Einstein utilizó las tranformaciones de Lorentz, pero su aporte fue mucho más revolucionario: crear una nueva cinemática, nada menos.  Toda la primera parte del artículo seminal Sobre la electrodinámica de los cuerpos en movimiento está enfocado en la cinemática.  Allí Einstein aniquila el concepto absoluto de simultaneidad y sustenta la relatividad de longitudes y tiempos con respecto a los sistemas de referencia (que el autor llama sistemas de coordenadas, un detalle semántico que se corregirá después), prescindiendo por completo del éter.  También encuentra que la velocidad de la luz es una velocidad límite*, algo que ya Thomson (1881, 1893), George Searle (1897) y Hendrik Lorentz (1899, 1900) habían predicho y calculado.  Luego, en la segunda parte, Einstein pasa a analizar la electrodinámica con ese nuevo marco cinemático de modo tal que el electromagnetismo, en sus diversas manifestaciones, y su marco teórico elaborado por Maxwell, queden incluídos en el principio de relatividad de Galileo.  Es decir, logra ampliar este principio más allá de la mecánica, gracias a abandonar el espacio absoluto de Newton y el tiempo absoluto de Galileo y Newton.

En esa segunda parte del artículo Einstein aborda varias aplicaciones de la teoría a modelos específicos electrodinámicos.  En el punto 10 trata la dinámica del electrón, una partícula descubierta apenas diez años antes por J.J. Thomson.  Dice García Márquez en su obra maestra Cien años de soledad que en Macondo “el mundo era tan reciente que muchas cosas carecían de nombre”.  Así sucedía en la nueva física que estaba surgiendo en los inicios del siglo XX, por lo cual Einstein empieza ese acápite con la frase: “Sea una partícula electricamente cargada con carga e (en adelante llamada un «electrón»)”.  En otro artículo de 1906 sugiere, como era su estilo, un experimento con rayos catódicos que podría poner a prueba sus ecuaciones de movimiento del electrón.

Pero los experimentos que se venían haciendo por parte de Kaufmann desde comienzos de siglo no eran con rayos catódicos (electrones rápidos) sino con rayos Beta (electrones aún más rápidos) analizando la desviación producida por campos eléctricos y magnéticos.  Su más significativo logro fue haber ofrecido en esos años la primera prueba de la dependencia de la masa con respecto a la velocidad en el caso de los electrones (se refiere a “masa electromagnética”, después llamada “masa relativista” (Gilbert Lewis y Richard Tolman en 1909), un término que Einstein nunca avaló y que hoy ya no se utiliza salvo para efectos pedagógicos o de divulgación).  En 1905 Kaufmann informó que sus resultados experimentales y las predicciones de Einstein-Lorentz eran inconsistentes, llevando a una intensa discusión en la comunidad de físicos y sucesivos experimentos a lo largo de varios años en diversos laboratorios hasta que en 1916 por fin se zanjó el debate gracias a los trabajos de Guye y Lavanchy (otros dirán que no, que sólo se zanjó en 1940 con los experimentos de Marguerite Rogers, A.W. McReynolds y F.T. Rogers, Jr. publicados en Physical Review de EEUU, pero ya desde 1917 la fórmula de Einstein-Lorentz se había probado por otra vía en el trabajo sobre estructura fina de las líneas de hidrógeno por Karl Glitscher con fundamento en las elaboraciones de Arnold Sommerfeld).

¿Cuál fue la actitud de Einstein ante los resultados experimentales incompatibles con su teoría? 

A diferencia de Lorentz que expresó su famosa frase derrotista “au bout du mon Latin”, Einstein ripostó con escepticismo y dudas sobre tales datos.  A esto ayudó que Planck revisó minuciosamente los experimentos de Kaufmann y sentenció que no eran lo suficientemente precisos para considerarlos refutación de las predicciones de Einstein-Lorentz.  Algo parecido informó Röntgen.  En 1907 Einstein, analizando los datos de Kaufmann, escribió: “El que las desviaciones sistemáticas estén basadas o no en una fuente de error todavía no considerada, o en una falta de correspondencia entre los fundamentos de la teoría de la relatividad y los hechos, sólo puede decidirse con seguridad cuando dispongamos de datos experimentales más numerosos” (Collected papers, vol. 2, doc. 47, pp. 434-484).

La crítica a los datos experimentales no fue el único sustento de la actitud mesuradamente dogmática de Einstein.  También tenía razones teóricas.  Por ejemplo, las teorías alternativas de Abraham y Bucherer** (también Langevin) con ecuaciones de movimiento del electrón basadas en hipótesis dinámicas -que Einstein consideraba arbitrarias- le resultaban difíciles de aceptar.  En el mismo artículo de 1907 argüía: “En mi opinión, no obstante, hay que conceder una probabilidad más bien pequeña a dichas teorías, puesto que sus hipótesis fundamentales sobre la masa de un electrón en movimiento no están apoyadas por sistemas teóricos que engloben complejos de fenómenos más amplios”. 

Esta crítica al fundamento teórico de las hipótesis en competencia muestra el aspecto epistemológico racionalista que Einstein siempre mantuvo, su confianza en la potencia de la teorización, complementario al empirismo propio de la ciencia experimental.  La epistemología de Einstein era racioempirista.  En su concepción, la “teoría del electrón” (en concreto sus ecuaciones de movimiento) era sólo un teorema o aplicación teórica deducida desde un marco teórico mucho más amplio, la nueva cinemática que había propuesto y sus aplicaciones generales a la electrodinámica y que en 1907 ya Einstein y otros llamaban “la teoría de la relatividad”.  Sin duda, Einstein concebía su teoría de la relatividad de 1905 como un sistema axiomático, cuyos axiomas eran: (1) el principio de relatividad (que modificaba el de Galileo con las transformaciones de Lorentz) y (2) la constancia de la velocidad de la luz* (como ley natural establecida en la teoría electromagnética de Maxwell).  En el artículo seminal, sin embargo, no usa el término “axiomas”, sino “postulados”, para referirse a los que también denomina “principios” (principios cinemáticos fundamentales).  A la “teoría del electrón”, un estructuralista actual la denominaría Modelo Potencial Parcial (MPP) de la Teoría Especial de la Relatividad (TER).

Esta pequeña viñeta de la historia de la física que hemos resumido aquí nos muestra un Einstein diferente al héroe falsacionista popperiano.  Admitamos que el propio Popper tuvo que morigerar su falsacionismo y terminó acuñando esta hermosa expresión: “dosis sana de dogmatismo”, asumida como una cualidad necesaria.  En el episodio narrado no cabe duda que Einstein hizo gala de tal dosis, utilizando para ello la crítica de los datos y la crítica del marco teórico alternativo, como recursos argumentativos.  Esta actitud hasta cierto punto dogmática es imprescindible en la ciencia porque el proceso de contrastación empírica no es instantáneo, sino que se prolonga en el tiempo.  ¿Meses? ¿Años? ¿Décadas?  No hay una regla, simplemente hasta que la comunidad científica agote el asunto.  Esto significa que la evaluación de los modelos de cambio científico es dependiente de la escala de tiempo.  En el tema mencionado del electrón pasaron 11 años, pero por ejemplo en la predicción de las ondas gravitacionales pasó casi un siglo.  Y no se debe olvidar que incluso si el asunto se zanjara negativamente para una teoría, la dosis sana de dogmatismo tiene alternativas como recortar el dominio de aplicación, alterar el “cinturón protector” o proponer hipótesis ad hoc.  Como si fuera poco, las teorías refutadas pueden seguir siendo utilizadas en la práctica si hay ventajas en ello.  Y no sólo en la práctica, también en la teoría pueden ser sacadas de la gaveta histórica para ensayar una versión modificada.  Es lo que sucede con la física newtoniana, ampliamente usada en ingeniería pero también desempolvada para ensayar enfoques newtonianos modificados en estudios cosmológicos sobre la gravedad (hipótesis MOND alternativa a la materia oscura).

*Nota: la “velocidad de la luz en el vacío” es una constante fundamental de la naturaleza, pero no por tratarse de la luz o porque el electromagnetismo tenga un protagonismo especial.  Las ondas gravitacionales, por ejemplo, también se propagan a esa misma velocidad.  En física relativista esta constante fundamental es una velocidad límite que corresponde a cualquier objeto sin masa en reposo (masa invariante).  La luz tiene esa velocidad por el hecho circunstancial, experimental pero no exigido por la teoría, de ser el fotón una partícula sin masa en reposo. 

**Hay que reconocerle a Bucherer a que en 1908 hizo experimentos en los cuales concluyó que su propia teoría estaba equivocada y las equivalentes de Lorentz-Einstein eran consistentes con los resultados.

sábado, marzo 06, 2021

Los 10 experimentos más bellos de la historia

 En septiembre de 2002 la revista Physics World publicó los resultados de un sondeo entre sus lectores sobre los 10 experimentos más hermosos de la historia.

Estos fueron los resultados:

1. El experimento tipo doble rendija (pero con biprisma) con patrón de interferencia electrón por electrón (Merli, Pozzi y Missiroli, 1973). Ver la entrada anterior de este blog.

2. El experimento de Galileo de la caída de los cuerpos a comienzos del siglo XVII.  Este experimento fue repetido en la Luna con un martillo y una pluma.

3. El experimento de la gota de aceite de Millikan a comienzos de la segunda década del siglo XX.

4. La descomposición de la luz solar con un prisma por parte de Newton en 1666-7.

5. El experimento de la doble rendija de Thomas Young en 1801 con patrón de interferencia.

6. El experimento de la barra de torsión de Cavendish en 1798.

7. La medición de la circunferencia de la Tierra en el siglo III a.C. por Eratóstenes.

8. El experimento de bolas rodantes por un plano inclinado por parte de Galileo a comienzos del siglo XVII.

9. El experimento de Rutherford con el cual descubrió el núcleo del átomo en 1911.

10.  El péndulo de Foucault en 1851.

En ese momento quizás el público no conocía el experimento Delayed choice quantum eraser de 1999 que sin duda merecería estar en la lista. (ver la entrada anterior en este blog). 

jueves, marzo 04, 2021

Experimentos de la doble doble rendija rendija

Experimentos de la doble rendija                   

Por Jorge Senior

 

Lo que solemos llamar “el experimento de la doble rendija” es en realidad una serie de experimentos diferentes a lo largo de más de dos siglos.

1.       El experimento que inauguró este camino asaltado de sorpresas y lleno de asombros fue el que realizó Thomas Young en 1801.  Este es un experimento casero que podemos reproducir con elementos baratos de la cotidianidad, pero no por ello deja de ser tremendamente ingenioso y exigente en cuanto a la preparación cuidadosa. 

El experimento de Young se da en el contexto del debate centenario entre dos concepciones sobre la luz: la newtoniana de carácter corpuscular y la de Hooke y Huygens de carácter ondulatorio.

Sin entrar en detalles técnicos el diseño consiste en pasar un haz de luz (preferiblemente monocromática) por una rendija y observar el patrón que se forma cuando la luz llega hasta una pantalla.  Este patrón puede ser consistente con ambas concepciones.  Pero el asunto se torna interesante cuando son dos rendijas en disposición adecuada.  Entonces se forma un claro patrón de franjas paralalelas, fácilmente explicable para la concepción ondulatoria como un patrón de interferencia, pero no asimilable para la visión corpuscular.  Éste sería, pues, un experimentum crucis.  El experimento fue presentado en la Royal Society.  Y su consecuencia histórica es que la concepción ondulatoria de la luz se impondría ampliamente en ese siglo.

2.       En el siglo XX se realizan nuevas versiones del experimento en el marco del surgimiento y desarrollo de la mecánica cuántica.  En 1900 Max Planck había planteado la hipótesis cuántica como un truco matemático para modelar el fenómeno de la radiación de cuerpo negro. En el annus mirabilis de Einstein éste formuló una interpretación física del “cuanto de luz” (despúes llamado “fotón”) para modelar el efecto fotoeléctrico.  Esto parecía ir en contravía de la interpretación ondulatoria de la luz ya plenamente aceptada, incluso por Einstein que trabajó la Relatividad Especial y luego la General aceptando las ecuaciones de Maxwell y la idea de campo. 

En 1909 el británico Geoffrey Ingram Taylor hizo un experimento de doble rendija con luz de muy baja intensidad aproximándose a lo que sería un experimento de 1X1 o fotón por fotón.

En el Congreso de Solvay de 1911 Einstein defendió la tesis de la “doble naturaleza” de la luz que obtuvo gran oposición, entre otros del propio Planck.  Después vendría el modelo cuántico del átomo de Niels Bohr en 1913.  Einstein realiza otros aportes en esa línea de la cuantización (uno de los cuales prefigura el láser en 1916) y en los años 20 se desata la revolución física de Pauli, Schroedinger, Heisenberg, Dirac, Born, etc. En este contexto De Broglie presenta en 1924 su tesis doctoral sobre la “doble naturaleza” del electrón que recibe confirmación experimental en 1927 por parte de George Paget Thomson (hijo de J.J.) en Universidad de Aberdeen y de Clinton Joseph Davisson y Lester Halbert Germer, en Laboratorios Bell.  Luego se establecería la “doble naturaleza” de otras partículas.  Así pues, materia y radiación electromagnética exhiben esa característica de aparecer en unos experimentos como partículas y en otros como si fuesen ondas, dualidad experimental a la cual, erróneamente, se le llama “doble naturaleza”.

En 1955 Gottfried Mollenstedt y Heinrich Düker obtienen franjas de interferencia con un microscopio electrónico gracias a su invención del biprisma de electrones.  Y en 1961 Claus Jönsson realiza experimentos de rendijas que evidencian interferencia de electrones.

3.       Experimento 1X1 de Pier Giorgio Merli, Franco Missiroli, Giulio Pozzi, (ver imagen).  En este experimento de 1973 la innovación es la posibilidad técnica de lanzar una por una la partícula de prueba (al vacío) con el sorprendente resultado de que el patrón de interferencia se produce a medida que se van acumulando más y más partículas impactando en la pantalla.  ¡Esto es increíble!  Definitivamente no se trata de un fenómeno de interferencia cinética en tiempo real como sucede con las ondas de un estanque o con el sonido.  En este caso se trata de interferencia de ondas de probabilidad. Pero, ¿qué diablos es eso?  ¿un ente matemático o físico? Al comienzo y al final del viaje tenemos una partícula prefectamente determinada.  Pero al parecer no hay una trayectoria definida para cada partícula individual sino una suma de trayectorias con diferentes probabilidades perfectamente matematizables. ¿Cómo diablos computa la realidad esas trayectorias?  ¿qué es lo que realmente sucede entre el principio y el final del viaje de la partícula?  (Es como si durante el viaje la partícula se comportara como onda).  Este experimento 1X1 con electrone fue reproducido por el físico experimental japonés Akiro Tonomura de la Hitachi en 1989, quien no reconoció la primacía del trío italiano.

 


 

4.       El experimento “cuál vía” (“Which way” experiment): en este diseño se coloca un detector en la “entrada” de una de las rendijas, por así decirlo, para saber por cual vía coge la partícula. El resultado es que el patrón de ondas desaparece como predijo Richard Feynmann.  A esto lo denominan “el colapso de la función de ondas”.  Esto fenómeno es el que se ilustra con humor en el meme del muñeco que mira y no mira, el muñeco representa al detector (ver imagen). 

 


 

En este punto hay que tener rigor en el uso del lenguaje, pues muchos introducen la palabra “observador” como si de un juego a las escondidas entre la realidad cuántica y los seres humanos con conciencia se tratara.  De ahí salen un montón de especulaciones subjetivistas, es decir, mala filosofía, en torno a la fantasía de una conciencia con superpoderes mágicos y capaz de crear la realidad.  Nada de eso.  Los fenómenos cuánticos sucedieron desde el Big Bang y durante miles de millones de años antes de que existiera la humanidad, suceden en las estrellas lejanas sin intervención de humanos y pasan todo el tiempo a nuestro alrededor y hasta en nuestro cuerpo sin necesidad de conciencia alguna al respecto.  Lo que produce el “colapso de la función de ondas” es la interacción del sistema cuántico y el sistema clásico del detector, de ahí que el macrosistema conjunto no sea netamente cuántico.  Es un fenómeno objetivo y debe entenderse desde una teoría de la medición.

 

5.       Experimento de escogencia retardada (“Delayed choice”).  En este diseño el detector se coloca después de la barrera con la doble rendija y el resultado es el mismo que en el experimento anterior (“which way”): el patrón de interferencia desaparece siempre que el detector esté encendido y reaparece siempre que esté apagado (por mucho sigilo que tengas para ir a desconectarlo, bromean los físicos).

 

6.       Experimento de escogencia retardada y borrador cuántico (“Delayed choice quantum eraser”), 1999.  Este diseño experimental es mucho más complicado, pues además del rayo láser y la lámina de dos rendijas incluye un cristal especial (que genera entrelazamiento, pues de cada fotón del láser salen dos entrelazados con la mitad de energía), interferometría (beam splitters o desdobladores de haz),  prismas, espejos, un lente y 5 detectores, uno de los cuales hace las veces de pantalla.   

El objetivo del entrelazamiento de fotones es no interactuar con los fotones “señales” sino con sus gemelos entrelazados, apodados fotones “ociosos”.  De esta manera se busca evitar la decoherencia o colapso de función de ondas de los fotones “señales”. 

La idea básica del borrador cuántico es que si desdoblas un haz de fotones en dos “subhaces” que siguen dos rutas diferentes definidas y luego, mediante espejos, los haces confluir y allí los vuelves a desdoblar, vas a obtener dos nuevos subhaces entremezclados, sin que se pueda saber por cual ruta llegó cada fotón de estos dos nuevos subhaces.  Se habrá borrado la información de las rutas previas.

El proceso completo del experimento tiene dos montajes o fases. (1) El primer montaje es el típico experimento de rayo láser y doble rendija, pero con un cristal especial que convierte cada fotón en dos fotones entrelazados con la mitad de energía cada uno.  El cristal está ubicado después de las rendijas por tanto éste es un experimento “delayed choice”.  Luego se ubica un prisma que separa los pares entrelazados de fotones y los manda por rutas diferentes: a) la ruta de los fotones “señal”, con los cuales no habrá interacción, y que, independientemente de por cual rendija hayan pasado (gracias a una lente), van directo al detector-pantalla (en el cual aparecerá el patrón de interferencia o no, resultado esencial del experimento) y  b) la ruta de los fotones “ociosos”, que sí serán medidos.  En esta ruta de los fotones “ociosos”, mediante otro prisma, se separarán los fotones que pasaron por una rendija de los que pasaron por la otra y mediante espejos se enviarán respectivamente a los detectores A y B.  Manejando las distancias se garantiza que un fotón señal siempre llega al detector pantalla antes de que su pareja “ociosa” llegue al detector A o B.  Dado que no se han medido para nada los fotones “señal” debería aparecer un patrón de interferencia.  La medición que define la rendija tomada se ha medido en los fotones “ociosos” y, además, esta medición es posterior, puesto que los fotones “señal” llegan antes.  Pero hete aquí que no aparece patrón de interferencia.  ¡Asombroso!  ¿Cómo puede influir una medición posterior en algo que sucedió antes?  (De todos modos considérese que esta influencia es a través del entrelazamiento cuántico que es una especie de “acción a distancia instantánea”, sólo que en este caso ni siquiera es instantánea sino hacia el pasado, lo que algunos llaman “retrocausal”).

(2) El segundo montaje utiliza el sistema de “borrador cuántico” que ya explicamos antes, desdoblando haces y luego revolviéndolos de tal manera que ahora los fotones llegarán a otros dos detectores C y D, pero con estos detectores no se sabe por cual rendija pasaron. Se ha borrado la información.  Lo sorprendente ahora es que si sólo utilizamos los detectores C y D el patrón de interferencia reaparece.  Y no olvidemos que esta medida con los fotones “ociosos” hecha en los detectores C y D puede ocurrir mucho después de la llegada de los fotones “señal” al detector-pantalla.  En principio los detectores A y B y los detectores C y D podrían estar a millones de kilómetros y aún así se produciría el efecto de que la medición con A y B destruye el patrón de interferencia en la pantalla y con los detectores C y D se restaura.  Pareciera que con información se destruye, sin información se restaura, y todo ello con “retrocausalidad”.   

 

7.       Experimento con moléculas, 2013.  El experimento cuántico de la doble rendija se ha realizado con diferentes tipos de partículas, con átomos enteros, con moléculas pequeñas y algo más grandes como la buckyball de Carbono 60.  El récord está en 810 átomos con 10.000 masas atómicas, establecido en 2013.  Esto nos lleva a la siguiente pregunta: ¿cuál es la frontera entre el nivel cuántico de la realidad y el nivel clásico? ¿hay una frontera para la decoherencia?