Blog de Jorge Senior, emitido desde Barranquilla, Colombia. Estas buhografías constituyen una mirada desde la filosofía científica, la cosmovisión científica, el pensamiento crítico, la Big History y la política antropocénica. Es la Mirada del Búho. Más de 100 entradas para tu disfrute. Dale click al botón Seguir.
lunes, marzo 29, 2021
viernes, marzo 19, 2021
Albert Einstein y la dosis sana de dogmatismo
Albert Einstein y la dosis sana de dogmatismo
Por Jorge Senior
Popper solía poner de ejemplo de
actitud no dogmática a Einstein, especialmente con relación a la Relatividad
General y la predicción diferencial con respecto a la mecánica celeste de
Newton sobre el comportamiento de la luz al pasar cerca del Sol, puesta a
prueba en el eclipse solar del 29 de mayo de 1919. Este caso trata de la curvatura local del
espacio-tiempo.
Sin embargo, la teoría especial
de la relatividad fue refutada por experimentos poco después de formulada en dos
fulgurantes artículos de 1905 en la revista alemana Anales de Física (Annalen der Physik). Como veremos, en este episodio se refuta esa
imagen ejemplarizante y aleccionadora del gran científico judío en la retórica
popperiana.
La falsación de la teoría especial
de la relatividad que se estudiará en este breve artículo fue realizada por el
físico experimental Walter Kaufmann.
Este físico judío alemán tiene el mérito de haber sabido apreciar la
diferencia clave entre la “teoría del electrón” de Einstein y la de Lorentz,
que al principio muchos no captaron debido a que hacían predicciones idénticas.
Einstein utilizó las
tranformaciones de Lorentz, pero su aporte fue mucho más revolucionario: crear
una nueva cinemática, nada menos. Toda
la primera parte del artículo seminal Sobre
la electrodinámica de los cuerpos en movimiento está enfocado en la
cinemática. Allí Einstein aniquila el
concepto absoluto de simultaneidad y sustenta la relatividad de longitudes y
tiempos con respecto a los sistemas de referencia (que el autor llama sistemas
de coordenadas, un detalle semántico que se corregirá después), prescindiendo
por completo del éter. También encuentra
que la velocidad de la luz es una velocidad límite*, algo que ya Thomson (1881,
1893), George Searle (1897) y Hendrik Lorentz (1899, 1900) habían predicho y
calculado. Luego, en la segunda parte,
Einstein pasa a analizar la electrodinámica con ese nuevo marco cinemático de modo
tal que el electromagnetismo, en sus diversas manifestaciones, y su marco
teórico elaborado por Maxwell, queden incluídos en el principio de relatividad
de Galileo. Es decir, logra ampliar este
principio más allá de la mecánica, gracias a abandonar el espacio absoluto de
Newton y el tiempo absoluto de Galileo y Newton.
En esa segunda parte del artículo
Einstein aborda varias aplicaciones de la teoría a modelos específicos
electrodinámicos. En el punto 10 trata
la dinámica del electrón, una partícula descubierta apenas diez años antes por
J.J. Thomson. Dice García Márquez en su
obra maestra Cien años de soledad que
en Macondo “el mundo era tan reciente que muchas cosas carecían de nombre”. Así sucedía en la nueva física que estaba
surgiendo en los inicios del siglo XX, por lo cual Einstein empieza ese acápite
con la frase: “Sea una partícula electricamente cargada con carga e (en adelante llamada un «electrón»)”. En otro artículo de 1906 sugiere, como era su
estilo, un experimento con rayos catódicos que podría poner a prueba sus
ecuaciones de movimiento del electrón.
Pero los experimentos que se
venían haciendo por parte de Kaufmann desde comienzos de siglo no eran con
rayos catódicos (electrones rápidos) sino con rayos Beta (electrones aún más rápidos)
analizando la desviación producida por campos eléctricos y magnéticos. Su más significativo logro fue haber ofrecido
en esos años la primera prueba de la dependencia de la masa con respecto a la
velocidad en el caso de los electrones (se refiere a “masa electromagnética”,
después llamada “masa relativista” (Gilbert Lewis y Richard Tolman en 1909), un
término que Einstein nunca avaló y que hoy ya no se utiliza salvo para efectos
pedagógicos o de divulgación). En 1905
Kaufmann informó que sus resultados experimentales y las predicciones de
Einstein-Lorentz eran inconsistentes, llevando a una intensa discusión en la
comunidad de físicos y sucesivos experimentos a lo largo de varios años en
diversos laboratorios hasta que en 1916 por fin se zanjó el debate gracias a
los trabajos de Guye y Lavanchy (otros dirán que no, que sólo se zanjó en 1940
con los experimentos de Marguerite Rogers, A.W. McReynolds y F.T. Rogers, Jr. publicados
en Physical Review de EEUU, pero ya
desde 1917 la fórmula de Einstein-Lorentz se había probado por otra vía en el
trabajo sobre estructura fina de las líneas de hidrógeno por Karl Glitscher con
fundamento en las elaboraciones de Arnold Sommerfeld).
¿Cuál fue la actitud de Einstein ante los resultados experimentales
incompatibles con su teoría?
A diferencia de Lorentz que expresó
su famosa frase derrotista “au bout du mon Latin”, Einstein ripostó con escepticismo
y dudas sobre tales datos. A esto ayudó
que Planck revisó minuciosamente los experimentos de Kaufmann y sentenció que
no eran lo suficientemente precisos para considerarlos refutación de las predicciones
de Einstein-Lorentz. Algo parecido
informó Röntgen. En 1907 Einstein,
analizando los datos de Kaufmann, escribió: “El que las desviaciones sistemáticas
estén basadas o no en una fuente de error todavía no considerada, o en una
falta de correspondencia entre los fundamentos de la teoría de la relatividad y
los hechos, sólo puede decidirse con seguridad cuando dispongamos de datos
experimentales más numerosos” (Collected
papers, vol. 2, doc. 47, pp. 434-484).
La crítica a los datos
experimentales no fue el único sustento de la actitud mesuradamente dogmática de
Einstein. También tenía razones
teóricas. Por ejemplo, las teorías
alternativas de Abraham y Bucherer** (también Langevin) con ecuaciones de
movimiento del electrón basadas en hipótesis dinámicas -que Einstein
consideraba arbitrarias- le resultaban difíciles de aceptar. En el mismo artículo de 1907 argüía: “En mi
opinión, no obstante, hay que conceder una probabilidad más bien pequeña a
dichas teorías, puesto que sus hipótesis fundamentales sobre la masa de un
electrón en movimiento no están apoyadas por sistemas teóricos que engloben
complejos de fenómenos más amplios”.
Esta crítica al fundamento
teórico de las hipótesis en competencia muestra el aspecto epistemológico racionalista
que Einstein siempre mantuvo, su confianza en la potencia de la teorización, complementario
al empirismo propio de la ciencia experimental.
La epistemología de Einstein era racioempirista. En su concepción, la “teoría del electrón” (en
concreto sus ecuaciones de movimiento) era sólo un teorema o aplicación teórica
deducida desde un marco teórico mucho más amplio, la nueva cinemática que había
propuesto y sus aplicaciones generales a la electrodinámica y que en 1907 ya
Einstein y otros llamaban “la teoría de la relatividad”. Sin duda, Einstein concebía su teoría de la
relatividad de 1905 como un sistema axiomático, cuyos axiomas eran: (1) el
principio de relatividad (que modificaba el de Galileo con las transformaciones
de Lorentz) y (2) la constancia de la velocidad de la luz* (como ley natural
establecida en la teoría electromagnética de Maxwell). En el artículo seminal, sin embargo, no usa
el término “axiomas”, sino “postulados”, para referirse a los que también
denomina “principios” (principios cinemáticos fundamentales). A la “teoría del electrón”, un estructuralista
actual la denominaría Modelo Potencial Parcial (MPP) de la Teoría Especial de
la Relatividad (TER).
Esta pequeña viñeta de la
historia de la física que hemos resumido aquí nos muestra un Einstein diferente
al héroe falsacionista popperiano.
Admitamos que el propio Popper tuvo que morigerar su falsacionismo y
terminó acuñando esta hermosa expresión: “dosis sana de dogmatismo”, asumida
como una cualidad necesaria. En el
episodio narrado no cabe duda que Einstein hizo gala de tal dosis, utilizando para
ello la crítica de los datos y la crítica del marco teórico alternativo, como
recursos argumentativos. Esta actitud
hasta cierto punto dogmática es imprescindible en la ciencia porque el proceso
de contrastación empírica no es instantáneo, sino que se prolonga en el
tiempo. ¿Meses? ¿Años? ¿Décadas? No hay una regla, simplemente hasta que la
comunidad científica agote el asunto. Esto
significa que la evaluación de los
modelos de cambio científico es dependiente de la escala de tiempo. En el tema mencionado del electrón pasaron 11
años, pero por ejemplo en la predicción de las ondas gravitacionales pasó casi
un siglo. Y no se debe olvidar que
incluso si el asunto se zanjara negativamente para una teoría, la dosis sana de
dogmatismo tiene alternativas como recortar el dominio de aplicación, alterar
el “cinturón protector” o proponer hipótesis ad hoc. Como si fuera poco,
las teorías refutadas pueden seguir siendo utilizadas en la práctica si hay
ventajas en ello. Y no sólo en la
práctica, también en la teoría pueden ser sacadas de la gaveta histórica para
ensayar una versión modificada. Es lo
que sucede con la física newtoniana, ampliamente usada en ingeniería pero
también desempolvada para ensayar enfoques newtonianos modificados en estudios
cosmológicos sobre la gravedad (hipótesis MOND alternativa a la materia oscura).
*Nota: la “velocidad de la luz en
el vacío” es una constante fundamental de la naturaleza, pero no por tratarse
de la luz o porque el electromagnetismo tenga un protagonismo especial. Las ondas gravitacionales, por ejemplo,
también se propagan a esa misma velocidad.
En física relativista esta constante fundamental es una velocidad límite
que corresponde a cualquier objeto sin masa en reposo (masa invariante). La luz tiene esa velocidad por el hecho
circunstancial, experimental pero no exigido por la teoría, de ser el fotón una
partícula sin masa en reposo.
**Hay que reconocerle a Bucherer
a que en 1908 hizo experimentos en los cuales concluyó que su propia teoría
estaba equivocada y las equivalentes de Lorentz-Einstein eran consistentes con
los resultados.
sábado, marzo 06, 2021
Los 10 experimentos más bellos de la historia
En septiembre de 2002 la revista Physics World publicó los resultados de un sondeo entre sus lectores sobre los 10 experimentos más hermosos de la historia.
Estos fueron los resultados:
1. El experimento tipo doble rendija (pero con biprisma) con patrón de interferencia electrón por electrón (Merli, Pozzi y Missiroli, 1973). Ver la entrada anterior de este blog.
2. El experimento de Galileo de la caída de los cuerpos a comienzos del siglo XVII. Este experimento fue repetido en la Luna con un martillo y una pluma.
3. El experimento de la gota de aceite de Millikan a comienzos de la segunda década del siglo XX.
4. La descomposición de la luz solar con un prisma por parte de Newton en 1666-7.
5. El experimento de la doble rendija de Thomas Young en 1801 con patrón de interferencia.
6. El experimento de la barra de torsión de Cavendish en 1798.
7. La medición de la circunferencia de la Tierra en el siglo III a.C. por Eratóstenes.
8. El experimento de bolas rodantes por un plano inclinado por parte de Galileo a comienzos del siglo XVII.
9. El experimento de Rutherford con el cual descubrió el núcleo del átomo en 1911.
10. El péndulo de Foucault en 1851.
En ese momento quizás el público no conocía el experimento Delayed choice quantum eraser de 1999 que sin duda merecería estar en la lista. (ver la entrada anterior en este blog).
jueves, marzo 04, 2021
Experimentos de la doble doble rendija rendija
Experimentos de la doble rendija
Por Jorge Senior
Lo que solemos llamar “el
experimento de la doble rendija” es en realidad una serie de experimentos
diferentes a lo largo de más de dos siglos.
1.
El experimento que inauguró este camino asaltado
de sorpresas y lleno de asombros fue el que realizó Thomas Young en 1801. Este es un experimento casero que podemos
reproducir con elementos baratos de la cotidianidad, pero no por ello deja de
ser tremendamente ingenioso y exigente en cuanto a la preparación
cuidadosa.
El experimento
de Young se da en el contexto del debate centenario entre dos concepciones
sobre la luz: la newtoniana de carácter corpuscular y la de Hooke y Huygens de
carácter ondulatorio.
Sin entrar en
detalles técnicos el diseño consiste en pasar un haz de luz (preferiblemente
monocromática) por una rendija y observar el patrón que se forma cuando la luz
llega hasta una pantalla. Este patrón
puede ser consistente con ambas concepciones.
Pero el asunto se torna interesante cuando son dos rendijas en
disposición adecuada. Entonces se forma
un claro patrón de franjas paralalelas, fácilmente explicable para la
concepción ondulatoria como un patrón de interferencia, pero no asimilable para
la visión corpuscular. Éste sería, pues,
un experimentum crucis. El experimento fue presentado en la Royal
Society. Y su consecuencia histórica es
que la concepción ondulatoria de la luz se impondría ampliamente en ese siglo.
2.
En el siglo XX se realizan nuevas versiones del
experimento en el marco del surgimiento y desarrollo de la mecánica
cuántica. En 1900 Max Planck había
planteado la hipótesis cuántica como un truco matemático para modelar el
fenómeno de la radiación de cuerpo negro. En el annus mirabilis de Einstein éste formuló una interpretación física
del “cuanto de luz” (despúes llamado “fotón”) para modelar el efecto
fotoeléctrico. Esto parecía ir en
contravía de la interpretación ondulatoria de la luz ya plenamente aceptada, incluso
por Einstein que trabajó la Relatividad Especial y luego la General aceptando
las ecuaciones de Maxwell y la idea de campo.
En 1909 el
británico Geoffrey Ingram Taylor hizo un experimento de doble rendija con luz
de muy baja intensidad aproximándose a lo que sería un experimento de 1X1 o
fotón por fotón.
En el Congreso
de Solvay de 1911 Einstein defendió la tesis de la “doble naturaleza” de la luz
que obtuvo gran oposición, entre otros del propio Planck. Después vendría el modelo cuántico del átomo
de Niels Bohr en 1913. Einstein realiza
otros aportes en esa línea de la cuantización (uno de los cuales prefigura el
láser en 1916) y en los años 20 se desata la revolución física de Pauli,
Schroedinger, Heisenberg, Dirac, Born, etc. En este contexto De Broglie
presenta en 1924 su tesis doctoral sobre la “doble naturaleza” del electrón que
recibe confirmación experimental en 1927 por parte de George Paget Thomson (hijo
de J.J.) en Universidad de Aberdeen y de Clinton Joseph Davisson y Lester
Halbert Germer, en Laboratorios Bell.
Luego se establecería la “doble naturaleza” de otras partículas. Así pues, materia y radiación
electromagnética exhiben esa característica de aparecer en unos experimentos
como partículas y en otros como si fuesen ondas, dualidad experimental a la
cual, erróneamente, se le llama “doble naturaleza”.
En 1955
Gottfried Mollenstedt y Heinrich Düker obtienen franjas de interferencia con un
microscopio electrónico gracias a su invención del biprisma de electrones. Y en 1961 Claus Jönsson realiza experimentos
de rendijas que evidencian interferencia de electrones.
3.
Experimento 1X1 de Pier Giorgio Merli, Franco Missiroli,
Giulio Pozzi, (ver imagen). En este experimento
de 1973 la innovación es la posibilidad técnica de lanzar una por una la
partícula de prueba (al vacío) con el sorprendente resultado de que el patrón
de interferencia se produce a medida que se van acumulando más y más partículas
impactando en la pantalla. ¡Esto es
increíble! Definitivamente no se trata
de un fenómeno de interferencia cinética en tiempo real como sucede con las
ondas de un estanque o con el sonido. En
este caso se trata de interferencia de ondas de probabilidad. Pero, ¿qué
diablos es eso? ¿un ente matemático o
físico? Al comienzo y al final del viaje tenemos una partícula prefectamente
determinada. Pero al parecer no hay una
trayectoria definida para cada partícula individual sino una suma de
trayectorias con diferentes probabilidades perfectamente matematizables. ¿Cómo
diablos computa la realidad esas trayectorias?
¿qué es lo que realmente sucede entre el principio y el final del viaje
de la partícula? (Es como si durante el
viaje la partícula se comportara como onda).
Este experimento 1X1 con electrone fue reproducido por el físico
experimental japonés Akiro Tonomura de la Hitachi en 1989, quien no reconoció
la primacía del trío italiano.
4.
El experimento “cuál vía” (“Which way”
experiment): en este diseño se coloca un detector en la “entrada” de una de las
rendijas, por así decirlo, para saber por cual vía coge la partícula. El
resultado es que el patrón de ondas desaparece como predijo Richard Feynmann. A esto lo denominan “el colapso de la función
de ondas”. Esto fenómeno es el que se
ilustra con humor en el meme del muñeco que mira y no mira, el muñeco
representa al detector (ver imagen).
En este punto hay
que tener rigor en el uso del lenguaje, pues muchos introducen la palabra
“observador” como si de un juego a las escondidas entre la realidad cuántica y
los seres humanos con conciencia se tratara.
De ahí salen un montón de especulaciones subjetivistas, es decir, mala
filosofía, en torno a la fantasía de una conciencia con superpoderes mágicos y
capaz de crear la realidad. Nada de
eso. Los fenómenos cuánticos sucedieron
desde el Big Bang y durante miles de millones de años antes de que existiera la
humanidad, suceden en las estrellas lejanas sin intervención de humanos y pasan
todo el tiempo a nuestro alrededor y hasta en nuestro cuerpo sin necesidad de
conciencia alguna al respecto. Lo que
produce el “colapso de la función de ondas” es la interacción del sistema
cuántico y el sistema clásico del detector, de ahí que el macrosistema conjunto
no sea netamente cuántico. Es un
fenómeno objetivo y debe entenderse desde una teoría de la medición.
5.
Experimento de escogencia retardada (“Delayed
choice”). En este diseño el detector se
coloca después de la barrera con la doble rendija y el resultado es el mismo
que en el experimento anterior (“which way”): el patrón de interferencia
desaparece siempre que el detector esté encendido y reaparece siempre que esté
apagado (por mucho sigilo que tengas para ir a desconectarlo, bromean los
físicos).
6.
Experimento de escogencia retardada y borrador
cuántico (“Delayed choice quantum eraser”), 1999. Este diseño experimental es mucho más
complicado, pues además del rayo láser y la lámina de dos rendijas incluye un
cristal especial (que genera entrelazamiento, pues de cada fotón del láser
salen dos entrelazados con la mitad de energía), interferometría (beam
splitters o desdobladores de haz), prismas, espejos, un lente y 5 detectores, uno
de los cuales hace las veces de pantalla.
El objetivo del
entrelazamiento de fotones es no interactuar con los fotones “señales” sino con
sus gemelos entrelazados, apodados fotones “ociosos”. De esta manera se busca evitar la
decoherencia o colapso de función de ondas de los fotones “señales”.
La idea básica
del borrador cuántico es que si desdoblas un haz de fotones en dos “subhaces”
que siguen dos rutas diferentes definidas y luego, mediante espejos, los haces
confluir y allí los vuelves a desdoblar, vas a obtener dos nuevos subhaces
entremezclados, sin que se pueda saber por cual ruta llegó cada fotón de estos
dos nuevos subhaces. Se habrá borrado la
información de las rutas previas.
El proceso
completo del experimento tiene dos montajes o fases. (1) El primer montaje es
el típico experimento de rayo láser y doble rendija, pero con un cristal
especial que convierte cada fotón en dos fotones entrelazados con la mitad de
energía cada uno. El cristal está
ubicado después de las rendijas por tanto éste es un experimento “delayed
choice”. Luego se ubica un prisma que
separa los pares entrelazados de fotones y los manda por rutas diferentes: a)
la ruta de los fotones “señal”, con los cuales no habrá interacción, y que,
independientemente de por cual rendija hayan pasado (gracias a una lente), van
directo al detector-pantalla (en el cual aparecerá el patrón de interferencia o
no, resultado esencial del experimento) y
b) la ruta de los fotones “ociosos”, que sí serán medidos. En esta ruta de los fotones “ociosos”,
mediante otro prisma, se separarán los fotones que pasaron por una rendija de
los que pasaron por la otra y mediante espejos se enviarán respectivamente a
los detectores A y B. Manejando las
distancias se garantiza que un fotón señal siempre llega al detector pantalla
antes de que su pareja “ociosa” llegue al detector A o B. Dado que no se han medido para nada los
fotones “señal” debería aparecer un patrón de interferencia. La medición que define la rendija tomada se
ha medido en los fotones “ociosos” y, además, esta medición es posterior,
puesto que los fotones “señal” llegan antes.
Pero hete aquí que no aparece patrón de interferencia. ¡Asombroso!
¿Cómo puede influir una medición posterior en algo que sucedió
antes? (De todos modos considérese que
esta influencia es a través del entrelazamiento cuántico que es una especie de
“acción a distancia instantánea”, sólo que en este caso ni siquiera es
instantánea sino hacia el pasado, lo que algunos llaman “retrocausal”).
(2) El segundo
montaje utiliza el sistema de “borrador cuántico” que ya explicamos antes,
desdoblando haces y luego revolviéndolos de tal manera que ahora los fotones
llegarán a otros dos detectores C y D, pero con estos detectores no se sabe por
cual rendija pasaron. Se ha borrado la información. Lo sorprendente ahora es que si sólo
utilizamos los detectores C y D el patrón de interferencia reaparece. Y no olvidemos que esta medida con los
fotones “ociosos” hecha en los detectores C y D puede ocurrir mucho después de
la llegada de los fotones “señal” al detector-pantalla. En principio los detectores A y B y los
detectores C y D podrían estar a millones de kilómetros y aún así se produciría
el efecto de que la medición con A y B destruye el patrón de interferencia en
la pantalla y con los detectores C y D se restaura. Pareciera que con información se destruye,
sin información se restaura, y todo ello con “retrocausalidad”.
7.
Experimento con moléculas, 2013. El experimento cuántico de la doble rendija
se ha realizado con diferentes tipos de partículas, con átomos enteros, con
moléculas pequeñas y algo más grandes como la buckyball de Carbono 60. El récord está en 810 átomos con 10.000 masas
atómicas, establecido en 2013. Esto nos
lleva a la siguiente pregunta: ¿cuál es la frontera entre el nivel cuántico de
la realidad y el nivel clásico? ¿hay una frontera para la decoherencia?