viernes, marzo 19, 2021

Albert Einstein y la dosis sana de dogmatismo


Albert Einstein y la dosis sana de dogmatismo

Por Jorge Senior

Popper solía poner de ejemplo de actitud no dogmática a Einstein, especialmente con relación a la Relatividad General y la predicción diferencial con respecto a la mecánica celeste de Newton sobre el comportamiento de la luz al pasar cerca del Sol, puesta a prueba en el eclipse solar del 29 de mayo de 1919.  Este caso trata de la curvatura local del espacio-tiempo.

Sin embargo, la teoría especial de la relatividad fue refutada por experimentos poco después de formulada en dos fulgurantes artículos de 1905 en la revista alemana Anales de Física (Annalen der Physik).  Como veremos, en este episodio se refuta esa imagen ejemplarizante y aleccionadora del gran científico judío en la retórica popperiana.

La falsación de la teoría especial de la relatividad que se estudiará en este breve artículo fue realizada por el físico experimental Walter Kaufmann.  Este físico judío alemán tiene el mérito de haber sabido apreciar la diferencia clave entre la “teoría del electrón” de Einstein y la de Lorentz, que al principio muchos no captaron debido a que hacían predicciones idénticas. 

Einstein utilizó las tranformaciones de Lorentz, pero su aporte fue mucho más revolucionario: crear una nueva cinemática, nada menos.  Toda la primera parte del artículo seminal Sobre la electrodinámica de los cuerpos en movimiento está enfocado en la cinemática.  Allí Einstein aniquila el concepto absoluto de simultaneidad y sustenta la relatividad de longitudes y tiempos con respecto a los sistemas de referencia (que el autor llama sistemas de coordenadas, un detalle semántico que se corregirá después), prescindiendo por completo del éter.  También encuentra que la velocidad de la luz es una velocidad límite*, algo que ya Thomson (1881, 1893), George Searle (1897) y Hendrik Lorentz (1899, 1900) habían predicho y calculado.  Luego, en la segunda parte, Einstein pasa a analizar la electrodinámica con ese nuevo marco cinemático de modo tal que el electromagnetismo, en sus diversas manifestaciones, y su marco teórico elaborado por Maxwell, queden incluídos en el principio de relatividad de Galileo.  Es decir, logra ampliar este principio más allá de la mecánica, gracias a abandonar el espacio absoluto de Newton y el tiempo absoluto de Galileo y Newton.

En esa segunda parte del artículo Einstein aborda varias aplicaciones de la teoría a modelos específicos electrodinámicos.  En el punto 10 trata la dinámica del electrón, una partícula descubierta apenas diez años antes por J.J. Thomson.  Dice García Márquez en su obra maestra Cien años de soledad que en Macondo “el mundo era tan reciente que muchas cosas carecían de nombre”.  Así sucedía en la nueva física que estaba surgiendo en los inicios del siglo XX, por lo cual Einstein empieza ese acápite con la frase: “Sea una partícula electricamente cargada con carga e (en adelante llamada un «electrón»)”.  En otro artículo de 1906 sugiere, como era su estilo, un experimento con rayos catódicos que podría poner a prueba sus ecuaciones de movimiento del electrón.

Pero los experimentos que se venían haciendo por parte de Kaufmann desde comienzos de siglo no eran con rayos catódicos (electrones rápidos) sino con rayos Beta (electrones aún más rápidos) analizando la desviación producida por campos eléctricos y magnéticos.  Su más significativo logro fue haber ofrecido en esos años la primera prueba de la dependencia de la masa con respecto a la velocidad en el caso de los electrones (se refiere a “masa electromagnética”, después llamada “masa relativista” (Gilbert Lewis y Richard Tolman en 1909), un término que Einstein nunca avaló y que hoy ya no se utiliza salvo para efectos pedagógicos o de divulgación).  En 1905 Kaufmann informó que sus resultados experimentales y las predicciones de Einstein-Lorentz eran inconsistentes, llevando a una intensa discusión en la comunidad de físicos y sucesivos experimentos a lo largo de varios años en diversos laboratorios hasta que en 1916 por fin se zanjó el debate gracias a los trabajos de Guye y Lavanchy (otros dirán que no, que sólo se zanjó en 1940 con los experimentos de Marguerite Rogers, A.W. McReynolds y F.T. Rogers, Jr. publicados en Physical Review de EEUU, pero ya desde 1917 la fórmula de Einstein-Lorentz se había probado por otra vía en el trabajo sobre estructura fina de las líneas de hidrógeno por Karl Glitscher con fundamento en las elaboraciones de Arnold Sommerfeld).

¿Cuál fue la actitud de Einstein ante los resultados experimentales incompatibles con su teoría? 

A diferencia de Lorentz que expresó su famosa frase derrotista “au bout du mon Latin”, Einstein ripostó con escepticismo y dudas sobre tales datos.  A esto ayudó que Planck revisó minuciosamente los experimentos de Kaufmann y sentenció que no eran lo suficientemente precisos para considerarlos refutación de las predicciones de Einstein-Lorentz.  Algo parecido informó Röntgen.  En 1907 Einstein, analizando los datos de Kaufmann, escribió: “El que las desviaciones sistemáticas estén basadas o no en una fuente de error todavía no considerada, o en una falta de correspondencia entre los fundamentos de la teoría de la relatividad y los hechos, sólo puede decidirse con seguridad cuando dispongamos de datos experimentales más numerosos” (Collected papers, vol. 2, doc. 47, pp. 434-484).

La crítica a los datos experimentales no fue el único sustento de la actitud mesuradamente dogmática de Einstein.  También tenía razones teóricas.  Por ejemplo, las teorías alternativas de Abraham y Bucherer** (también Langevin) con ecuaciones de movimiento del electrón basadas en hipótesis dinámicas -que Einstein consideraba arbitrarias- le resultaban difíciles de aceptar.  En el mismo artículo de 1907 argüía: “En mi opinión, no obstante, hay que conceder una probabilidad más bien pequeña a dichas teorías, puesto que sus hipótesis fundamentales sobre la masa de un electrón en movimiento no están apoyadas por sistemas teóricos que engloben complejos de fenómenos más amplios”. 

Esta crítica al fundamento teórico de las hipótesis en competencia muestra el aspecto epistemológico racionalista que Einstein siempre mantuvo, su confianza en la potencia de la teorización, complementario al empirismo propio de la ciencia experimental.  La epistemología de Einstein era racioempirista.  En su concepción, la “teoría del electrón” (en concreto sus ecuaciones de movimiento) era sólo un teorema o aplicación teórica deducida desde un marco teórico mucho más amplio, la nueva cinemática que había propuesto y sus aplicaciones generales a la electrodinámica y que en 1907 ya Einstein y otros llamaban “la teoría de la relatividad”.  Sin duda, Einstein concebía su teoría de la relatividad de 1905 como un sistema axiomático, cuyos axiomas eran: (1) el principio de relatividad (que modificaba el de Galileo con las transformaciones de Lorentz) y (2) la constancia de la velocidad de la luz* (como ley natural establecida en la teoría electromagnética de Maxwell).  En el artículo seminal, sin embargo, no usa el término “axiomas”, sino “postulados”, para referirse a los que también denomina “principios” (principios cinemáticos fundamentales).  A la “teoría del electrón”, un estructuralista actual la denominaría Modelo Potencial Parcial (MPP) de la Teoría Especial de la Relatividad (TER).

Esta pequeña viñeta de la historia de la física que hemos resumido aquí nos muestra un Einstein diferente al héroe falsacionista popperiano.  Admitamos que el propio Popper tuvo que morigerar su falsacionismo y terminó acuñando esta hermosa expresión: “dosis sana de dogmatismo”, asumida como una cualidad necesaria.  En el episodio narrado no cabe duda que Einstein hizo gala de tal dosis, utilizando para ello la crítica de los datos y la crítica del marco teórico alternativo, como recursos argumentativos.  Esta actitud hasta cierto punto dogmática es imprescindible en la ciencia porque el proceso de contrastación empírica no es instantáneo, sino que se prolonga en el tiempo.  ¿Meses? ¿Años? ¿Décadas?  No hay una regla, simplemente hasta que la comunidad científica agote el asunto.  Esto significa que la evaluación de los modelos de cambio científico es dependiente de la escala de tiempo.  En el tema mencionado del electrón pasaron 11 años, pero por ejemplo en la predicción de las ondas gravitacionales pasó casi un siglo.  Y no se debe olvidar que incluso si el asunto se zanjara negativamente para una teoría, la dosis sana de dogmatismo tiene alternativas como recortar el dominio de aplicación, alterar el “cinturón protector” o proponer hipótesis ad hoc.  Como si fuera poco, las teorías refutadas pueden seguir siendo utilizadas en la práctica si hay ventajas en ello.  Y no sólo en la práctica, también en la teoría pueden ser sacadas de la gaveta histórica para ensayar una versión modificada.  Es lo que sucede con la física newtoniana, ampliamente usada en ingeniería pero también desempolvada para ensayar enfoques newtonianos modificados en estudios cosmológicos sobre la gravedad (hipótesis MOND alternativa a la materia oscura).

*Nota: la “velocidad de la luz en el vacío” es una constante fundamental de la naturaleza, pero no por tratarse de la luz o porque el electromagnetismo tenga un protagonismo especial.  Las ondas gravitacionales, por ejemplo, también se propagan a esa misma velocidad.  En física relativista esta constante fundamental es una velocidad límite que corresponde a cualquier objeto sin masa en reposo (masa invariante).  La luz tiene esa velocidad por el hecho circunstancial, experimental pero no exigido por la teoría, de ser el fotón una partícula sin masa en reposo. 

**Hay que reconocerle a Bucherer a que en 1908 hizo experimentos en los cuales concluyó que su propia teoría estaba equivocada y las equivalentes de Lorentz-Einstein eran consistentes con los resultados.

sábado, marzo 06, 2021

Los 10 experimentos más bellos de la historia

 En septiembre de 2002 la revista Physics World publicó los resultados de un sondeo entre sus lectores sobre los 10 experimentos más hermosos de la historia.

Estos fueron los resultados:

1. El experimento tipo doble rendija (pero con biprisma) con patrón de interferencia electrón por electrón (Merli, Pozzi y Missiroli, 1973). Ver la entrada anterior de este blog.

2. El experimento de Galileo de la caída de los cuerpos a comienzos del siglo XVII.  Este experimento fue repetido en la Luna con un martillo y una pluma.

3. El experimento de la gota de aceite de Millikan a comienzos de la segunda década del siglo XX.

4. La descomposición de la luz solar con un prisma por parte de Newton en 1666-7.

5. El experimento de la doble rendija de Thomas Young en 1801 con patrón de interferencia.

6. El experimento de la barra de torsión de Cavendish en 1798.

7. La medición de la circunferencia de la Tierra en el siglo III a.C. por Eratóstenes.

8. El experimento de bolas rodantes por un plano inclinado por parte de Galileo a comienzos del siglo XVII.

9. El experimento de Rutherford con el cual descubrió el núcleo del átomo en 1911.

10.  El péndulo de Foucault en 1851.

En ese momento quizás el público no conocía el experimento Delayed choice quantum eraser de 1999 que sin duda merecería estar en la lista. (ver la entrada anterior en este blog). 

jueves, marzo 04, 2021

Experimentos de la doble doble rendija rendija

Experimentos de la doble rendija                   

Por Jorge Senior

 

Lo que solemos llamar “el experimento de la doble rendija” es en realidad una serie de experimentos diferentes a lo largo de más de dos siglos.

1.       El experimento que inauguró este camino asaltado de sorpresas y lleno de asombros fue el que realizó Thomas Young en 1801.  Este es un experimento casero que podemos reproducir con elementos baratos de la cotidianidad, pero no por ello deja de ser tremendamente ingenioso y exigente en cuanto a la preparación cuidadosa. 

El experimento de Young se da en el contexto del debate centenario entre dos concepciones sobre la luz: la newtoniana de carácter corpuscular y la de Hooke y Huygens de carácter ondulatorio.

Sin entrar en detalles técnicos el diseño consiste en pasar un haz de luz (preferiblemente monocromática) por una rendija y observar el patrón que se forma cuando la luz llega hasta una pantalla.  Este patrón puede ser consistente con ambas concepciones.  Pero el asunto se torna interesante cuando son dos rendijas en disposición adecuada.  Entonces se forma un claro patrón de franjas paralalelas, fácilmente explicable para la concepción ondulatoria como un patrón de interferencia, pero no asimilable para la visión corpuscular.  Éste sería, pues, un experimentum crucis.  El experimento fue presentado en la Royal Society.  Y su consecuencia histórica es que la concepción ondulatoria de la luz se impondría ampliamente en ese siglo.

2.       En el siglo XX se realizan nuevas versiones del experimento en el marco del surgimiento y desarrollo de la mecánica cuántica.  En 1900 Max Planck había planteado la hipótesis cuántica como un truco matemático para modelar el fenómeno de la radiación de cuerpo negro. En el annus mirabilis de Einstein éste formuló una interpretación física del “cuanto de luz” (despúes llamado “fotón”) para modelar el efecto fotoeléctrico.  Esto parecía ir en contravía de la interpretación ondulatoria de la luz ya plenamente aceptada, incluso por Einstein que trabajó la Relatividad Especial y luego la General aceptando las ecuaciones de Maxwell y la idea de campo. 

En 1909 el británico Geoffrey Ingram Taylor hizo un experimento de doble rendija con luz de muy baja intensidad aproximándose a lo que sería un experimento de 1X1 o fotón por fotón.

En el Congreso de Solvay de 1911 Einstein defendió la tesis de la “doble naturaleza” de la luz que obtuvo gran oposición, entre otros del propio Planck.  Después vendría el modelo cuántico del átomo de Niels Bohr en 1913.  Einstein realiza otros aportes en esa línea de la cuantización (uno de los cuales prefigura el láser en 1916) y en los años 20 se desata la revolución física de Pauli, Schroedinger, Heisenberg, Dirac, Born, etc. En este contexto De Broglie presenta en 1924 su tesis doctoral sobre la “doble naturaleza” del electrón que recibe confirmación experimental en 1927 por parte de George Paget Thomson (hijo de J.J.) en Universidad de Aberdeen y de Clinton Joseph Davisson y Lester Halbert Germer, en Laboratorios Bell.  Luego se establecería la “doble naturaleza” de otras partículas.  Así pues, materia y radiación electromagnética exhiben esa característica de aparecer en unos experimentos como partículas y en otros como si fuesen ondas, dualidad experimental a la cual, erróneamente, se le llama “doble naturaleza”.

En 1955 Gottfried Mollenstedt y Heinrich Düker obtienen franjas de interferencia con un microscopio electrónico gracias a su invención del biprisma de electrones.  Y en 1961 Claus Jönsson realiza experimentos de rendijas que evidencian interferencia de electrones.

3.       Experimento 1X1 de Pier Giorgio Merli, Franco Missiroli, Giulio Pozzi, (ver imagen).  En este experimento de 1973 la innovación es la posibilidad técnica de lanzar una por una la partícula de prueba (al vacío) con el sorprendente resultado de que el patrón de interferencia se produce a medida que se van acumulando más y más partículas impactando en la pantalla.  ¡Esto es increíble!  Definitivamente no se trata de un fenómeno de interferencia cinética en tiempo real como sucede con las ondas de un estanque o con el sonido.  En este caso se trata de interferencia de ondas de probabilidad. Pero, ¿qué diablos es eso?  ¿un ente matemático o físico? Al comienzo y al final del viaje tenemos una partícula prefectamente determinada.  Pero al parecer no hay una trayectoria definida para cada partícula individual sino una suma de trayectorias con diferentes probabilidades perfectamente matematizables. ¿Cómo diablos computa la realidad esas trayectorias?  ¿qué es lo que realmente sucede entre el principio y el final del viaje de la partícula?  (Es como si durante el viaje la partícula se comportara como onda).  Este experimento 1X1 con electrone fue reproducido por el físico experimental japonés Akiro Tonomura de la Hitachi en 1989, quien no reconoció la primacía del trío italiano.

 


 

4.       El experimento “cuál vía” (“Which way” experiment): en este diseño se coloca un detector en la “entrada” de una de las rendijas, por así decirlo, para saber por cual vía coge la partícula. El resultado es que el patrón de ondas desaparece como predijo Richard Feynmann.  A esto lo denominan “el colapso de la función de ondas”.  Esto fenómeno es el que se ilustra con humor en el meme del muñeco que mira y no mira, el muñeco representa al detector (ver imagen). 

 


 

En este punto hay que tener rigor en el uso del lenguaje, pues muchos introducen la palabra “observador” como si de un juego a las escondidas entre la realidad cuántica y los seres humanos con conciencia se tratara.  De ahí salen un montón de especulaciones subjetivistas, es decir, mala filosofía, en torno a la fantasía de una conciencia con superpoderes mágicos y capaz de crear la realidad.  Nada de eso.  Los fenómenos cuánticos sucedieron desde el Big Bang y durante miles de millones de años antes de que existiera la humanidad, suceden en las estrellas lejanas sin intervención de humanos y pasan todo el tiempo a nuestro alrededor y hasta en nuestro cuerpo sin necesidad de conciencia alguna al respecto.  Lo que produce el “colapso de la función de ondas” es la interacción del sistema cuántico y el sistema clásico del detector, de ahí que el macrosistema conjunto no sea netamente cuántico.  Es un fenómeno objetivo y debe entenderse desde una teoría de la medición.

 

5.       Experimento de escogencia retardada (“Delayed choice”).  En este diseño el detector se coloca después de la barrera con la doble rendija y el resultado es el mismo que en el experimento anterior (“which way”): el patrón de interferencia desaparece siempre que el detector esté encendido y reaparece siempre que esté apagado (por mucho sigilo que tengas para ir a desconectarlo, bromean los físicos).

 

6.       Experimento de escogencia retardada y borrador cuántico (“Delayed choice quantum eraser”), 1999.  Este diseño experimental es mucho más complicado, pues además del rayo láser y la lámina de dos rendijas incluye un cristal especial (que genera entrelazamiento, pues de cada fotón del láser salen dos entrelazados con la mitad de energía), interferometría (beam splitters o desdobladores de haz),  prismas, espejos, un lente y 5 detectores, uno de los cuales hace las veces de pantalla.   

El objetivo del entrelazamiento de fotones es no interactuar con los fotones “señales” sino con sus gemelos entrelazados, apodados fotones “ociosos”.  De esta manera se busca evitar la decoherencia o colapso de función de ondas de los fotones “señales”. 

La idea básica del borrador cuántico es que si desdoblas un haz de fotones en dos “subhaces” que siguen dos rutas diferentes definidas y luego, mediante espejos, los haces confluir y allí los vuelves a desdoblar, vas a obtener dos nuevos subhaces entremezclados, sin que se pueda saber por cual ruta llegó cada fotón de estos dos nuevos subhaces.  Se habrá borrado la información de las rutas previas.

El proceso completo del experimento tiene dos montajes o fases. (1) El primer montaje es el típico experimento de rayo láser y doble rendija, pero con un cristal especial que convierte cada fotón en dos fotones entrelazados con la mitad de energía cada uno.  El cristal está ubicado después de las rendijas por tanto éste es un experimento “delayed choice”.  Luego se ubica un prisma que separa los pares entrelazados de fotones y los manda por rutas diferentes: a) la ruta de los fotones “señal”, con los cuales no habrá interacción, y que, independientemente de por cual rendija hayan pasado (gracias a una lente), van directo al detector-pantalla (en el cual aparecerá el patrón de interferencia o no, resultado esencial del experimento) y  b) la ruta de los fotones “ociosos”, que sí serán medidos.  En esta ruta de los fotones “ociosos”, mediante otro prisma, se separarán los fotones que pasaron por una rendija de los que pasaron por la otra y mediante espejos se enviarán respectivamente a los detectores A y B.  Manejando las distancias se garantiza que un fotón señal siempre llega al detector pantalla antes de que su pareja “ociosa” llegue al detector A o B.  Dado que no se han medido para nada los fotones “señal” debería aparecer un patrón de interferencia.  La medición que define la rendija tomada se ha medido en los fotones “ociosos” y, además, esta medición es posterior, puesto que los fotones “señal” llegan antes.  Pero hete aquí que no aparece patrón de interferencia.  ¡Asombroso!  ¿Cómo puede influir una medición posterior en algo que sucedió antes?  (De todos modos considérese que esta influencia es a través del entrelazamiento cuántico que es una especie de “acción a distancia instantánea”, sólo que en este caso ni siquiera es instantánea sino hacia el pasado, lo que algunos llaman “retrocausal”).

(2) El segundo montaje utiliza el sistema de “borrador cuántico” que ya explicamos antes, desdoblando haces y luego revolviéndolos de tal manera que ahora los fotones llegarán a otros dos detectores C y D, pero con estos detectores no se sabe por cual rendija pasaron. Se ha borrado la información.  Lo sorprendente ahora es que si sólo utilizamos los detectores C y D el patrón de interferencia reaparece.  Y no olvidemos que esta medida con los fotones “ociosos” hecha en los detectores C y D puede ocurrir mucho después de la llegada de los fotones “señal” al detector-pantalla.  En principio los detectores A y B y los detectores C y D podrían estar a millones de kilómetros y aún así se produciría el efecto de que la medición con A y B destruye el patrón de interferencia en la pantalla y con los detectores C y D se restaura.  Pareciera que con información se destruye, sin información se restaura, y todo ello con “retrocausalidad”.   

 

7.       Experimento con moléculas, 2013.  El experimento cuántico de la doble rendija se ha realizado con diferentes tipos de partículas, con átomos enteros, con moléculas pequeñas y algo más grandes como la buckyball de Carbono 60.  El récord está en 810 átomos con 10.000 masas atómicas, establecido en 2013.  Esto nos lleva a la siguiente pregunta: ¿cuál es la frontera entre el nivel cuántico de la realidad y el nivel clásico? ¿hay una frontera para la decoherencia?

 

 

viernes, febrero 26, 2021

Preguntas y respuestas sobre el espacio y el tiempo

 


Preguntas

 

1.       ¿El espacio y el tiempo existen objetivamente o sólo en nuestra mente?

[Problema de la objetividad / subjetividad]

 

2.       ¿En ausencia de materia existen el espacio y el tiempo?

[Problema de la existencia independiente o debate substancialismo vs relacionismo]

 

3.       ¿El espacio-tiempo es discreto o continuo?

[El problema de la microestructura cuántica]

 

4.       ¿El espacio y el tiempo son emergentes?

[Integra las preguntas 2 y 3]

 

5.       ¿Espacio y tiempo son entidades separadas?

[El problema de la doble naturaleza] [¿En qué sentido son distintos entonces?]

 

6.       ¿El tiempo fluye? ¿Existe sólo el presente?

[Debate presentismo vs eternalismo (universo de bloque)]

 

7.       ¿Qué define el sentido del tiempo?

[El problema de la flecha del tiempo]

 

8.       ¿El espacio es un mero escenario inmutable y pasivo? ¿Un punto espacial permanece idéntico a sí mismo a lo largo del tiempo?

[Problema del carácter absoluto del espacio]

 

9.       ¿El espacio-tiempo es de carácter material?

[El problema de la naturaleza del espacio-tiempo]

 

10.   ¿El tiempo fluye a un ritmo constante?

 

11.   ¿El tiempo propio fluye a un ritmo constante?

 

 

Respuestas

 

1.       ¿El espacio y/o el tiempo existen objetivamente o sólo en nuestra mente?   Agustín de Hipona, Hume y Kant dan respuesta subjetivista.  Esta ruta no tiene importancia para entender el tiempo o el espacio como tales, pero da pié a investigación empírica, científica, en psicología y biología.  Aquí el problema es otro: ¿cómo un animal percibe o calcula el tiempo o el espacio? (en particular el Homo Sapiens) Otros problemas similares: investigación sobre los ritmos biológicos, celulares, etc.

Respuesta actual: el espacio y el tiempo tienen existencia independiente de los sujetos humanos o de cualquier otro sujeto cognoscente.

 

2.       ¿En ausencia de materia existen el espacio y/o el tiempo?  La respuesta relacionista es defendida por Aristóteles, Descartes (1644), Leibniz (1715), Mach (1883).  Newton es substancialista (1687).  Einstein es influido heurísticamente por el relacionismo para construir la teoría de la relatividad especial (1905) y luego la general (1915), pero finalmente, tras el debate con De Sitter (1916-17), se torna substancialista (1920) (Gutfreund y Renn).  Bunge es relacionista (1983), pero al parecer cambió al final de su vida tras la detección de ondas gravitacionales en 2015.

Respuesta actual: el espacio-tiempo tiene existencia independiente de la materia.

 

3.       ¿El espacio-tiempo es discreto o contínuo?   En física relativista se entiende el espacio-tiempo como un campo continuo.  Y ese es el conocimiento científico válido hoy.  Pero hay exploraciones en gravedad cuántica (ver Carlo Rovelli) que apuntan a una microestructura a nivel de la escala de Planck.  Lo cierto es que la física relativista encuentra el límite en la escala de Planck, así como en las singularidades en el centro de agujeros negros y en el inicio del Big Bang.

Respuesta actual: la Relatividad General está vigente y no está probado que el espacio-tiempo tenga una microestructura.

 

4.       ¿El espacio y/o el tiempo son emergentes?   La visión relacionista puede entenderse como un enfoque emergentista, aunque el concepto “emergencia” es posterior.  Este concepto aplica mejor para la gravedad cuántica de bucles que concibe al espacio-tiempo como emergente a partir de una microestructura aún en investigación (Rovelli).

Respuesta actual: la misma de la pregunta anterior, no hay prueba de emergencia por ahora.


 

5.       ¿Espacio y tiempo son entidades separadas?  Siempre se consideraron entidades separadas hasta Einstein y Minkowski (1908).  Hoy está claro que constituyen una sola entidad (el campo espacio-temporal), así como electricidad, magnetismo y luz constituyen una sola entidad, el campo electromagnético.  Más aún, espacio-tiempo y gravedad son una sola entidad.  Lo que antes eran tres entes diferentes, espacio, tiempo y gravedad, hoy son uno solo, acorde a la TGR (Teoría General de la Relatividad).  Pero la inseparabilidad de fondo no niega que se trata de dos manifestaciones distintas.  El espacio-tiempo es un continuo cuatridimensional, pero el tiempo, como cuarta dimensión no es una dimensión espacial.  El ente espacio-tiempo tiene una geometría física de cuatro dimensiones, tres espaciales y una temporal.  El componente espacial y el componente temporal son relativos al sistema de referencia, pero el intervalo espacio-temporal no.

Respuesta actual: espacio, tiempo y gravedad constituyen una sola entidad, son inseparables, pero el tiempo no se reduce a una dimensión espacial (queda un toque de misterio).

 

6.       ¿El tiempo fluye? ¿Existe sólo el presente?   Este debate sigue abierto, pero parece imponerse el eternalismo a pesar de lo contraintuitivo (en la vida práctica cotidiana todos somos presentistas).  Einstein, al final de su vida, negaba el fluir del tiempo, un pronunciamiento que algunos confunden con la negación del tiempo objetivo.  Que el fluir del tiempo sea una ilusión no significa que el tiempo sea una ilusión.  La opción eternalista se expresa con la idea del “universo de bloque”, una idea al mejor estilo de Parménides.  Según esta idea existe el universo pasado-futuro, todo como un solo bloque.

Respuesta actual: abierta.

 

7.       ¿Qué define la dirección (sentido) del tiempo?   Hay dominios de la física donde la dirección (sentido) del tiempo es irrelevante.  Es con el desarrollo de la termodinámica que aparece la “flecha del tiempo” como si fuese una propiedad emergente. Sin embargo, hay fenómenos como la radiactividad o la expansión del universo y quizás ciertos fenómenos de los agujeros negros que también presentan un sentido unidireccional del tiempo.  El asunto sigue siendo materia de debate.

Respuesta actual: abierta.

 

8.       ¿El espacio es un mero escenario inmutable y pasivo? ¿Un punto espacial permanece idéntico a sí mismo a lo largo del tiempo?   El único que defendió la idea de espacio absoluto fue Newton.  Sin embargo, su impacto fue tal que la idea terminó siendo aceptada gracias al enorme éxito predictivo de su dinámica.  Sin embargo, hoy sabemos que la dinámica de Newton no exige el espacio absoluto (ver Maudlin, Penrose).  Ese concepto metafísico que Newton utilizó para poder desarrollar su dinámica fue como un andamio, del cual podemos prescindir una vez aparecen nuevas herramientas matemáticas. 

El espacio absoluto de Newton tiene 4 características:

·         Existe objetivamente, esto es, con independencia del sujeto

·         Existe con independencia de la materia  (choca con Leibniz)

·         Es un escenario inmutable y pasivo (no cambia nada, nada lo cambia)

·         Cada punto espacial mantiene su identidad a través del tiempo  (choca con Galileo)

La Relatividad General no destruyó las dos primeras, pero sí la tercera.  Y al parecer la cuarta característica también la destruyó (como corresponde a los tres principios de relatividad, el de Galileo, el de la Especial y el de la TGR) (ver Maudlin), pero aún tengo una duda que se relaciona con las ondas gravitacionales.

Respuesta actual: la idea de espacio absoluto fue desechada.


 

9.       ¿El espacio-tiempo es de carácter material?   Las ideas de espacio como éter aristotélico, extensión cartesiana, éter luminífero mecánico (siglo XIX), estaban equivocadas en diversos aspectos.  La idea de vacío que viene desde los atomistas y fue defendida por Newton triunfó hasta el siglo XX.  Pero la ironía es que hoy por hoy, tanto desde la física cuántica como la relativista, no existe un auténtico vacío.  Y acorde a la TGR el espacio-tiempo es un campo energético, es decir, de carácter material.

Respuesta actual: el espacio-tiempo es de carácter material.


 

10.   ¿El tiempo fluye a un ritmo constante?   La variabilidad en el fluir del tiempo siempre se pensó en términos subjetivos, como tiempo psicológico.  Pero Einstein, en 1905, mostró que el tiempo objetivo depende del movimiento (velocidad) con respecto al sistema de referencia que lo mide y con la relatividad general mostró que el tiempo depende de la gravedad, o mejor, que el tiempo intrínsecamente unido al espacio es la gravedad misma.  Pero también mostró que el tiempo propio no varía.  El ritmo del tiempo varía entre sistemas de referencias que se muevan entre sí, pero no hay ningún cambio de ritmo observable o medible por un reloj o un ser vivo en el sistema de referencia propio.

Respuesta actual: el tiempo no fluye a un ritmo constante.

 

11.   ¿El tiempo propio fluye a un ritmo constante?   En 1918 Herman Weyl exploró un desarrollo matemático que llevaba a la extraordinaria conclusión de que el tiempo propio y la masa eran “dependientes del camino”, es decir, que eran afectados por su historia en el espacio-tiempo (su línea de universo).  Einstein no puso objeción a la construcción matemática que parecía ser consistente, pero sí a su conclusión física que era contradictoria con los experimentos.

Respuesta actual: el tiempo propio es absoluto.

 

Barranquilla, 26 de febrero de 2021

sábado, febrero 13, 2021

Tres novedades en la Big History

Tres noticias en esta semana que agregan novedades a la Big History

1. Condiciones para el surgimiento de la vida en un planeta no dependen sólo de la "zona habitable" (distancia a la estrella) sino además de la composición atmosférica, con una gran importancia de un gas neutro al que no se le había puesto mucha atención en astrobiología.  El rol del nitrógeno es complejo, dependiendo de ciertos factores (como humedad) puede contribuir a aumentar o a disminuir la temperatura.

2. Un experimento con organoides de cerebro humano de dos tipos, uno normal y otro con un gen alterado (NOVA1) para que se pareciese al genoma Neanderthal, mostró diferencias claves entre ambos. Esto puede significar que este gen fue determinante de diferencias esenciales que potenciaron al Homo Sapiens.

3. Estudios geológicos a nivel microscópico muestran que la corteza terrestre se adelgazó en el eón proterozoico (el millardo aburrido le dicen) y los continentes se aplanaron perdiendo su montañas. Todo esto conllevó a que la dinámica evolutiva de la vida se ralentizara. 

El Búho

sábado, enero 09, 2021

¿Qué es eso de "Ensayo clínico sistemático, aleatorio, controlado y replicable"?

En esta entrada del blog queremos contribuir a una cultura popular educada en un tema vital: la salud.  En concreto se busca explicar cómo podemos averiguar si una sustancia X sirve para curar una enfermedad Y. 

El contexto de pandemia es un momento oportuno.  Mucha gente parece no entender que las evidencias anecdóticas del tipo “a mí me funcionó” no prueban nada y, en particular, no sirven para fundamentar el uso de una sustancia, medicamento o alimento para tratar o prevenir una determinada enfermedad.  Ese es un error común de razonamiento en el cual se pueden identificar falacias tales como: generalización apresurada, falsa autoridad, post hoc ergo propter hoc (despúes de… luego… a causa de), ad populum, y quizás otras.  Para contrastar esa falta de rigor queremos ofrecer una aproximación al procedimiento correcto para sustentar la eficacia de un tratamiento clínico.

 

¿Cómo podemos averiguar si una sustancia X sirve para curar una enfermedad Y? 

La única manera es poniendo la sustancia a prueba sin caer en errores humanos o sistemáticos, es decir, garantizando el rigor lógico y experimental, razón por la cual tales pruebas deben ser realizadas por personal idóneo, con conocimiento y experiencia.  En otras palabras es necesario hacer experimentos in vitro, luego probarla en modelos animales y finalmente someterla a prueba en humanos mediante múltiples ensayos clínicos sistemáticos, aleatorios, controlados y replicables. 

Pero, ¿qué significan estas palabras que condicionan el diseño experimental? ¿Qué quiere decir sistemático, aleatorio, controlado y replicable?

ALEATORIO: significa al azar.  Alude al cumplimiento de condiciones estadísticas que permitan generalizar la efectividad del tratamiento para una población de millones de personas a partir de pruebas en una muestra de algunos centenares de voluntarios (con consentimiento informado).  Para poder hacer inferencia estadística a partir de una muestra, ésta debe tener un tamaño suficientemente grande, debe ser escogida al azar para evitar sesgos, debe ser estratificada, esto es, representativa de la población, debe cumplir unos criterios de inclusión y debe excluir casos que correspondan a criterios llamados “de exclusión”. 

Los criterios de inclusión y de exclusión se definen a partir del conocimiento médico teniendo en cuenta características que puedan afectar los resultados (para excluir esos casos) y características que correspondan a lo que se quiere probar (para incluirlos).  Un criterio de inclusión obvio es el diagnóstico positivo de la enfermedad a tratar. 

Escoger al azar no es seleccionar “a la loca” o en desorden aparente, sino literalmente utilizar un sistema de sorteo entre un número suficiente de voluntarios.  De otra manera la escogencia estará viciada por sesgos ocultos que pueden alterar los resultados.  El tamaño mínimo de la muestra obedece a un cálculo técnico matemático.  La estratificación implica subdividir la muestra en segmentos que guarden las mismas proporciones que la población en general respecto a ciertas variables que se consideren relevantes (porque pueden afectar los resultados) como la edad, el sexo, el nivel socioeconómico.  La muestra debe tener entonces los mismos porcentajes de hombres y mujeres, de segmentos etarios (o sea de edad) y de estratos sociales que tiene el país, departamento o ciudad objetivo del ensayo, de otro modo se debilitan las inferencias.  Menciono las variables típicas a controlar, pero puede haber otras y para determinarlas el grupo de investigación debe basarse en el conocimiento médico previo.    

CONTROLADO: que tiene grupo de control.  Un organismo tiene millones de variables, desde el nivel molecular, pasando por el celular y tisular hasta el fenotípico. Y cada organismo tiene un sistema inmune que constituye su defensa natural frente a agentes patógenos (virus, bacterias, hongos, parásitos) que por lo general han coevolucionado en una dinámica de “carrera armamentista”. En medicina no se pueden aislar las variables para controlarlas una por una como se hace en un laboratorio de física, por ejemplo.  Lo que se hace para poder controlar las variables es dividir (nuevamente al azar) la muestra en dos grupos similares en todas las variables relevantes (como la edad, el sexo, el estadio de la enfermedad, otras que se consideren con capacidad de afectar resultados).  La única diferencia entre los dos grupos es que a uno se le va a administrar el tratamiento y al otro un placebo mediante un sistema de “doble ciego”.  A este segundo grupo se le llama “grupo de control” y al primero se le puede denominar “grupo experimental”. 

Un placebo es un falso medicamento (sin la sustancia X e inocuo) pero de apariencia similar al verdadero (que sí tiene la sustancia X). “Doble ciego” significa que ningún paciente voluntario del experimento sabe a cuál grupo le tocó pertenecer, y la persona encargada de administrar el tratamiento tampoco sabe a cuál grupo pertenece cada paciente. De esta manera se evita que el efecto psicosomático denominado “efecto placebo” altere los resultados.  Esto significa también que para que un tratamiento sea considerado eficaz debe obtener resultados significativamente superiores en el grupo al cual que se aplica con respecto al grupo al cual se le aplica el placebo.

REPLICABLE.  Es una característica de la experimentación científica en general, pues un experimento aislado o único no sirve de mucho.  Se necesita repetir los experimentos muchas veces, por diferentes grupos de investigación, en diferentes laboratorios o instituciones, en distintos países.  Para esto el grupo de investigación debe publicar un informe o artículo con todo el rigor metodológico, es decir, con información completa, precisa y clara sobre el experimento realizado, de modo tal que otros grupos puedan replicarlo con idénticas características para ver si se producen los mismos resultados o para criticar con argumentos cualquier aspecto de la investigación.  Para que un tratamiento sea considerado eficaz debe dar resultados positivos en la inmensa mayoría de ensayos realizados.  Para cotejar y evaluar resultados de múltiples ensayos se realiza un trabajo de revisión denominado metaanálisis (también se le denomina revisión sistemática) que es de donde pueden eventualmente salir conclusiones generales y recomendaciones para que las autoridades de salud pública del país avalen o no el tratamiento.

SISTEMÁTICO.  Una sustancia X por sí sola no es un tratamiento.  Para configurar un tratamiento toca definir dosis y forma de administración. Y para cada dosis y forma de administración es imprescindible hacer los correspondientes ensayos. Asimismo hay que tener en cuenta que los diagnósticos de enfermedades son variables que pueden tener más de dos estados, positivo y negativo, pues puede haber diversos estadios o variantes, y cada una exige sus correspondientes ensayos.  La evaluación de los potenciales tratamientos clínicos debe tener en cuenta todos estos aspectos de manera sistemática, así como todos los conocimientos médicos previos y todos los informes posibles a nivel mundial. 

Por otro lado, ninguna investigación clínica debe ser una rueda suelta o una exploración aislada.  En primer lugar debe ser evaluada como proyecto de investigación antes de realizarse cualquier ensayo. Dicha evaluación es médica, metodológica y ética y exige un cumplimiento riguroso de los protocolos. No puede haber investigación clínica que no haya pasado por la aprobación de un comité de ética de la investigación y de un comité científico (o pares evaluadores). Nota: esto fue lo que no cumplió la Ministra de Ciencia, Tecnología e Innovación de Colombia Mabel Torres, lo que ocasionó un escándalo y la protesta de numerosas asociaciones médicas del país a comienzos de 2020, sin embargo el gobierno no tomó medidas y la ministra se atornilló en el cargo.  Al respecto escribimos tres columnas en El Unicornio en enero de 2020.  El mal ejemplo viene desde arriba.     

Bien, he resumido de manera un tanto esquemática lo que significa ensayo clínico sistemático, aleatorio, controlado y replicable.  Ahora bien, si un tratamiento resulta eficaz despúes de todas estas exigentes pruebas, de todos modos es sólo un resultado estadístico, por tanto su eficacia es probabilística, medible en porcentaje distinto a 100.  Nadie puede garantizar una eficacia total para todos los casos.  Cada organismo es diferente y cualquiera de sus millones de variables internas o del entorno del paciente puede afectar un tratamiento, en su inocuidad o en su eficacia.

La medicina puede avanzar más allá del ensayo clínico hacia la medicina de precisión.  Para eso se necesita conocer el mecanismo causal mediante el cual opera el principio activo del tratamiento en los niveles molecular, celular, tisular, orgánico y sistémico.  Pero en muchísimos casos no conocemos aún el mecanismo y el ensayo clínico es lo mejor que tenemos para respaldar un determinado tratamiento.

Finalmente, debe quedar claro que la evidencia anecdótica, el “a mí me funcionó”, el voz a voz que rueda rumores o chismes sobre supuestas eficacias de tal o cual sustancia, fármaco o alimento contra una determinada enfermedad, no cumple con ninguna de las exigencias metodológicas mencionadas y por tanto carece de fundamento.  Hacer recomendaciones de tratamientos clínicos con base en evidencia anecdótica es irresponsable e inmoral.  Y acoger tales recomendaciones es estúpido e irracional, así sea una costumbre milenaria proveniente de la época en que no había medicina científica.  Aún una sustancia inocua puede producir daño indirecto al hacer que el enfermo demore en someterse a un tramiento eficaz, lo cual puede resultar en que cuando lo haga sea demasiado tarde.