regresa a la página principal or www.setterfield.org

YouTube: https://www.youtube.com/watch?v=y3sWg9pDCqE&feature=youtu.be

La Velocidad de La Luz y El Comportamiento Atómico

Barry y Helen Setterfield

Translator: Lemuel Lara

Barry1

Bienvenido a esta presentación sobre La Velocidad de La Luz y El Comportamiento Atómico.

En 1979, cuando tenía 37 años, un amigo que sabía que estaba interesado en las anomalías científicas, así como en la astronomía, me dio un libro interesante sobre anomalías astronómicas. Una anomalía es un hecho o una observación que no concuerda con las teorías prevalecientes. El libro me fascinó. Aquí está una foto del libro:

Mysterious Universe

Cerca del final, me encontré con algo extraño. Mientras estaba en la universidad me habían enseñado, como nos enseñaron a todos, y todavía nos enseñan, que la velocidad de la luz en el vacío ha sido constante a través del tiempo.

En Física, la velocidad de la luz a menudo se designa con la letra c, y generalmente se supone que c, la velocidad de la luz, es constante.

Del libro, Mysterious Universe (El Universo Misterioso), por William Corliss, p. 691

Del libro, Mysterious Universe (El Universo Misterioso), por William Corliss, p. 691

M. de Bray da la siguiente serie de valores, en orden de fecha, y las cifras indican la velocidad en kilómetros por segundo.

1849
313,300
1855
298,000
1855
305,650
1871
300,400
1885
299,940
1902
299,895
1906
299,880
1924
299,802
1926
299,796

Las diferencias entre estos valores son insignificantes desde el punto de vista práctico, pero si las afirmaciones actuales reciben apoyo de los valores posteriores, las ideas aceptadas en la física teórica, especialmente aquellas en las que se basa la relatividad, se encontrarán en un trastorno revolucionario.

Pero aquí en este libro había tablas y artículos que mostraban una progresión sistemática y descendente en la velocidad de la luz. En general, cada nueva medida fue inferior a la anterior.
La investigación reveló que estos cambios en la velocidad de la luz habían sido discutidos por un tiempo prolongado por varios físicos muy competentes a partir de mediados del siglo XIX y hasta mediados del siglo XX.

Las diferencias, aunque relativamente pequeñas, fueron, sin embargo, significativas. Causaron comentarios continuos en las revistas científicas durante muchos años a medida que se realizaban mediciones nuevas y progresivamente más bajas.

Velocidad medida de los valores de luz

values

Intrigado, pensé que podría llevarme un par de semanas en descubrir si había sido un error mecánico o humano lo que condujo a estas diferencias.

Curiosamente, artículo tras artículo en revistas científicas fueron revisadas por compañeros científicos, quienes a su vez fueron citados y referenciados, discutiendo estos cambios en las mediciones. Pude encontrar los artículos junto con los informes de los experimentos originales. También encontré los comentarios de quienes hicieron los experimentos. La disminución de la velocidad de la luz resultó ser difícil de descartar, ya fuera de una manera fácil o simplista.

Birge
El profesor Raymond T. Birge, de la Universidad de California, Berkeley, quien se muestra aquí, fue uno de los físicos involucrados en estas discusiones en la primera mitad del siglo XX. Fue referido como el "guardián de las constantes". No solo había trazado las mediciones en los cambios de la velocidad de la luz, sino que también había realizado un seguimiento de los cambios relacionados con algunos de los otros procesos de física atómica que también se habían considerado cantidades fijas. Estos se llaman constantes atómicos, y varios de ellos variaban sistemáticamente a la par con la velocidad de la luz.

Velocidad de Birge de los valores de luz

Birge Values

Esta gráfica muestra los valores recomendados por Birge para la velocidad de la luz. Aunque Birge no creía que fuera posible ningún cambio en la velocidad de la luz, tuvo que reconocer que los datos revelaron una disminución en el valor medido.

Valores recomendados de la constante de Planck, 'h'

Plank Values

Hubo otra constante que se midió con variaciones al mismo tiempo.  El valor conocido como la Constante de Planck, designado por la letra "h", estaba cambiando en la dirección opuesta; iba aumentando sistemáticamente. En 1911, el físico Max Planck había señalado que esta cantidad, h (la cual ahora lleva su nombre) era una medida de la fuerza de la Energía del Punto Cero. El aumento en la constante de Planck, h, parecía estar en proporción inversa a la velocidad de la luz.

Al discutir los datos que permiten que la medida de h sea posible, el profesor J.H. Sanders señaló en 1965 que el valor creciente de la constante de Planck puede explicarse solamente en parte por las mejoras en la resolución instrumental y los cambios en el valor aceptado de otras constantes. Parecía que sí estaba ocurriendo un aumento genuino en la constante de Planck, h.

Al discutir los datos que permiten que la medida de h sea posible, el profesor J.H. Sanders señaló en 1965 que el valor creciente de la constante de Planck puede explicarse solamente en parte por las mejoras en la resolución instrumental y los cambios en el valor aceptado de otras constantes. Parecía que sí estaba ocurriendo un aumento genuino en la constante de Planck, h.

Valores recomendados de masa de descanso de electrones

electron values

 

 

Además, los electrones y otras masas atómicas, m, también se midieron como crecientes. Todas estas medidas y las discusiones en curso se enumeraron en las principales revistas científicas. Estos y otros datos asociados indicaron que, incluso con todos los cambios medidos, la energía todavía se conservaba en el proceso. Esto significa que no hubo cambios en las energías totales de los sistemas involucrados, a pesar de que las constantes que describen esos sistemas se midieron como cambiantes.

Barry's books

Mi curiosidad se despertó. ¿Qué estaba pasando? Esto condujo a lo que ahora son casi cuarenta años de investigación en los que he llegado a la conclusión, al igual que muchos otros, de que estos cambios fueron y son reales.

Pero la comunidad científica, en su mayor parte, aún mantiene la vieja idea de que la velocidad de la luz y algunas de las otras mediciones físicas se han mantenido constantes a lo largo del tiempo. Así que echemos un vistazo a lo que los experimentos realmente han encontrado, y las discusiones posteriores, y veamos si podemos descubrir lo que realmente ha estado sucediendo.

 

 

Dorsey

El profesor Sanders y otros analizaron la constante de Planck y los experimentos involucrados tenían el propósito de ver si podrían determinar la causa de los cambios.
Del mismo modo, el profesor N.E. Dorsey, en la foto, hizo un análisis exhaustivo de los datos de la velocidad de la luz a principios de la década de los 1940.

Dorsey intentó mostrar que la tendencia en la velocidad de la luz se debía a problemas experimentales y a la mejora del equipo. A pesar de los análisis detallados, no encontró esos defectos. Finalmente, todo lo que pudo hacer fue extender los posibles rangos de error de los valores finales ya publicados. Pero incluso esto no eliminó la tendencia descendente en los datos, tendencia que él personalmente describió como "monótona".

 

Pulkovo Observatory, St. Petersburg, Russia

Pulkovo

Los resultados del Observatorio Pulkovo en Rusia también mostraron que los errores simples en los equipos o las mediciones por humanos no fueron responsables de este cambio aparente en la velocidad de la luz. Allí en Rusia, el mismo equipo fue utilizado desde 1840 hasta 1940 por un grupo de astrónomos que hicieron esas observaciones durante lo largo de sus propias vidas. Hay varias formas de medir la velocidad de la luz, pero... utilizaron el mismo método (el que mide ángulos en lugar de distancias y tiempos) durante todo ese tiempo.

Pulkovo values

La gráfica de los resultados de Pulkovo revela una tendencia descendente constante que no podría deberse a cambios de equipo o técnicas de medición. Sin embargo, la tendencia a bajar siguió siendo muy evidente. En total, se hicieron 20 determinaciones de la velocidad de la luz. Cada determinación involucró más de 10,000 conjuntos de observaciones, por lo que más de 200,000 observaciones separadas estuvieron involucradas. La fiabilidad de esta tendencia se puede evaluar matemáticamente. Las barras que ve a ambos lados de los puntos en el gráfico muestran que PODRÍA haber un error que se extienda tanto a cada lado de la medición. Se llaman barras de error. Pero incluso si se consideran todos los posibles errores, la velocidad de la luz aún se mide como decreciente.

La posibilidad de equivocarse

El viejo estándar era una oportunidad en 20, o 1/20 a 0,05

Así que la propuesta, P, fue aceptada si P < 0.05

El nuevo estándar es una oportunidad en 200, o 1/200 – 0.005

Así que la propuesta, P, ahora se acepta si P , 0.005

Muy pocos requieren 1 oportunidad en 1000 de estar equivocados

¿Qué menas la proposición se acepta si P < 0.001

Los datos de Pulkovo tienen 1/10.000 posibilidades de equivocarse; así que P < 0.0001

Cuando una tendencia, como la posible disminución de la velocidad de la luz, se considera científicamente, es extremadamente raro que la probabilidad se considere 100% segura. Hasta hace poco, sin embargo, la verdad de una tendencia se aceptaba si el riesgo de equivocarse era inferior a 1 en 20. Recientemente, esa restricción se hizo más estricta, y la probabilidad ahora tiene que exceder la posibilidad de que sea incorrecta MENOS de 1 vez en 200

Aun así, es casi inaudito que cualquier científico que requiera una tendencia de datos tenga una probabilidad de más de una posibilidad en mil de estar equivocado antes de que esa probabilidad sea aceptada. Sin embargo, los datos de Pulkovo sugieren una tendencia a la descomposición con menos de una posibilidad en 10,000 de estar equivocado. La velocidad de la luz definitivamente estaba disminuyendo.

Roemer's measurements

Hasta 1675, se pensaba que la luz viajaba a una velocidad infinita; en otras palabras, se movía instantáneamente. En ese año, Ole Roemer demostró que ese no era el caso. Usando los primeros telescopios, los científicos habían medido la cantidad de tiempo que una de las lunas de Júpiter, Io, tardó en darle la vuelta a su planeta. Cronometraron los eclipses cuando Io fue detrás de Júpiter y desapareció o cuando emergió al otro lado de Júpiter. Pero también se vio que esos ya predichos tiempos de eclipse parecían alargarse a medida que la Tierra y Júpiter en sus órbitas aumentaban en distancia entre sí. La diferencia en el tiempo, razonó Roemer, se debía al tiempo que le toma a la luz viajar a través del diámetro de la órbita de la Tierra. Roemer utilizó estas observaciones para mostrar que la velocidad de la luz era una velocidad definida y no infinita. A medida que los dos planetas se alejaban el uno del otro, el tiempo para que la luz cruzara la distancia entre ellos aumentó. Luego, cuando se acercaron nuevamente, el tiempo disminuyó.

Io y Jupiter

Io and Jupiter

Problemas en los eclipses de Io del tiempo

  1. Es difícil determinar el momento exacto del eclipse con sólo mirarlo. Una variación típica es de unos 20 segundos.
  2. La órbita de Io es elíptica, por lo que su velocidad varía
  3. La órbita de Io está constantemente perturbada por el tirón de Júpiter y las otras lunas cercanas a ella.

Como resultado, el momento de los eclipses de Io ha cambiado significativamente en los últimos 300 años.

Sin embargo, por tres razones, el cálculo de la velocidad de la luz de Roemer no se puede considerar hoy. La primera es que dependían de la inspección visual de los tiempos del eclipse, y eso es muy subjetivo y tenía una variación típica de al menos 20 segundos. El segundo es que la órbita de Io es elíptica, por lo que su velocidad varía. El tercero es que nuestras naves espaciales y nuestras observaciones modernas han demostrado que la órbita de Io está cambiando de manera continua y medible. Esto se debe a la interacción gravitacional y magnética de Io con Júpiter y con dos de sus lunas vecinas. Esto significa que no podemos verificar los datos de Roemer de hace más de 300 años con las observaciones de hoy.

c values

No tomando en cuenta todos los valores obtenidos por aquellos que utilizan el método de Roemer, ha habido 155 determinaciones de la velocidad de la luz por 15 métodos diferentes, cada uno con miles de experimentos individuales. El gráfico de los resultados de esos experimentos con errores inferiores al 0.1% se muestra aquí. Estas son las medidas, a partir de 1726, que se realizaron con equipos especiales.

A partir de esta gráfica, se puede ver que hay una disminución constante en el valor de la velocidad de la luz en lugar de una distribución aleatoria de resultados alrededor de un valor fijo.

Cada uno de los 15 métodos de medición muestra una disminución estadística al igual que los resultados de Pulkovo. Las 155 determinaciones juntas también muestran una disminución. El perito en estadística, Alan Montgomery, y el físico Lambert Dolphin hicieron un análisis independiente. Reexaminaron todos los datos y confirmaron que hubo una disminución en el valor de c que fue estadísticamente significativo. La tendencia fue significativa en el intervalo de confianza del 95% o mejor. Su análisis fue publicado en una revista científica revisada por expertos en 1993.

En 1931, el astrónomo francés M.E.J. Gheury de Bray escribió en la revista científica Nature: “Si la velocidad de la luz es constante, ¿cómo es que, invariablemente, las nuevas determinaciones dan valores inferiores a la obtenida? ... Hay veintidós coincidencias a favor de una disminución en la velocidad de la luz, mientras que no hay una sola contra ella".

Gheury de Bray continuó diciendo algo que todavía es relevante hoy en día: “Creo que, en cualquier otro campo de investigación, tal discrepancia entre observación y teoría se sentiría intolerable. Por qué es que se tolera en el presente caso no es evidente. Sin embargo, es de asegurarse que, si se aceptara una disminución en la velocidad de la luz por motivos teóricos, y si algún físico equivocadamente intentara demostrar que es una constante, ¡las presentes observaciones serían puestas como evidencia para silenciarlo de manera concluyente!”

color waves ¿Recuerdas al profesor Birge, el "guardián de las constantes"? A pesar de las mediciones, no aceptó la velocidad cambiante de la luz. La había trazado, pero no la aceptó. Para entender su objeción, necesitamos entender un poco sobre las ondas de luz. El color de la luz está determinado por la longitud de la onda de luz; es decir, la distancia desde la cresta de la onda hasta la cresta de la onda. El brillo del color está determinado por la altura de la onda.

La razón de Birge para rechazar tal disminución de la velocidad de la luz se relacionó con el hecho de que los colores mismos permanecieron iguales a lo largo del tiempo, lo que significa que las longitudes de onda no han cambiado. Si lo hubieran hecho, hay instrumentos que podrían captar eso. Birge señaló que las longitudes de onda y los estándares de longitud demostraron experimentalmente que no cambiaron con el tiempo. Luego concluyó que "si el valor de c ... realmente está cambiando con el tiempo, pero el valor de (la longitud de la onda) en términos del medidor estándar no muestra el cambio correspondiente, entonces necesariamente se deduce que el valor de cada frecuencia atómica ... Debe estar cambiando. Tal variación es obviamente muy improbable ..."

wavelength

Sabemos que la velocidad de la luz es igual a la frecuencia, o al número de ondas más allá de un punto dado en una cantidad de tiempo dado, multiplicado por las longitudes de onda de la luz involucrada.

Entonces, lo que Birge dice aquí es que, dado que las longitudes de onda no cambian a medida que cambia la velocidad, esto solo puede significar que la frecuencia cambia en la misma proporción que la velocidad. La razón por la cual Birge conectó la velocidad de la luz con otras frecuencias atómicas es porque la emisión de un fotón de luz desde un átomo, en realidad, depende de otros procesos atómicos y frecuencias atómicas.

Por lo tanto, los procesos atómicos deberían haber estado cambiando en la misma proporción que la velocidad de la luz estaba cambiando. Pero Birge pensó que era improbable que las frecuencias atómicas estuvieran cambiando sincrónicamente con la velocidad de la luz. Esto requeriría, entre otras cosas, que la velocidad a la que los electrones rodean el núcleo atómico fuera proporcionalmente más rápida cuando la velocidad de la luz fuera mayor. ¡Esto podría generar problemas con las ideas aceptadas!

Las discusiones sobre los posibles cambios en algunas constantes atómicas y la velocidad de la luz habían estado ocurriendo en varias revistas revisadas por pares durante casi cien años. Entonces Birge, el "guardián de las constantes" escribió una sorprendente introducción a un artículo en agosto de 1941. Tenga en cuenta que el énfasis es del mismo Birge:

“Este documento se está escribiendo por una petición y en este momento por una petición. A pesar de la palabra ilusoria "Constante" que aparece en el título, es la variación continua en el valor de estas cantidades lo que proporciona la mayor parte del interés en el tema. De hecho, sería desalentador para cualquier científico real sentir que un valor aceptado de cualquier constante física nunca más fuera a cambiar. El rasgo más característico de la ciencia, en general y en particular, es su constante cambio que nunca termina. Pero lo que no se debe pasar por alto es el hecho de que es el valor probable de cualquier constante dada lo que cambia, no su valor real. La creencia en cualquier variabilidad significativa de las constantes de la naturaleza es fatal para el espíritu de la ciencia, a como se entiende ahora la ciencia."

Este artículo efectivamente cerró toda discusión sobre un posible cambio en la velocidad de la luz. Desde 1940 en adelante, se ha aceptado y enseñado que la velocidad de la luz, c, es constante.

Echemos un vistazo, ahora a esas líneas de evidencia que contradicen las afirmaciones de Birge con respecto a la constancia de c. Él sabía sobre el primero y sabía lo suficiente sobre el segundo como para haberlo considerado seriamente.

 Estructura fina constante, alfa (α)

La velocidad del electrón en la órbita más baja = v = 2.2 x 106 metros/segundo

La velocidad de la luz = c = 299,792,458 m/s

Alfa = α = v/c = 1/137
Constante en todo el universo

La primera línea de evidencia la conocía Birge muy bien. Se trata de algo llamado la Constante de Estructura Fina, o "Alfa". La designación original de Alfa se definió como la velocidad del electrón en la órbita más baja, la órbita más cercana al núcleo, dividida por la velocidad de la luz. Los datos indicaron que Alfa era una cantidad inmutable.

Esto significa que la velocidad de la luz y la velocidad del electrón iban a la par. Había dos opciones. Ambas cantidades PUDIERAN HABER permanecido iguales desde el principio. Pero el MISMO resultado ocurre si cada una está cambiando en proporción perfecta entre sí. Mientras la relación sea constante, Alfa es una constante.

Birge lo sabía. Sabía que, al ser una constante, Alfa no tenía una sola posibilidad. Pero, la única opción que aceptaría era la que requería que tanto la velocidad de la luz como la velocidad orbital de los electrones fueran cantidades fijas. Ni siquiera iba a considerar la opción donde la velocidad de la luz y la velocidad orbital de los electrones pudieran estar cambiando en proporción exacta entre sí.

La segunda línea de evidencia implica el hecho de que hay dos formas de medir el tiempo. Con la que estamos familiarizados en nuestra vida cotidiana es con el tiempo orbital: el tiempo que le toma a la tierra dar la vuelta al sol o a la luna dar la vuelta a la tierra. Esta forma de cronometraje depende de la gravedad.

La segunda forma de medir el tiempo es a través de mediciones de procesos atómicos, o frecuencias atómicas, como el tiempo que le toma a un electrón dar una vuelta alrededor de su núcleo.

Earth-Sun atom

 

El tiempo gravitacional nos da lo suficiente para vivir nuestras vidas en términos de horas, minutos e incluso segundos. Sin embargo, el tiempo atómico, o las frecuencias atómicas, pueden determinar cantidades de tiempo mucho más pequeñas, y eso es muy útil en algunos campos de la ciencia.

El profesor Birge sabía que había dos formas posibles de medir el tiempo. Se negó absolutamente a considerar que estos dos "relojes" pudieran funcionar a ritmos diferentes. Si corrieran a velocidades diferentes, entonces muchos cálculos científicos tendrían que ser reconsiderados. Tenía razón, pero veamos qué indica la evidencia de observaciones desde su época.

Como se mencionó anteriormente, la constante de Planck, conocida como h, es una medida de la fuerza de la energía de punto cero. Birge mismo había notado que los valores de la constante de Planck estaban aumentando. Más tarde, en 1965, el astrofísico Jean Kovalevsky del Observatorio de París señaló que si la constante de Planck, h, estaba cambiando, entonces las frecuencias atómicas también estarían cambiando en comparación con las frecuencias del reloj orbital, llamado el estándar orbital. De hecho, el aumento de los valores de h implicaba que el reloj atómico en sus diversas formas se desaceleraba en comparación con el reloj orbital.

Otros también han señalado que los datos de otras constantes sugieren que los relojes atómicos y orbitales pueden estar funcionando a diferentes velocidades.

Kovalevsky Van Flandern

La gravedad misma no cambia a través del tiempo. Esto significa que el tiempo medido por la gravedad, nuestro reloj orbital, ha estado funcionando a un ritmo constante. Esto contrasta con la posibilidad de que los tiempos atómicos hayan cambiado. El Dr. Thomas Van Fandern, del Observatorio Naval de EE. UU., Washington, realizó una serie de mediciones de las tasas de reloj atómico en comparación con el estándar orbital. Van Flandern recolectó datos desde 1955 hasta 1981 utilizando rangos basados en mediciones lunares y planetarias con laser.

Después de su estudio, Van Flandern concluyó que "la cantidad de segundos atómicos en un intervalo orbital es cada vez menor. Presumiblemente, si el resultado tiene alguna generalidad, esto significa que los fenómenos atómicos se están desacelerando con respecto a los fenómenos [orbitales] ".

Otros observatorios han realizado investigaciones similares. Los datos de Yuri Kolesnik para los planetas Mercurio, Venus y el Sol muestran bien la tendencia. Un análisis realizado por C.J. Masreliez en 2004 concluyó que “las derivaciones planetarias que Kolesnik y varios otros investigadores han detectado se basan en observaciones modernas precisas y utilizan el tiempo atómico. Por lo tanto, esas derivaciones son indudablemente reales."

El tiempo atómico y el orbital parecían estar funcionando a diferentes velocidades.

Mercury

La gráfica en la pantalla en este momento se ha trazado a partir de los datos proporcionados por Yuri Kolesnik. Muestra la progresión del tiempo orbital en años en el eje horizontal, y los datos correspondientes en tiempo atómico para el planeta Mercurio en el eje vertical. Estos dos conjuntos de medidas se toman de manera muy simple: uno se realiza cronometrando los eventos astronómicos de Mercurio utilizando nuestro calendario orbital y relojes o relojes mecánicos. La otra forma mide los eventos usando el tiempo atómico y los relojes atómicos. Estas dos medidas no se han mantenido juntas, sino que se han estado separando.

Esta gráfica confirma que el reloj atómico ha bajado su velocidad en comparación con el estándar orbital. Si recuerdas, Birge se había opuesto a la idea de que la velocidad de la luz estaba cambiando porque eso también indicaría un cambio en otros procesos atómicos. Consideró que esa opción estaba en algún lugar entre lo imposible y lo altamente improbable. Sin embargo, podemos ver ahora que otros procesos atómicos han mostrado cambios, por lo que esta objeción de Birge es anulada por los datos más recientes.

Estas mediciones, por cierto muy precisas, han demostrado que no todo lo que la ciencia solía considerar como una constante ha sido en realidad una constante. Por otro lado, algunas combinaciones de constantes han demostrado ser invariables. Por ejemplo, se ha demostrado que la constante de Planck, h, y la velocidad de la luz, c, cuando se multiplican juntas siempre dan el mismo número. Estos datos provienen de observaciones astronómicas en todo el universo, incluso en las partes más distantes.

Pero ten en cuenta. Esto no significa necesariamente que cada una por sí misma haya sido invariable. Lo que sí significa es que SI una cambia, la otra también ha cambiado, pero en la dirección opuesta.

Es como el número 12. Puede obtener 12 de varias maneras: 1 x 12, 2 x 6 y 4 x 3. Tenga en cuenta que, si un número se duplica, el correspondiente se divide.

Por lo tanto, siempre existe la posibilidad de que todo se haya mantenido igual. Pero, cuando las mediciones mismas muestran un cambio, pero el resultado final es invariable, tenemos que aceptar que estos cambios están en sintonía entre sí, o son sincrónicos. Entonces, en términos de hc, h debe ser proporcional a 1/c exactamente.

Hay otros ejemplos en los que se puede ver este tipo de relación sincrónica. La relación entre la masa de electrones, m, y la constante de Planck, h, se expresa como m/h2 en algunas cantidades. Esta relación siempre da como resultado el mismo número: es invariable. Pero, de nuevo, esto no significa que m o h2 tengan que permanecer constantes, solo que, si uno cambia, el otro está cambiando en una proporción directa.

Ahora mira. Este comportamiento de m indica que todas las masas atómicas, como m, son proporcionales a h2. PERO, h es proporcional a 1/c, ¿verdad?

Esto significa que, si ambos son cuadrados, h2 es proporcional a 1/c2.

Cuando juntamos esto, eso significa que las masas atómicas, m, son proporcionales a 1/c2. Entonces, a medida que m cambia, entonces c2 está cambiando en proporción inversa. Esto significa que mc2 es fijo.

Observa esta famosa ecuación: E = mc2. Como la masa y el término c2 están en proporción inversa entre sí, eso significa que E, energía, siempre se conserva. No ganas ni pierdes energía a medida que la masa y la velocidad de la luz cambian. De hecho, todas estas relaciones muestran que la energía se conserva a medida que varían las constantes físicas. Los experimentos de laboratorio que involucran energías de reacción de partículas atómicas han confirmado que esto es cierto.

En este punto, podemos ver que los datos reales muestran que algunas de las constantes que se consideran constantes están cambiando de valor. Esto no se menciona a menudo en los cursos universitarios, pero los datos están ahí. De hecho, si se excluye la velocidad de la luz, aparecen tendencias confirmatorias en 475 mediciones de otras 11 cantidades atómicas.

¿Por qué está pasando esto? También podríamos preguntarnos si hay un único factor común involucrado en todos estos cambios. Veamos algunas pistas.

La primera pista fue de un físico llamado Max Planck. Escribió dos documentos muy importantes en los primeros años del siglo XX. En el primer artículo, en 1901, introdujo un término matemático para responder a un problema que tenían los físicos. Pero en ese momento era solo un término matemático. Planck no estaba satisfecho con solo insertar un término para corregir las matemáticas, por lo que siguió trabajando. Luego, en su segundo artículo, en 1911, identificó ese término como teniendo un significado físico real. Ese término ahora se llama "Constante de Planck" y generalmente se designa como la letra h.

Allí, en ese artículo de 1911, señaló que la constante de Planck, h, era una medida de la fuerza del vacío de la Energía de Punto Cero (EPC). Las mediciones de la Constante de Planck comenzaron en la década de los 1920 y posteriormente mostraron que h no era constante, sino que aumentaba. Como la constante de Planck aumentaba, esto implicaba que la fuerza de la EPC también aumentaba.

La energía de punto cero se discutió en el segundo video de esta serie. En esa sesión, se demostró que era el resultado de un universo en expansión. La energía se coloca en la tela del espacio a medida que se expande de la misma manera que la energía se pone en la tela de un globo que se infla. En el espacio, esta energía aparece como la Energía del Punto Cero, la EPC.

singularity

A medida que el universo continuó expandiéndose, la fuerza de la EPC continuó acumulándose. Para refrescar aún más tu memoria, la energía de punto cero consiste en una cantidad masiva de ondas electromagnéticas que impregnan todo el espacio. Estas ondas consisten de todas las longitudes de onda, pero la gran mayoría están en el extremo más corto del espectro. Entonces, la primera pista, el valor creciente de la constante de Planck, h, nos lleva a sospechar que la fuerza creciente de la EPC puede ser responsable de los cambios observados, ya que h es una medida directa de la fuerza de la EPC.

La segunda pista requiere que comprendamos el efecto de la Energía de Punto Cero en las masas subatómicas. Aquí, debemos mencionar cómo se miden las masas subatómicas: no podemos ponerlas en una balanza para ver cuánto pesan, por lo que tenemos que hacer otra cosa.

 

mass detector

Casi todas las partículas subatómicas tienen una carga, positiva o negativa. Eso significa que responderán a un campo magnético. Y así es como podemos medir su masa, por la cantidad que son desviadas por los campos magnéticos. Cuanto mayor es la desviación, menor es la masa. Durante los años que trabajamos con partículas cargadas, la medición de las masas de electrones fue la más completa. Cuando hicimos estas mediciones, descubrimos que se desviaban un poco menos, luego un poco menos nuevamente. Estaban acumulando masa. ¿Qué estaba pasando?

Recuerda que las ondas de la EPC son mucho más numerosas en el extremo corto del espectro electromagnético. Son lo suficientemente pequeñas como para mover las partículas subatómicas, incluyendo a los electrones. Cuanto más fuerte es la EPC, más ondas se impactan en las partículas subatómicas, lo que produce una mayor sacudida. Cuanto más se agita el electrón, más masa aparente tiene. Las ecuaciones del proceso muestran que esta masa es proporcional a la fuerza de la EPC al cuadrado, es decir a h2.

ZPE parent

En este punto, tenemos tanto a la constante de Planck como a las masas de partículas subatómicas unidas a la energía del punto cero. Como resultado, la velocidad de la luz también está vinculada a la Energía del Punto Cero. La EPC es la causante de varios de estos efectos "secundarios", incluyendo a la constante de Planck, a las masas subatómicas y a la velocidad de la luz. Ninguno de los "niños" causa "otro niño". Todos dependen de la causa principal, la energía del punto cero.

VPP

Entonces, ¿cómo afecta la EPC a la velocidad de la luz? Como se mencionó, la energía de punto cero se compone de ondas de todas las longitudes en el espectro electromagnético. Pero hay una gran preponderancia de ondas en el extremo corto del espectro. Estas ondas van en todas las direcciones a la vez, por lo que constantemente chocan entre sí.

Piense en las olas en el océano, si las ondas cruzadas golpean, se forman capas blancas y se apagan rápidamente. Cuando las ondas de la EPC golpean, también tienen un efecto. Por el instante más breve de tiempo, el impacto causa una pequeña concentración de energía, lo que permite que se forme algo llamado par de partículas virtuales, mas conocidas como ‘pares partícula-antipartícula’. Una de las dos es negativa y la otra es positiva, y por esa razón vuelven a juntarse casi de inmediato, siguiendo su camino mientras la energía se agita hasta el próximo golpe.

Photon

Pero mientras existen, por ese breve momento en el tiempo, actúan como partículas físicas y pueden absorber un fotón de luz. Cuando se vuelven a juntar, ese fotón se libera para seguir su camino a su velocidad original. Si solo hubiera un par de partículas virtuales para navegar, eso realmente no afectaría la velocidad de la luz, pero a medida que la EPC se acumulaba con el tiempo, los fotones de luz tenían que navegar por más y más de estas partículas virtuales y el efecto acumulativo fue el retraso de la llegada del fotón de luz a su destino final. Piensa en un corredor que supera obstáculos. Un obstáculo no causaría mucho retraso en llegar a la línea de meta. Sin embargo, cien obstáculos causarían un gran retraso, independientemente de la velocidad del corredor entre los obstáculos.

De manera similar, podría ser útil tener en cuenta que no era la velocidad de la luz lo que estaba disminuyendo. Más bien fue el hecho de que el número de obstáculos con los que tuvo que lidiar en su camino estaba aumentando.

A medida que aumentaba la fuerza de la EPC, el espacio se volvió "más grueso", o más cargado con partículas virtuales. Actualmente, se puede calcular que en cualquier instante hay al menos 1058 pares de partículas virtuales por pulgada cúbica. Esa es la figura seguida de 58 ceros.

10,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000

Por lo tanto, el incremento de la fuerza de la EPC es la razón por la que la velocidad medida de la luz ha estado perdiendo velocidad, o sea, ha desacelerado. Entonces, la velocidad de la luz también está relacionada directamente con la Energía de Punto Cero.

c data Ahora tenemos datos históricos y la causa probable de los cambios en las constantes atómicas a lo largo del tiempo. Pero entonces surge un problema. Los datos de la velocidad de la luz, los datos de las masas de las partículas atómicas y la constante de Planck muestran un aplanamiento de la tendencia y luego una pequeña inversión de tendencia en el período 1960 a 1990. Y también hay datos asociados de procesos atómicos.

Una razón para este aplanamiento se puede encontrar en la introducción de relojes atómicos en los laboratorios de todo el mundo a partir de 1955. Los relojes atómicos miden el tiempo a un ritmo de acuerdo con el comportamiento de la velocidad de la luz. Esto significa que medir uno usando el otro no producirá ninguna evidencia de variación en cualquiera de las cantidades.

stretching bands

Un ejemplo de esto puede verse al usarse dos ligas sin estirar en donde ambas tengan una marca de longitud idéntica. Luego, ambas se estiran sincrónicamente. No puedes medir el cambio de la longitud de una liga usando la otra liga que también fue estirada. Ambas longitudes han cambiado simultánea y proporcionalmente. De manera similar, medir la velocidad de la luz mediante relojes atómicos siempre dará un resultado fijo.

Hay otros factores involucrados que no tenemos tiempo para explorar aquí. Sin embargo, fue con base a datos de relojes atómicos que, en octubre de 1983, la velocidad de la luz se declaró oficialmente invariante en el vacío y se fijó absolutamente a 299,792.458 km / s.

Esta fijación de la velocidad de la luz como una cantidad invariable introduce una última gran objeción. Esto tiene que ver con Einstein y sus famosas teorías de la relatividad. Para que sus teorías funcionaran física y matemáticamente, Einstein requirió dos cosas: primero, que la velocidad de la luz fuera una constante fija y, segundo, que no era posible realizar mediciones absolutas de ningún movimiento. Eso fue porque sus teorías requirieron que no hubiera un marco de referencia universal contra el cual ese movimiento se pudiera medir.

road speed Por ejemplo, se puede medir la velocidad de un automóvil contra un marco, como el de una carretera, la cual esta inmóvil. Pero, si trataras de medir esa velocidad desde un punto de vista universal, su teoría diría que eso es imposible hacerlo. La razón era que sus teorías requerían que no hubiera un marco de referencia universal para hacer mediciones. Entonces, todas las medidas de movimiento son solo relativas, que es de donde la teoría de la relatividad obtuvo su nombre.

En otras palabras, ya fuera que 1. hubiera un marco de referencia absoluto en el universo contra el cual se pudiera medir todo el movimiento, o 2. si la velocidad de la luz en el vacío no fuera constante a lo largo del tiempo, o ambas cosas (1 y 2), entonces la Teoría de la Relatividad tendría que ser formulada otra vez.

CMBR surface

Tomemos primero la idea de un marco de referencia absoluto. En 1964, los científicos encontraron que la radiación de temperatura, representada en esta imagen, provenía de manera uniforme de todas partes del cielo. Se llama la radiación de fondo de microondas o radiación cósmica de microondas (en inglés, cosmic microwave background radiation, o CMBR). Esta es el "eco" del estado original súper caliente del universo, o la temperatura que quedó después de que el universo se expandiera y se enfriara. Esta temperatura de fondo es uniforme a 1 parte en 10,000. En este mapa de todo el cielo (en la imagen provista), las áreas rojas son ligeramente más cálidas que el promedio, y las áreas azules son ligeramente más frías que el promedio, en esta cantidad extremadamente pequeña: una décima parte de un grado.

Ahora aquí está lo importante. Esta radiación cósmica de microondas (CMBR) proporciona un marco de referencia absoluto. La CMBR rodea todo el universo. Cuando algo, un planeta, nuestro sistema solar, nuestra galaxia, otra galaxia, cualquier cosa, se mueve, el movimiento tiene que ser hacia alguna sección del CMBR. Ese movimiento aparecerá como un cambio de temperatura tanto delante como detrás. Delante se mostrará como un poco más cálido y detrás como un poco más fresco. Para aquellos familiarizados con el término, este es un efecto Doppler. Los cambios de temperatura se pueden convertir matemáticamente en velocidad de movimiento.

Hemos medido el movimiento de nuestro sol en nuestra galaxia, y el movimiento de nuestro Grupo Local de galaxias hacia otros grupos de galaxias en este contexto. Aquí se muestra el resultado final generalizado al sumar todas esas velocidades. La dirección y la velocidad del movimiento de cualquier objeto en el espacio pueden ser diferentes, pero esas velocidades pueden definirse individualmente por el CMBR.

El astrofísico de la Universidad de Cornell, Martin Harwit, en su libro ‘Conceptos Astrofísicos,’ p. 178 (publicado por Springer-Verlag) comenta sobre este importante resultado de la CMBR:
"Es interesante que la presencia de dicho campo de radiación nos permita determinar un marco de referencia absoluto para que sea la base de una medición local."

Pero luego trata de salvar lo que pueda de la teoría de la relatividad diciendo, "El establecimiento de un marco de referencia absoluto enfatizaría el hecho de que ... la relatividad en realidad solo tiene que ver con fenómenos a pequeña escala y que los fenómenos en escalas más grandes nos permiten determinar un marco de referencia preferido en el que los procesos cósmicos se ven isotrópicos."

En otras palabras, el CMBR proporciona un marco de referencia absoluto para el movimiento en cualquier parte del universo.

Entonces, la teoría de la relatividad de Einstein es incorrecta, excepto, posiblemente, para fenómenos a pequeña escala.

Esto también significa que también es sospechoso el derivar cualquier resultado utilizando esos dos postulados (una velocidad constante de la luz y ningún marco de referencia absoluto).

Uno de los partidarios que apoyaron más a Einstein fue el famoso físico y astrónomo británico, Sir Arthur Eddington.  Él sugirió que había un mecanismo diferente disponible que producía los mismos resultados que la relatividad sin la necesidad de esos dos postulados restrictivos. Llegó a la siguiente conclusión y lo ilustró con un ejemplo:

"La luz se mueve más lentamente en un medio material que en el vacío ... De este modo, podemos imitar el efecto gravitacional de la relatividad sobre la luz con precisión, si imaginamos que el espacio alrededor del sol está lleno de un medio que proporcione la velocidad apropiada "

La física ahora ya demuestra que la energía de punto cero hace precisamente eso. De hecho, todos los resultados principales de la relatividad ahora se pueden realizar simplemente usando la realidad de la Energía de Punto Cero y sus efectos. Esto se puede hacer de manera simple y sin la necesidad de matemáticas extrañas y complicadas, como lo han demostrado varios investigadores modernos en los últimos 20 años, quienes tienen sus escritos en revistas científicas, las cuales son revisadas por compañeros también científicos.

Como puedes ver, lo que comenzó con mi curiosidad por las cambiantes medidas de la velocidad de la luz, fue el principio de un curso de investigación que ha tenido algunas consecuencias interesantes.

Ha llevado a una comprensión de la realidad de la Energía de Punto Cero, que se ha ido acumulando con el tiempo. Esto parece responder a los problemas planteados por la velocidad de la luz y los datos atómicos, ya que nos ha llevado a la comprensión de que los procesos atómicos y la velocidad de la luz están relacionadas íntimamente con la EPC.

La conclusión es que, en el universo primitivo, cuando la fuerza de la EPC era baja, la velocidad de la luz era más rápida y algunos procesos atómicos eran más rápidos. En nuestra próxima sesión, veremos cómo estos desarrollos, junto con la astronomía de plasma, abren una nueva ventana para comprender la cuestión del tiempo y algunos problemas astronómicos persistentes.

 

regresa a la página principal or www.setterfield.org