Presente, pasado y futuro de los aceleradores de partículas (Parte 1)

Con estas breves notas históricas reflexiono sobre la conexión entre el desarrollo de las ideas y el desarrollo tecnológico para el avance del conocimiento de la estructura de la materia, enfocando mi disertación al campo de los aceleradores de partículas. Estas máquinas son las herramientas tecnológicas que han acompañado y propiciado los grandes avances en el conocimiento de la estructura del Universo y sus propiedades.

No pretendo hacer un desarrollo histórico exhaustivo, ni tan siquiera mostrar toda la capacidad de desarrollo que ha supuesto para el progreso humano la utilización de estas máquinas. Simplemente quiero hacer un recorrido, desde el pasado y hacia el futuro, de la fuerte ligazón existente entre el desarrollo de las mismas y el avance científico en el contexto de la física de partículas elementales. Ciertamente, si bien no de un modo exclusivo ya que una buena parte del conocimiento del Universo se ha servido de otros medios, los avances en las técnicas de aceleración de partículas han estado unidas tanto a los grandes descubrimientos de la estructura íntima del Universo como al estudio preciso de las leyes que rigen su comportamiento. Esta realidad muestra la importancia de la conexión entre ciencia y tecnología, técnicas experimentales y desarrollo de las ideas teóricas, que conforman la historia del progreso en el conocimiento, tanto en este ámbito como en otras ramas de la ciencia.

Los comienzos

La física de comienzos del siglo XX supuso una auténtica revolución de las ideas con el desarrollo de la física cuántica y la relatividad especial y general. En medio de estos primeros desarrollos teóricos hubo grandes descubrimientos, muchos de ellos ligados a la radiactividad y sus propiedades, así como su utilización para profundizar en el conocimiento del mundo microscópico.

De un modo particular, los experimentos con partículas a procedentes de fuentes radiactivas naturales realizados por Ernest Rutherford y sus discípulos en el laboratorio Cavendish de la Universidad de Cambridge condujeron, en 1911, al descubrimiento de la existencia de los núcleos de los átomos y, en 1919, al fenómeno de la desintegración nuclear.

No es de extrañar que estos resultados que suponían, de alguna manera, la transmutación de la materia y, por lo tanto, el sueño histórico de los alquimistas, se difundieran rápidamente por todo el continente europeo, si bien los primeros beneficiados fueran los propios discípulos de Rutherford.

El siguiente paso por realizar sería lograr fuentes artificiales de radiación con la suficiente energía para “romper” los núcleos. Las ideas tecnológicas se empezaron a desarrollar, basadas en los conocimientos de la interacción electromagnética desarrollada en el siglo XIX, mientras las ideas teóricas sobre la estructura nuclear se empezaban a desarrollar con la formulación de la mecánica cuántica y la relatividad especial.

Los aceleradores de partículas son las máquinas idóneas para explorar el Universo por dos motivos fundamentales. El primero se deriva del principio de la dualidad onda-partícula establecida por Louis de Broglie a comienzos del siglo XX; en este principio se establece que la longitud de onda asociada a la partícula es inversamente proporcional al ímpetu de la misma, su cantidad de movimiento. Por lo tanto, cuanto más aceleramos una partícula elemental menor es su longitud de onda y será capaz de escudriñar escalas espaciales menores, del orden de dicha longitud de onda.  En segundo lugar, al incrementar la energía de las partículas aumentamos la potencialidad de obtener nuevas partículas más pesadas en choques entre las partículas aceleradas o con otros blancos, mediante la transformación de su energía en nuevas partículas.

Además, y como consecuencia de ello, mayores energías y menores escalas de longitud son las condiciones físicas del Universo tras el Big-Bang, tanto más cerca del mismo cuanto mayor la energía o menor la escala de longitudes. De tal manera, los aceleradores de partículas actúan como máquinas del tiempo retrotrayéndonos a los primeros instantes del Universo, al recrear sus condiciones en esos momentos de su evolución.

Un discípulo de Rutherford, Ernest Walton, recogió, en 1929, las ideas del gran pionero de la técnica de los aceleradores de partículas, Rolf Wideröe, y trató de construir un acelerador lineal pero no lo consiguió. Sin embargo, en unión con su colega de Cambridge John Cockroft, se embarcó en el diseño de un generador de alto potencial eléctrico, en cascada, siguiendo las ideas previas de Greinacker y Schenkel consistentes en un conjunto de condensadores cargados a través de un circuito de diodos alimentados por una fuente de corriente alterna.

En 1932[1] lograron potenciales de 150 Kilovoltios (KV) con los que aceleraron protones obtenidos mediante el bombardeo de electrones procedentes de un cátodo caliente sobre una cámara de hidrógeno y los lanzaron sobre átomos de litio consiguiendo, por primera vez, la reacción nuclear artificial p+Lià2 a.  Posteriormente mejoraron la técnica llegando a lograr hasta 700 KV con los que aceleraban hasta 10 microamperios de haces de protones, correspondientes a unos 60 billones de protones por segundo, hasta 700 Kilo electronvoltios (KeV) de energía. Todavía superaron la técnica logrando llegar al Mega electronvoltio (MeV) y un orden de magnitud superior en el flujo de protones. En 1951 recibieron el premio Nobel de Física.

Cockroft-Walton

Un generador de Cockroft-Walton
(Foto: Mike Peel. National Museum of Scotland, Edinburgh)

 

El principio de aceleración electrostática fue utilizado, asimismo, por Robert Van de Graaff, un físico americano de origen holandés, en el Instituto Tecnológico de Massachusetts (MIT). En su invención la carga eléctrica se extraía de un electrodo metálico y era transportada mediante una cinta sin fin aislante hasta el interior de una esfera hueca metálica conectada a otro electrodo. Todo el conjunto se colocaba en un tubo a alta presión lleno de un gas eléctricamente inerte, lográndose altos voltajes. En 1931 comunicó a la Sociedad Americana de Física que había logrado 1,5 MV. Entre 1931 y 1940 se construyeron varios prototipos operando en aire, logrando voltajes en torno a 2.5 MV y, utilizando dobles generadores, hasta 5 MV, con capacidades de hasta 1 miliamperio. Eran muy voluminosos, el mayor de 23 metros de alto y 43 x 23 m. de área. Utilizando gases presurizados aislantes se pudieron reducir las dimensiones logrando aumentar considerablemente el voltaje máximo. El propio Van de Graaff fundó, en 1946, una compañía de producción de aceleradores electrostáticos (compañía HVEC, en USA) que produjo varios cientos de aceleradores.

Pero debemos volver a los orígenes de la técnica de aceleración de partículas que se utiliza todavía en el presente. El ingeniero noruego Rolf Wideröe[2] desarrolló, en 1922, la idea del “ray-transformer”, semilla de los aceleradores llamados, posteriormente, betatrones. Se basaba en el principio de inducción establecido por Michael Faraday en el siglo XIX. Utilizando campos magnéticos alternos de alta frecuencia pretendía lograr aceleraciones equivalentes a las que se podrían lograr con potenciales eléctricos de millones de voltios, sin necesidad de grandes volúmenes.

Casi al mismo tiempo, en 1922, y de forma independiente, Joseph Slepian de la compañía Westinghouse presentó una patente sobre una idea (el “X-ray tube”) similar al “ray-transformer”, que fue publicada en 1927. Por su parte, en 1924, Gustav Ising publicó en una revista sueca sus ideas acerca de la aceleración de electrones mediante altos voltajes alternos de alta frecuencia utilizando tubos de deriva metálicos, de longitudes crecientes y de alto vacío, que podían apantallar el campo eléctrico durante el semiperíodo en que cambiaba el signo. Utilizando las ideas de Ising, Wideröe construyó el primer acelerador lineal usando iones de potasio que aceleró hasta 50 KeV. Realmente establecía el modelo futuro en el que las partículas son aceleradas haciendo “surf” sobre las “olas” del campo eléctrico de radiofrecuencia introducido.

Otras ideas sobre aceleración de partículas cargadas se fueron desarrollando, tanto en USA como en Europa. En Berkeley Ernest Lawrence, de origen noruego, lanzó, hacia 1930, la idea de la utilización de dos tubos de barrido enfrentados en forma de D donde las partículas describirían una trayectoria en forma de espiral gracias a un campo magnético externo constante siendo aceleradas por un campo eléctrico de radiofrecuencia en la apertura entre las dos mitades en forma de D antes indicadas. Trabajando con su estudiante Stan Livingston consiguieron construir el primer ciclotrón, de 4 pulgadas de diámetro, en 1931, que aceleraba protones hasta 80 KeV usando un potencial máximo de 2 KV. El propio Lawrence, siguiendo las ideas de Wideröe, construyó en el mismo año, junto con su discípulo David Sloan, un acelerador lineal de iones de mercurio hasta una energía de 1,3 MeV utilizando un voltaje de alta frecuencia de 48 KV solamente. En 1939 recibió el premio Nobel de Física.

aceleradores de partículas

Primer ciclotrón, de 4 pulgadas, de Berkeley

 

Tras los primeros éxitos con el ciclotrón de Berkeley Lawrence y sus colaboradores se dedicaron a construir varios más. El segundo tenía 10 pulgadas de diámetro y aceleraba protones hasta 0,5 MeV y refrendaron los resultados de la transmutación de Cockroft y Walton unos meses más tarde que ellos. El tercero, construido en 1934, con un diámetro de 27 pulgadas, aceleraba núcleos de deuterio hasta 5 MeV. Los ciclotrones comenzaron a ser la herramienta de la física nuclear y se comenzaron a expandir en el mundo y aumentar la energía y la luminosidad. Una limitación clara de los mismos era que la frecuencia electromagnética constante era válida solamente como una aproximación de la física clásica, pero se invalidaba cuando se adquieren velocidades relativistas. Debido a ello los ciclotrones no son muy aptos para acelerar electrones sino protones. Una posibilidad de resolverlo era utilizar frecuencias variables ajustables, pero ello iba en contra de la alta luminosidad. Por otra parte, con el aumento de la energía se iba haciendo más importante el enfoque de los haces. Hacia 1940 se habían construido en torno a 60 ciclotrones convencionales alcanzando energías de hasta 20 MeV y de 100-300 microamperios de intensidad, dependiendo del diseño.

Para resolver el problema de la sincronicidad Veksler y Mac Millan idearon, en 1945, los sincrociclotrones, en los que la frecuencia del voltaje acelerador es modulada en el tiempo. El mayor sincrociclotrón, de 184 pulgadas, fue construido en el Lawrence Berkeley Laboratory, en 1946. La energía máxima nominal de los protones era de 471 MeV, pero se lograron, de hecho, 350 MeV y se logró una intensidad de 1 microamperio. Con estas energías se pudieron crear mesones p, artificialmente, por primera vez en 1948 (habían sido recientemente descubiertos en radiación cósmica), lo que daría lugar a una auténtica revolución en la física de las partículas elementales. A finales de los años 60 se habían construido más de 20 sincrociclotrones, uno de ellos en el CERN de 600 MeV. Fue el primero que se construyó ahí, en 1957, y fue reconstruido en 1975 aumentando la intensidad del haz hasta 8 microamperios. Sería, además, el origen del proyecto ISOLDE de producción de iones radiactivos que tuvo su nacimiento en 1967.

En 1940 Donald Kerst y R. Serber construyeron, en Illinois, el primer betatrón que logró funcionar con éxito acelerando electrones hasta 2.35 MeV (en 1942 logró 20 MeV y, en 1950, 340 MeV). El pequeño acelerador, de 7,5 m. de radio, lograba producir rayos-X en una cantidad equivalente a la de 1 gr. de radio lo que le hacía enormemente efectivo por lo que la compañía General Electric se interesó mucho y contrató a Kerst, que continuó la construcción de betatrones.

Por su parte Wideröe, tras conocer las noticias del éxito en el funcionamiento del betatrón de Kerst, publicado en Physical Review, retomó el cálculo de su “ray-transformer” y, condicionado por razones familiares a trabajar en Hamburgo para las fuerzas aéreas alemanas, se dedicó, desde mediados de 1943 hasta la primavera de 1945, a diseñar betatrones con el objetivo de producción de rayos-X intensos. Para los alemanes la idea era fabricar los llamados rayos de la muerte si bien a Wideröe solo le mencionaban el interés en medicina. La idea era fabricar betatrones de 15, 100 y 200 MeV, pero solo el de 15 MeV fue completado, en 1945.

Entre los años 1949 y 1986 varias industrias (BBC en Suiza, Siemens y Phillips en Alemania, Allis-Chalmers en USA) construyeron en torno a 200 betatrones con fines médicos o industriales, además de los desarrollados por diversos institutos de investigación.

En el siguiente post continuaremos con la aparición de los primeros sincrotrones y aceleradores lineales.

[1]Buena parte de la información aquí recogida se puede ver en “Particle Accelerators and their uses”, W. Scharf, Harwood 1986.

[2]“The Infance of Particle Accelerators. Life and Work of Rolf Wideroe”, DESY 94-039, March 1994, ISSN 0418-9833

El curioso nace y el investigador se hace. II Congreso Nacional / IV Jornadas de Investigadores en Formación: Fomentando la Interdisciplinariedad
aceleradores partículasPasado, presente y futuro de los aceleradores de partículas (Parte 2)

About the Author: Alberto Ruiz Jimeno

Catedrático de Física Atómica, Molecular y Nuclear de la Universidad de Cantabria, miembro fundador del Grupo de Altas Energías del Instituto de Física de Cantabria. Miembro de la colaboración CMS del Large Hadron Collider (LHC), del CERN. Es coordinador nacional de la Red Temática de Futuros Aceleradores y miembro de la colaboración internacional ILD, del futuro Colisionador Lineal Internacional (ILC). Es Presidente de la Sección Local de Cantabria de la Real Sociedad Española de Física y delegado español en el Comité Internacional “International Particle Physics Outreach Group”. Participó en la observación del bosón de Higgs en el experimento CMS del CERN, en 2012. Fue elegido, en 2016, por el CSIC y la revista QUO, como miembro de la III Selección Española de la Ciencia.

¡Compartir artículo!

4 Comments

  1. […] con nuestra serie de  notas históricas sobre loas aceleradores de partículas, poniéndo especial foco en  la conexión existente entre […]

  2. […] la serie sobre los aceleradores de partículas. Puedes encontrar los otros artículos de la serie aquí y aquí. Esperamos que os haya […]

  3. Cerebro 2020/01/03 at 8:22 pm - Reply

    Aun que estemos logrando avances en los aceleradores, solo logramos entender el 4% de la bastedad del universo la física actual solo se basa en lo visto si ponemos en la ecuaciones y teoría la materia oscura o la energía oscura nos daremos cuenta que solo conocemos algo efímero de lo que realmente es el universo.

    • Alberto Ruiz Jimeno 2020/01/07 at 10:00 am - Reply

      Efectivamente no tenemos aún conocimiento de como está compuesta la materia y la energía oscura del Universo, solo tenemos algunas ideas al respecto y el convncimiento de su existencia (en este caso, debido fundamentalmente, a observaciones astrofísicas, como el movimiento de estrellas y galaxias o el efecto de lente gravitacional, así como observaciones cosmológicas de la radiación cósmica de fondo).
      Los aceleradores futuros, junto con otro tipo de experimentos de muy bajo fondo y con experimentos en satélites, pueden ayudarnos a descubrir el contenido de la materia oscura y a mejorar nuestro conocimiento tanto de materia como de energía oscura

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.