martes, 1 de noviembre de 2011

Rompiendo el aire. Escalera de Jacob

Hoy toca un minipost, con dos videos guapetes de esos que tanto os gustan. Pero antes, pongamonos en situación.

¿Qué es romper el aire?

Como bien es sabido, el aire es un material dieléctrico y por tanto, no conductor. El caracter conductor, de un material queda determinado por la teoría de bandas - Algún día haré un post sobre ella, puede ser interesante el tema- Así a modo de breve resumen, esta teoría considera que en una sucesión de N átomos, es decir un sólido cristalino, los niveles de energía se desdoblan en N niveles conformando lo que se llaman bandas de energía. Las bandas se consideran dos, la banda de valencia, correspondiente al estado fundamental y la banda de conducción correspondiente a un estado excitado. El carácter conductor de un material, lo determina la ocupación de electrones en su banda de conducción, al igual que el carácter aislante, lo determina la no ocupación de la banda de conducción. Estas bandas están separadas energéticamente, para que se produzca conducción -promoción de un electrón de la banda de valencia a la de conducción-  es necesario aportar una energía igual al gap o energía de separación entre las bandas. Es por ello que el aire como aislante que es, posee una gran separación entre estas bandas. Y por tanto, si se pretende conducir corriente a través de el, será necesario aplicar una gran diferenciad e potencial, es decir, energía. Esto es lo que se conoce como romper, el aire, aplicar una diferencia de potencial suficientemente grande como para superar el gap de energía y conducir una corriente. Esta diferencia de potencial depende de las conducciones de presión temperatura humedad... pero podríamos decir que es del orden de 5000v.

El término escalera de jabob, es exactamente esto, una rotura del aire, producida por dos barras conductoras, generalmente en forma de V, a las que se aplica una diferencia de potencial. La forma de V se debe a que al reducir la distancia en la parte inferior, se reduce la diferencia de potencial necesaria para romper el aire.

A continuación mostrados dos bonitos vídeos ilustrativos.


Escalera de Jacob, original, en forma de V.

Ni que decir tiene, que los arcos eléctricos tan famosos, son roturas del aire, aquí un ejemplo.
Arco eléctrico, en una central, gigantesca escalera de Jacob

martes, 25 de octubre de 2011

Introducción a las Técnicas PET y SPECT (Parte 2)

Fundamentos Físicos:
Tipos de radiación y desintegraciones radiactivas:

Una desintegración radiactiva es la emisión de partículas a partir de un núcleo inestable el cual pierde energía. La desintegración es fruto de la inestabilidad del núcleo atómico al haber un exceso/defecto de neutrones o protones en el mismo. El objetivo último de la desintegración obedece a tratar de encontrar una forma más estable, a base de modificar la relación de protones y neutrones en el núcleo atómico. Para lograr este objetivo, se emitirá radiación. Existen tres tipos de radiación o decaimientos
  1. Alfa: Es la emisión de partículas α. Una partícula α es un núcleo de 4He, esto es dos protones y dos neutrones. La emisión de una partícula α, obedece a la reacción.
  2. Beta: Es la emisión de partículas β. Una partícula β es un electrón o un positrón, dando lugar a dos a dos tipos de radiación, β- y β+ respectivamente. Las reacciones correspondientes a la β y β son respectivamente:
    El espectro de este tipo de desintegración es continuo, esto se debe a que la energía aportada al electrón/positrón puede ser muy grande y el neutrino/antineutrino prácticamente no recibir ninguna, o viceversa. La existencia de los neutrinos fue propuesta por Pauli para poder explicar este el balance energético en este tipo de desintegraciones.

  3. Gamma: Se corresponde con radiación electromagnética (fotones) de energías del orden de los MeV o frecuencias superiores a 1019Hz. No es una desintegración en sí, más bien un decaimiento a niveles energéticos menores.  
Las desintegraciones nucleares son procesos estocásticos y como tales, no se puede predecir el momento en el que se produzca, no obstante, si es posible si consideramos una colectividad de núcleos, si se puede plantear una ley de decaimiento, como es la ley exponencial.



Aniquilación Electrón-Positrón. Producción de positrones


Dada una partícula se define su correspondiente antipartícula como aquella con idéntica masa y propiedades pero de signo opuesto -esta definición es una generalización, hay casos como el antineutrón, siendo esta la antipartícula correspondiente al neutrón, la cual carece de carga y su momento magnético es exactamente el contrario. Así la antipartícula del electrón recibe el nombre de positrón y poseerá idéntica masa y spin, su existencia ya había sido postulada por Dirac y posteriormente descubierta por Anderson en 1932. Cuando se produce una aniquilación partícula-antipartícula, se producen fotones, además como en toda colisión se deben de conservar tanto la carga, el momento, y energía. Por tanto, una aniquilación electrón-positrón, dará lugar a dos fotones de idéntica energía y sentidos opuestos (conservación de la energía y momento), además nótese como se conserva la carga al carecer el fotón de la misma.
La energía de cada fotón resultante, se corresponde con la del electrón o positrón en reposo, 511keV. La reacción inversa,
También es posible, en este caso un único fotón de alta energía da lugar a un par, esta reacción recibe el nombre de creación de pares. La conservación de energía requerirá fotones cuya energía sea mayor que dos veces la energía en reposo del electrón, esto es energías mayores a 1.022 MeV.  Luego, acelerar fotones hasta energías superiores a 1.022MeV, podría ser un método para la obtención de positrones, no obstante, en la práctica médica no es un método viable, pues surge el problema de acelerar fotones en el sistema circulatorio del paciente y en consecuencia el método no es viable a nivel médico, aunque sí lo es a nivel experimental en aceleradores de partículas con otros fines. Por tanto hay que encontrar otro método
 El otro método es mediante desintegraciones tipo β+  a partir de un núcleo inestable.


Efecto fotoeléctrico y efecto Compton

El efecto fotoeléctrico es bien conocido, por ello pasaremos por el por encima. Consiste en la incidencia un fotón (luz) de energía E=hν sobre un átomo y la consecuente liberación de un fotoelectrón fruto de la absorción completa de la energía del fotón. Por tanto la energía del fotoelectrón será la diferencia de las energías del fotón incidente y la energía de ligadura del electrón al átomo
En cuanto a la probabilidad de eficacia de este efecto, se debe tener en cuenta la sección eficaz y la energía del fotón incidente.
Como es lógico, la liberación del fotoelectrón lleva consigo la aparición de un nivel vacio, el cual deberá ser llenado con algún electrón de capas superiores. Así al decaer un electrón de una capa superior a una inferior, se producirá una emisión de rayos X.
Si bien en el efecto fotoeléctrico se considera que el fotón posee únicamente energía E=hν, el efecto Compton considera además el momento p del fotón. Así consideremos el fotón dispersado un ángulo θ respecto de la dirección del fotón incidente, con energía E’=hν y momento p’=h/λ’. Y sea por último la masa, m, del electrón del átomo. Entonces se puede probar que la diferencia de longitudes de onda ente la radiación incidente y dispersada, está únicamente relacionada con el ángulo de dispersión
Esta relación recibe el nombre de ecuación de Compton.
Resulta interesante comentar que los tres procesos descritos hasta el momento, efecto fotoeléctrico, efecto Compton y creación de pares, son en realidad “el mismo”, la probabilidad de darse uno u otro, depende de la energía del fotón inicial. En efecto si el fotón es muy energético (E>1.022MeV), entonces, la creación de pares será más probable, mientras que para energías medias y bajas se hacen más probables los efectos Compton y fotoeléctrico.

Detectores:
Finalmente toda la radiación ha de ser registrada, para ello se emplean los detectores. Estos pueden ser de distintos tipos en función del método medida. Los mas comunes son los semiconductores, los detectores gaseoses, y los centelladores. Lo dejaremos aquí, no entraremos en más detalles, dejando así abierta la posibilidad a un futuro post.


Referencias:
[1] University Laboratory Experiments. Physics. Volume 3PHYWE. Pág. 5.2.12.
[2] Emission Tomography. The fundamental of PET and SPECT. Miles N. Wernick, John N.  Aarsvold. El servier Academic Press. 2004.
[3] Single photon emission computed tomography. RJ Ott. Nupecc. 200.
     

domingo, 2 de octubre de 2011

Introducción a las Técnicas PET y SPECT (Parte 1)

Tras el parón vacacional, vuelvo a escribir y como dije intercalaré post largos con cortos y entretenidos, hoy toca uno largo:

Introducción:

La tomografía por emisión de positrones (PET) y la tomografía por la emisión de un único fotón (SPECT) son  técnicas de imagen médica pertenecientes a la medicina nuclear, las cuales permiten la adquisición de imágenes del sujeto (paciente o animal) en vivo, siendo por tanto técnicas no invasivas. Esto los convierte en una de las tecnologías médicas actuales de mayor relevancia. Prueba de ello son las aplicaciones en distintas disciplinas como son la oncología, neurología o cardiología, las cuales emplean esta técnica a diario.

Entre las técnicas médicas de imagen existentes, podríamos clasificar éstas en dos tipos: las técnicas de imagen proyectada y las técnicas de imagen tomografiada. El primer tipo comprende aquellas imágenes bidimensionales, mientras que en el segundo la imagen adquirida es tridimensional. La PET y la SPECT, pertenecen a la segunda clase. Por tanto, estas técnicas permiten la reconstrucción tridimensional, y además, muestran información funcional del organismo tomografiado.

En cuanto a la adquisición de la imagen, ésta se obtiene mediante la inyección de radiotrazadores al paciente u organismo a estudiar. Un radiotrazador no es más que una sustancia que contiene un radioisótopo de periodo de desintegración pequeño, tal que al introducirse en el organismo, no se ve afectado  ni el organismo ni la sustancia radiactiva. Estos radiotrazadores son radionucleidos emisores de radiación  β+ en el caso de la PET y rayos X individuales sin correlación angular en el caso de la SPECT. Los radiotrazadores se introducen en el sujeto por vía intravenosa y se distribuyen por el organismo mediante el sistema circulatorio. De este modo el paciente emitirá radiación, la cual será detectada y registrada. El tratamiento posterior de esta información permite obtener una imagen funcional, es decir, tanto la distribución espacial como la evolución temporal del radiofármaco.  Los radiofármacos empleados no son radioisótopos puros, sino en realidad compuestos con el radiofármaco. Para el caso del la PET podemos clasificar los principales radiofármacos en 4 grupos atendiendo al radioisótopo empleado, que son, F, O, N y C. Cada uno de ellos posee un tiempo de vida media y lo que llamamos distancia máxima, la cual representa el radio de error en la posición del radioisotopo.

En lo que respecta a la obtención de los radioisótopos, ésta se realiza en ciclotrones al bombardear con partículas blancos nucleares concretos. Es por ello, por lo que junto a cada radiofarmacia se sitúa un ciclotrón. Dado que el presente trabajo es de física, dejaremos aquí el tema de los radiofármacos y seguiremos con el tema principal del trabajo. No obstante parece importante haberlos mencionado para no dejar así cabos sueltos.

Si bien se habló de radiofármacos, todavía no se sabe nada acerca del proceso de medida. Expliquemos en primer lugar la radiación para el tomógrafo PET. Supóngase entonces un núcleo inestable, el cual estará dentro del radiofármaco. Entonces éste decaerá a otra forma más estable, emitiendo un positrón y un neutrino. Es la emisión del positrón la que interesa, pues recorrerá una determinada distancia antes de colisionar con un electrón y aniquilarse produciéndose entonces dos fotones que, por conservación del momento, tendrán sentidos opuestos

Desintegración electrón-positrón y creación de un par de fotones

Los detectores del tomógrafo registran estos dos fotones. Se detectarán muchos fotones, pero no todos ellos son válidos para el registro. Hay que tener en cuenta dos hechos importantes en la aniquilación: la creación de los fotones es simultánea y ambos tienen velocidades opuestas. Por tanto, el proceso de medida se hará por coincidencias dentro de una ventana de tiempos de error. En efecto, un tomógrafo suele tener forma circular o cilíndrica, situándose el paciente en el eje. De este modo dos puntos diametralmente opuestos deben registrar dos fotones, simultáneamente dentro de un intervalo de error. En caso contrario, los fotones detectados no procederán de ninguna aniquilación y por tanto, serán desechados del proceso de medida.

Si el tomógrafo empleado es tipo SPECT, entonces el radio fármaco ya no será el mismo y la única diferencia respecto a lo anterior será el decaimiento de los radionucleidos, que en vez de emitir radiación β+, emitirán rayos-X simples. Y por tanto, el registro será el correspondiente al de un único fotón.

De esta forma el tomógrafo registra un patrón de intensidades, el cual permite una reconstrucción de la distribución espacial del radiofármaco. Si realizamos el proceso de medida durante un cierto tiempo, se podrá además registrar la evolución temporal del organismo medido.

El próximo día el fundamento físico. Un saludo.

martes, 19 de julio de 2011

Radiación Cherenkov

Es conocido, que la velocidad de la luz toma su máximo valor para la propagación en el vacío siendo insuperable el valor de c=299792458m/s. Al atravesar medios materiales, la velocidad de propagación dependerá del medio y de su constante dieléctrica, pero en todos ellos la velocidad de propacación es menor a la del vacío. La radiación Cherenkov consiste en acelerar una partícula cargada a velocidades superiores a la de la luz en el medio.

¿Pero cómo, si la velocidad de la luz es el máximo permitido?
Sí, es cierto, pero en el vacío, es posible acelerar una partícula en un medio dieléctricoa velocidades superiores a la de la luz en dicho medio. Esto se logra mediante aceleradorse de partílcuas o reacciones nucleares ¿Entendeís ahora el color azul en las piscinas de las centrales nucleares? Sí es radiación Cherenkov.

Cherenkov tratando de estudiar la radiación aceleró partículas alfa o beta, y las hizo incidir sobre una ampolla de agua, es entonces cuando obserba el fenómeno. Este estudio le lleva a ser galardonado con el premio novel en 1958.
Para entender el origen del fenómeno, es usual recurir a un análogo con el sonido. Así como bien es sabido, al superar la velocidad del sonido, se crea una bonita onda de choque, fruto de la superposición de las ondas sonoras emitidas, esta ónda se puede demostrar que cónica, tal como se muestra en la figura. Esto ocurre por que la partícula u objeto se mueve a maor velocidad que el sonido en dicho medio. La radiación Cherenkov, es el equivalente en luz a lo que en sonido es la onda de choque.

Onda de choque, obsérvese su forma cónica

Hasta el momento no hemos dado una explicación física del fenómenna onda de choque sonora, esta producida por las variaciones de presión que genera el objeto a moverse a velocidades supersonidas, la sueprsposición de estas variaciones genera una onda de gran presión la onda de choque. En la radiación Cherenkov ocurre lo mismo, la partícula al paso por el medio material pertuba el campo electrico a su paso de modo que los átomos del material se desplan ligeramente, fruto de la interacción electromagnética. Y dado que toda partícula cargada emite radiación, son estas pequeñas radiaciones emitidas por lso desplazamientos de los átomos las que se superponen para generar la onda de choque, es decir la radiación Cherenkov.

Falta bastante rigor físico, pero creo que ha quedado más o menos claro el efecto.

Un saludo

sábado, 16 de julio de 2011

Analema

Supongamos que sacamos una fotografía del sol todos los días de un año a la misma hora y desde el mismo lugar. Posteriormente, superponemos todas las fotografías y analizamos la evolución en el tiempo de la posición del sol. La curva descrita, recibe el nombre de Analema. Este experimento fue realizado por los griegos en la antiguedad, marcando en el suelo la posición del sol cada dia del año durante un año, para ello hacían uso de la proyección de la sombra de una vara en el suelo. Por ser la órbita periódica, es lógico que dicha curva sea cerrada. En efecto se observa en la figura


Éste es el comienzo de los primeros relojes solares. De hecho en griego, analema es el soporte de un reloj de sol. Así desde la época griega comenzaron a realizarse estudios, escribirse tratados sobre la buena construcción de relojes, posteriormente y hasta nuestros días relojes de cuerda y finalmente los de pila dejarón obsoletos los relojes de este tipo.
La difracción de la luz comienza con este tipo de relojes. Así el padre Grimaldi en la catedral de Florencia, pretendiendo construir un reloj de sol de gran precisión. Realizó un pequeño agujero en la cúpula de la catedral con intención de dejar pasar un pincel de luz. Pero observó que la luz se dividía se partía al atravesar el orificio, éste es el significado de difracción y en particular es el origen de la misma.
Como es lógico en cada planeta el analema del sol no será el mismo, por ejemplo en marte posee la siguiente forma de gota


viernes, 15 de julio de 2011

Supercooling y superheating

El supercooling, es un estado de equilibrio o equilibrio metaestable que se produce en líquido enfriados por debajo de la temperatura de fusión, pero sin producirse aún el cambio a la fase sólida. De este modo al mínimo aporte de energía, como puede ser un golpe o la adición de una solución, el líquido recibe a la energía necesaria para abandonar el estado metaestable (líquido) y evolucionará a un estado con mayor estabilidad, nótese como el cambio de fase es completamente abrupto.

Vamos a mostrar un par de videos de supercooling y superheating.



Para que se producca el cambio de fase debe existir al menos un núcleo de cristal de la nueva fase, y será a partir del cual crecerá el cristal. Es por ello que en el segundo video vemos el avance del hielo de arriba a abajo. El proceso de nucleación se produce en este caso de arriba a abajo.

Un efecto análogo sucede con la ebullición, hablando entonces de superheating. El sigueinte experimento se hizo introduciendo una taza con agua en el microonas a máxima potencia durante 3 minutos:


Como se puede ver el agua sale del microondas en un estado metaestable y al mínimo aporte de energía sale de ese estado de equilibrio (metaestable) a otro mucho más estable (fase liquida sin evaporación),liberando energía.

Un saludo

miércoles, 13 de julio de 2011

Experimento de la Doble Rendija

Descripción:

Este famoso experimento, se puede considerar como uno de los origenes de la mecánica cuántica, obstante el  experimento es anterior al desarrollo de la misma, pretendiendo en sus inicio discernir la naturaleza ondulatoria o corpuscular de la luz.
Respecto a la disposición del experimento, se considera un foco de partículas, aunque originalmente se empleó luz, fotones, se colima y se hace incidir perpendicularmente sobre una placa con dos aberturas o rendijas, para posteriormente colisionar en una pantalla que registrará los impactos.  Es importante que el tamaño de las rendijas no sea muy grande y sea del orden de la longitud de onda, a fin de poder producirse la difracción.
 En la figura se obserba un foco de luz, la primera ranura es el equivalente a un colimador, le siguen las dos rendijas, y finalmente la pantalla.


Evidencia experimental:

Considérense los siguientes prodecimientos de medida:
  1. Tapamos la ranura izquierada, y se mide el patrón regristrado en la pantalla.
  2. Se tapa la rendija derecha y se prepite la medida anterior, obteniendo así otro patrón.
  3. Finalmente se dejan ambas aperturas abiertas y se vuelve a registrar el patrón en la pantalla.
 Ahora se nos plantea la siguiente cuestión, ¿Que forma deben tener los tres patrones?

Como es lógico los patrones de los experimentos 1 y 2 serán los mismos, por ser simetrico el dispositivo. La naturaleza no distingue entre ranura izquierda o derecha y por tanto, el patrón deberá ser el mismo. En efecyo, esto se comprueba experimentalmente, obteniendo dos patrones de intensidad como los de la figura.
Ahora supóngase que nos encontramos en el tercer caso, con ambas ranuras abiertas ¿Qué patrón de intensidades observamos en la pantalla?. Bien, la física clásica presupone la superposiciónd e los patrones obtenidos en los experimentos 1 y 2, pero la reliadad es otra, mostrando un patron completamente distitnto como se aprecia en la figura.



En la figura se aprecian los patrones de intensidad en la placa fotográfica o pantalla.

Explicación teórica:

La explicación al experimento radica en el problema de la medida o también llamado colapso de la función de onda. En este dispositivo, se mide un patrón de difracción pero no es la única información del sistema. Se sabe además que en 1, la luz debe pasar obligatoriamente por la ranura izquieda, y en 2 por la derecha. Por contra, en 3, no tenemos información de la rendija que es atravesada. Así el tapar un abertura u otra da información de la tracyectoria de luz, y por tanto, se pude considerar como una medida. Pero medir en cuántica, significa perturbar irremediablemente el sistema, así lo estable el principio de indeterminación. Luego cuando se realiza el proceso de medida, se esta determinando el estado del sistema y en consecuencia en cierto modo mostramos al sistema como comportarse. En el caso que nos atañe, tapar un rendija, da información de la rendija que va a pasar y la luz s ecomporta como corpúsculo y no genera un patron interferencial. Al abrir las dos rendijas, no hay información de la trayectoria de la luz, se comporta entonces como una onda, (si fuera un corpúsculo, unicamente podría pasar por una rendija) y no generaría patrón interferencial alguno. 
Así queda de manifiesto la naturaleza dual de la luz. Por supuesto esto se puede obtener analíticamente,  no entraremos en ello, ver referencias.


Variantes del experimento:

Ya se mencionó en la descripción que no es necesario el empleo de luz para la realización del experimento, pudiendo usarse distintar partículas, en concreto, es común  poryectar electrones, neutrones o protones, aunque, también se harealizado el experimento con átomos e incluso moléculas mas o menos complejas como puede ser un fulereno. Existieron variantes de este experimento, unos a fin de ver si la mecánica cuántica es consistente y otros por pura ciencia, prueba de ello son experimentos como:

Aharonov-Bohm: Consiste en relilar el mismo experimento, aplicando además un campo magnético. Este experimento pone de manifiesto el efecto que lleva su mismo nombre, efecto Aharonov-Bohm. Brevemente, este consiste en que las partículas con carga electrica peuden verse afectas por campos electromagnéticos incluso en ausencia de dichos campos, su explilcación se debe al acoplamiento del potencial con la fase de la función de onda.

Experimento de Shahriar Afshar: Es un polémico experimento e induce a pensar que se viola el principio de complementariedad, pero debe tomarse con cuidado. Consiste en colocar una rejilla tras la 2 ranuras, de modo que los agujeros de la rejilla coincidan con los maximos de difracción cuando ambas rendijas esten abiertas. Posteriormente se coloca una lente, de modoq ue la partícula prodecente de la ranura 1 va a deterctor 1 y la de la ranura 2 a un segundo detector. No describiremos el experimento ni por que se viola, simplemente lo dejamos como una variante del experimento.
Otros experimentos de los cuales ahora mismo no recuerdo el nombre, situan detectores a la salida de cada orificio, por ejemplo un gas que se excite al paso del fotón por el orificio y en consecuencia pro el detector. De este modo al pasar la partícula se produce una excitación del gas que podemos medir, tratando de conocer así la ranura por la cual pasó la partícula. El resultado es el mismo, la colocación del detector pertuba la medida determinando el estado del sistema.


Conclusiones:

La paradoja del experimento de la doble rendija, radica en los distintos registros en una placa fotográfica (Pantalla), al variar las rendijas abiertas. El principio de complementariedad establece que, la luz se comporta como onda o como corpúsculo. Al pasar la luz por cualquier de las aberturas detectamos la misma cantidad de energía (quanto), y por tanto predecimos la existencia de una partícula. Pero con los dos orificios abiertos, es imposible determinar la trayectoria de luz, su comportamiento es ondulatorio. Medir es obtener información del estado del sistema, pero tras la medida se pierde ese información (Colapso de la función de onda).
 
Referencias:
Las referencias donde obtenermas mayor información son las siguientes
  • Leslie. E. Ballentine. Quantum Mechanics: A Modern Developmen
  • Carlos Sanchez Del Rio. Física Cuántica.
  • Galindo y Pascual. Quantum Mechanics.
  • Sakurai, Jun John. Modern Quantum Mechanics.

martes, 12 de julio de 2011

Presentación

No soy hombre de demasiadas palabras, me gusta ir al grano, así que lo haré. Ya hace tiempo que tenía en mente crear un blog. Dado que soy físico, me gustaría aportar algo a la divulgación de esta disciplina. Es por tanto el motivo de este blog.
No obstante, no todo es física e iré alternando post, sobre temas interesantes, reflexiones, etc...



En cuanto a lo que pueda escribir aquí, serán únicamente unas notas personales, no deben tomarse como un artículo cientifico o como un libro de texto, habrá mucha y mejor información en dichas fuentes. Y por tanto, lo publicado en este blog no está carente de posibles erratas. Repito, pretendo divulgar. Si, queréis la fuente, pedídmela


Respecto a vosotros queridos lectores, podéis hacer comentarios a cualquier tema. Pero quisiera dejar claro que quedan prohibidos comentarios sobre política religión, insultos o desprecios a los temas publicados y en particular a otros lectores. No pretende sonar duro, simplemente es curarse en salud y evitar así problemas.


Espero que disfruteis leyendo y espero disfrutar escribiendo.



Un saludo