MEXIKO, v1, n6, 3 de junio de 2009 kosmosmexiko.blogspot.com [email protected]

Izquierda: Atomo [núcleo (protones, neutrones) y electrones]. Derecha: Partículas elementales [quarks (d, u, s, c, b, t) y leptones (electrón, muón, tauón, y sus neutrinos].

2009 kosmos 1 (6) 2

Pláticas Populares sobre Astronomía, Astrofísica y Cosmología en 2009, Año Internacional de la Astronomía.

david bahena, PhD *

La hipótesis atómica es una de las ideas materialistas que han sobrevivido más de dos mil años. Hoy se sabe que el átomo es divisible pero la existencia de ladrillos básicos como constituyentes del universo visible es real. La mecánica cuántica es la teoría para el entendimiento del átomo y es la base de casi toda la ciencia y tecnología modernas. La materia conocida del universo está formada por quarks, electrones y campos y, las interacciones conocidas de la naturaleza son: gravitación, electromagnetismo, nuclear débil y nuclear fuerte.

1. Hipótesis atómica En la antigüedad griega (siglo III a.C.) dominó el pensamiento de Aristóteles quien pensaba que la materia en el universo estaba compuesto de los elementos: tierra, agua, aire y fuego; y que había dos fuerzas: la que hace subir a los cuerpos y la que hace bajarlos. También creía que la materia era continua y podría dividirse sin límite. Sin embargo, cien años antes, otros pensadores griegos consideraron que la materia era discreta y que todo estaba formado por pequeñas partículas a las que llamaron “átomos”, los cuales, eran los constituyentes básicos que no podrían dividirse más. Sostenían que la realidad está compuesta por dos causas: lo que es (átomos) y lo que no es (vacío). A Leucipo de Mileto, Demócrito de Abdera y Epicuro de Samos se les atribuye la fundación del “atomismo”. En esta idea, los átomos son partículas finitas, indivisibles, de formas variadas y siempre en movimiento; y, el vacío, es imprescindible para que exista el movimiento. La atomística de Demócrito se conoce por Lucrecio Caro quien, en su poema “Rerum Natura” (“De la naturaleza de las cosas”), escribió en el

siglo I acerca de la estructura del átomo y del vacío, del agrupamiento y movimiento de los átomos. “Nada nace de la nada, nada vuelve a la nada”, expresó, definiendo al cosmos como el conjunto de átomos que se mueven en el vacío. Pero la atomística no fue considerada ampliamente. Siguieron mil quinientos años de dominio aristotélico. Fue hasta el siglo XVI, con la revolución copernicana, que Giordano Bruno difundió la ideas del heliocentrismo, la pluralidad de mundos y sistemas solares, la infinitud del espacio y el universo, así como, en el movimiento de los átomos. El universo de Bruno es concebido como un organismo y los átomos son orgánicos y vivientes. En 1704 destacan los descubrimientos de Isaac Newton sobre la naturaleza de la luz, quién demostró que la luz blanca al atravesar un prisma se descompone en varios colores y propuso una teoría corpuscular de la luz, según la cual, está formada por partículas y se propaga en línea recta, no por medio de ondas. Luego, en 1803, John Dalton estableció un “nuevo sistema de filosofía química”, según el cual la materia es discontinua y está formada por átomos y, el agrupamiento de éstos, forma moléculas.

2009 kosmos 1 (6) 3

Después siguieron diversas investigaciones sobre la electricidad y el magnetismo. André-Marie Ampère determinó en 1826 que un campo eléctrico que varía con el tiempo, produce un campo magnético, y la circulación en este campo es igual a la densidad de corriente. Michael Faraday estableció en 1832 que existen cargas eléctricas con una magnitud definida asociada a los átomos y propuso la existencia de un “cuanto” eléctrico. También, que la inducción electromagnética origina una fuerza electromotriz en un campo magnético. La teoría dinámica del campo electromagnético fue propuesta en 1864 por James Clerk Maxwell y otros. A partir de las leyes de Gauss, Faraday y Ampére, las ecuaciones de Maxwell describen las propiedades electromagnéticas macroscópicas de la materia. La luz es descrita como una onda electromagnética. En 1869, Dimitri Mendeleiev clasificó a los elementos químicos según su masa, ordenándolos de acuerdo a sus propiedades y dejando huecos que postulaban la existencia de elementos desconocidos a ese momento. Diez años después se descubrió la inestabilidad atómica. En 1896, Wilhem Roentgen descubrió un tipo de rayos capaces de atravesar los cuerpos opacos y de impresionar las películas fotográficas. En su momento no se conocía la naturaleza de estos rayos desconocidos y se les llamó X. Hoy se sabe que son una radiación electromagnética de longitud de onda muy corta que se originan en las capas atómicas externas debido a la transición de los electrones de niveles superiores a inferiores de energía. Al siguiente año, en 1896, Antoine Becquerel descubrió accidentalmente a la radiatividad al encontrar veladas unas placas

fotográficas colocadas sobre un mineral de uranio. Marie Slodowska y Pierre Curie estudiaron el fenómeno y concluyeron que era una propiedad característica de ciertos átomos. Las radiaciones fueron identificadas como “alfa”, “beta” y “gamma”, las dos primeras de carácter corpuscular y, la tercera, electromagnética. La radiatividad es propia de átomos con núcleos inestables desde los cuales se emiten las radiaciones. Estas tienen diversas aplicaciones pero al interaccionar con el tejido vivo pueden causar un “detrimento” a la salud y producir diversos efectos biológicos dañinos, tanto somáticos como genéticos. En 1897, al realizar experimentos con rayos catódicos se observaron corrientes eléctricas en los tubos de vacío. Joseph John Thompson descubrió al electrón, nombre sugerido en 1974 por Johnstone Stoney, al concluir que los rayos catódicos están formados de pequeños corpúsculos provenientes de los átomos del cátodo que eran desviados por un campo magnético. Calculó entonces la relación de la masa a la carga del electrón. La existencia de éste implicaba que el átomo es divisible. En el siglo XIX, Pierre Simon Laplace había argumentado en favor del determinismo científico, de manera que, debían existir un conjunto de leyes que nos permitirían predecir todo lo que sucediera en el universo si conociéramos el estado de éste en un instante de tiempo dado. La idea fue abandonada a principios del siglo XX cuando se produjo la llamada “catástrofe ultravioleta”. Esta, de acuerdo a la física clásica, implicaba que la energía radiada total por un cuerpo caliente podría ser infinita. Para evitar ese resultado, Max Planck propuso en 1900 que la luz, los rayos X y otros tipos de ondas no se emiten en cantidades arbitrarias sino en ciertos paquetes llamados “cuantos”. Con ello se iniciaba el desarrollo de la física cuántica.

Atomistas griegos: Leucipo, Demócrito, Epicuro, Lucrecio

2009 kosmos 1 (6) 4

2. Teoría cuántica del átomo 2.1 Cuantización de la energía La teoría cuántica empieza con la “cuantización de la energía”. A la radiación emitida por un cuerpo como resultado de su temperatura se le llama radiación térmica. Hay una clase de cuerpos calientes, llamados cuerpos negros, que emiten radiación térmica con el mismo espectro a una temperatura dada. Tales cuerpos absorben toda la radiación que reciben y, como no reflejan la luz, se ven negros. A principios de 1900, John Strutt Rayleigh y James Jeans presentaron un cálculo para la densidad de energía de un cuerpo negro. La formulación predecía una producción de energía que tendía al infinito mientras que, los experimentos demostraban que a frecuencias muy altas (región ultravioleta) la densidad de energía tiende a cero. A esto se le llamó “catástrofe ultravioleta”. La física clásica no podía explicar la situación. Entonces, se produjo una crisis y, a la vez, una revolución en la física. En 1900, Max Planck dedujo un resultado teórico que concuerda con los experimentos y propuso que la energía era una variable discreta, es decir, que solamente podía tomar valores discretos y no arbitrarios. Esto es, la energía se emite en forma de pequeñas cantidades llamadas “cuantos”, caracterizada por dos cantidades, la frecuencia y la llamada constante de Planck (h). Al ser cuantizada la energía empezó la teoría cuántica. En 1905, Albert Einstein publicó tres importantes artículos. En el primero de estos se refirió al “movimiento browniano·”. Este es un movimiento aleatorio que se observa en algunas partículas microscópicas inmersas en un fluido, por ejemplo, polen en agua. El movimiento aleatorio de las partículas se debe a que su superficie es bombardeada por las moléculas del fluido sometido a agitación térmica. Así, de una manera indirecta, Einstein confirmaba la existencia de átomos y moléculas. Luego, propuso la cuantificación de la energía electromagnética. Einstein demostró que las partículas cargadas, conocidas como electrones, absorbían y emitían energía en cuantos finitos proporcionales a la frecuencia de la luz o radiación.

Esto implicaba a la naturaleza corpuscular de la radiación. La luz es una partícula llamada “fotón”, sin masa, que viaja en el vacío a una velocidad de c=300 mil kilómetros por segundo. A la expulsión de electrones de una superficie mediante la acción de la radiación electromagnética se le llama “efecto fotoeléctrico”. De acuerdo a esta nueva teoría de la luz, la energía de un fotón es igual a la frecuencia de la radiación multiplicada por la constante de Planck. De esta manera, la energía está distribuida en el espacio de una forma discontinua. El mismo año, en el contexto de la teoría especial de la relatividad, Einstein propuso el principio la equivalencia entre masa (m) y energía (E) expresada en su famosa fórmula E=mc2, donde c es la velocidad de la luz. Esto implica que la masa conlleva cierta energía aunque el objeto se encuentre en reposo. La masa y la energía son propiedades de la materia en movimiento y las interacciones tienen como límite a la velocidad de la luz. La relación de Einstein tendría fuertes implicaciones pues en el interior del átomo estaría concentrada una gran cantidad de energía que al liberarse podría utilizarse con diversos fines, incluidos los bélicos, como ha ocurrido. El proceso de producir masa a partir de energía también es posible. 2.2. Cuantización del átomo A partir del descubrimiento del electrón se idearon muchos experimentos para explorar el interior del átomo. Se conoció la carga del electrón y se encontró que su masa era muy inferior a la de los átomos más ligeros. Experimentos como el efecto fotoeléctrico y la dispersión de rayos X demostraron que el átomo contenía electrones y que el número de éstos era aproximadamente la mitad del peso atómico del átomo. Se concluyó que un átomo es eléctricamente neutro y que tenía una carga positiva igual a la negativa de los electrones y que la mayor parte de la masa estaba asociada a la carga positiva. En 1906, Joseph John Thompson propuso un modelo de átomo como una esfera de carga

2009 kosmos 1 (6) 5

positiva, en la cual, los electrones se consideraban como cargas puntuales inmersos en la esfera. Este modelo de “pudín de pasas” fue descartado cuando se encontró que no concordaba con el experimento de dispersión de partículas alfa. Robert Millikan realizó en 1909 el “experimento de la gota de aceite” para determinar la carga del electrón. En 1911, Ernest Rutherford utilizó las partículas alfa para examinar la estructura de la materia. Algunas partículas atravesaban al átomo desviándose con ángulos diversos pero, otras, retrocedían 180 grados. Esto llevó a Rurherford a suponer que toda la carga positiva del átomo, cuyo tamaño es del orden de un Angstrom (10-8 cm), estaba concentrada en una región pequeña llamada núcleo, del tamaño del orden de un Fermi (10-13 cm), y que los electrones giraban alrededor de éste a la manera de un sistema planetario. Al núcleo del átomo de hidrógeno se le llamó protón. La conclusión fue muy relevante porque se demostraba que el átomo, considerado indivisible, tenía una estructura interna. Pero una configuración como la de Rutherford implicaba problemas de estabilidad del átomo. De acuerdo con la teoría de Maxwell, las partículas cargadas al ser aceleradas radian ondas electromagnéticas. Entonces, los electrones perderían energía y colapsarían en el núcleo en trayectorias espirales, cuestión que no observamos en la realidad. En 1913, Niels Bohr presentó una teoría que preservaba la estabilidad del átomo. Primero, postuló que los átomos existen en “estados estacionarios”, en los cuales no radian energía y son estables. Este postulado es equivalente a la cuantificación de la energía de los átomos. Segundo, el átomo emite o absorbe energía radiante únicamente cuando va de un estado estacionario a otro, y el cambio de energía del átomo es igual a la energía del fotón de radiación que se emite o absorbe. Este postulado invoca el concepto cuántico de la radiación de Einstein. Finalmente, Bohr propuso una regla de cuantización para determinar los estados estacionarios de energía del átomo. Esta regla se llama ·”Principio de correspondencia” y quiere decir que la teoría cuántica tiene un límite clásico, es decir, da los mismos resultados en el límite en que la teoría se conoce como correcta. Con estas bases, los postulados de Bohr permitieron deducir una formulación teórica para las energías permitidas del átomo de hidrógeno, el

más sencillo, es decir, un átomo con un solo electrón. Después, calculó los radios orbitales permitidos y encontró que el movimiento orbital angular del electrón está cuantizado, es decir, toma únicamente valores enteros múltiplos de la constante de Planck. Posteriormente, el concepto atómico de Bohr se abandonó porque, de acuerdo a la mecánica cuántica, las órbitas no pueden definirse. Sin embargo, el éxito de Bohr motivó en 1916 a William Wilson y a Arnold Sommerfeld a estudiar átomos más complejos y a elaborar una teoría más detallada para el átomo de hidrógeno considerando órbitas elípticas tridimensionales y efectos relativistas para el movimiento del electrón. Sin embargo, no fue posible explicar al átomo de helio. Era evidente que hacía falta reformular y generalizar las leyes de la física. Esto ocurrió hacia fines de los años 20’s cuando Erwin Schrodinger y Werner Heisenberg formularon la teoría de la mecánica cuántica. Poco antes, en 1916, Einstein ajustó la función de Planck asignando probabilidades a los procesos de absorción y emisión de radiación. Si solamente se considera absorción y emisión espontánea se obtiene la ley de Wilhem Wien pero, si se adiciona la emisión estimulada, se obtiene la ley de Planck. Esto sirvió para establecer los fundamentos para el desarrollo de los láseres y de sus predecesores, los máseres (que emiten microondas), utilizando la ley de radiación de Planck basada en los conceptos de emisión espontánea e inducida de la radiación. Después, en 1923, mediante experimentos de dispersión de electrones por rayos X, Arthur Compton corroboró la teoría corpuscular de la radiación propuesta por Einstein. La teoría cuántica parecía clara pero era necesaria una teoría ondulatoria de la radiación para entender lo fenómenos de interferencia y de refracción. 2.3 Dualidad onda-partícula En 1924, Louis de Broglie expuso su teoría acerca de las ondas de materia. De acuerdo a esta hipótesis, el comportamiento dual de la radiación, como ondas y partículas, se aplicaba igualmente a la materia. Es decir, la longitud de onda de una onda material está asociada con la cantidad de movimiento de la materia. Con esta base, en el átomo solamente están permitidas aquellas órbitas que contienen un número entero de ondas de De Broglie.

2009 kosmos 1 (6) 6

Los experimentos realizados demostraron que la materia se comporta de acuerdo con las leyes del movimiento ondulatorio. A la función que representa la onda de De Broglie se le llama “función de onda”, la cual no mide la trayectoria del movimiento sino las densidades de probabilidad. La posición exacta de una partícula no se puede especificar en un instante dado sino que se le define mediante la probabilidad de encontrarla en un cierto intervalo de espacio en un instante dado. Así como se suman las funciones de onda para dos ondas electromagnéticas, también se puede hacer para dos ondas de materia superpuestas. Es decir, a la materia como ala radiación, se aplica el “principio de superposición”. Al siguiente año, 1925, Wolfang Pauli formuló el “principio de exclusión” para explicar la Tabla Periódica de los elementos mediante el modelo de Bohr. Este principio establece que dos partículas materiales idénticas no pueden estar en el mismo estado cuántico, es decir, no pueden tener ambas la misma posición y la misma velocidad dentro de los límites fijados por el principio de incertidumbre. En el caso de los electrones, el principio de Pauli implica que no pueden ocupar el mismo estado cuántico y tienen que ocupar sucesivas capas electrónicas. Este principio permite explicar porqué las partículas materiales no colapsan en un estado de alta densidad y, sin este principio, sería muy difícil imaginar la estructura de la naturaleza. El mismo año, Werner Heisenberg, Max Born y Pascual Jordan introdujeron una formulación matricial de la mecánica cuántica para utilizar solamente conceptos observables de energía y probabilidad. Mediante esta mecánica matricial es posible obtener información a partir de conocer el estado inicial y final de un sistema sin tener en cuenta los estados intermedios. Esto tenía muchas implicaciones acerca del determinismo. De acuerdo al “principio de incertidumbre” de Heisenberg, propuesto en 1926, no se puede determinar simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, por ejemplo, la posición y al cantidad de movimiento, o la energía y el tiempo, de un objeto dado. Heisenberg demostró que la incertidumbre en la posición de la partícula, multiplicada por la incertidumbre en su velocidad y por la masa de la partícula, nunca puede ser más pequeña que la constante de Planck.

El principio de incertidumbre es una propiedad fundamental de la naturaleza y tiene profundas implicaciones. Este principio terminó con el determinismo. Es decir, no se pueden predecir los acontecimientos futuros con exactitud ni siquiera el estado presente del universo. El principio se basa en un conocimiento basado en probabilidades. Las mediciones físicas comprenden la interacción entre el observador y el sistema observado y el principio de incertidumbre es una consecuencia de la dualidad onda-partícula. En 1926, Erwin Schrödinger fundó la mecánica ondulatoria introduciendo una equivalencia parcial con la mecánica matricial. Junto con Werner Heisenberg y Paul Dirac se reformuló a la teoría de la mecánica cuántica, basada en el principio de incertidumbre. En esta teoría, las partículas no poseen posiciones y velocidades definidas separadamente, pues éstas no podrían ser observadas. Ahora, las partículas tienen un estado cuántico que es una combinación de posición y velocidad. En general, la mecánica cuántica no produce un resultado único de cada observación, sino cierto número de resultados posibles, dando la probabilidad de cada uno de ellos. Un sistema físico queda descrito por una función de onda que proporciona información sobre la distribución de probabilidades. De acuerdo a la hipótesis de Planck, la luz formada por ondas se comporta en algunos aspectos como si estuviera formada de partículas que solo pueden ser emitidas o absorbidas en paquetes o cuantos. De acuerdo al principio de Heisenberg, las partículas se comportan en algunos aspectos como ondas, es decir, no tienen una posición bien definida sino que están esparcidas en una cierta distribución de probabilidad. Esto es, en mecánica cuántica existe una dualidad onda-partícula. Una consecuencia se puede observar en el fenómeno de interferencia de ondas o de partículas. Si una fuente de luz se proyecta sobre una placa con dos rendijas, una pequeña cantidad atravesará a éstas. Si del otro lado de la fuente luminosa se coloca una pantalla se observa un diagrama de franjas luminosas y oscuras. Esto ocurre porque las ondas que pasan por las rendijas no están en fase cuando llegan a la pantalla, de manera que, algunas se reforzarán y otras se cancelarán. Algo similar ocurre si, en vez de luz, se utilizan partículas como electrones en cuyo caso se

2009 kosmos 1 (6) 7

produce un patrón de interferencia. En 1927, George Paget Thompson demostró que los haces de electrones se difractan al pasar a través de películas delgadas. Pero, bajo las condiciones de la óptica física, no solamente los electrones sino todos los objetos materiales, cargados eléctricamente o no, muestran características ondulatorias en su movimiento. Ese año, Bohr formuló la llamada “interpretación de Copenhague” conocida como “principio de complementariedad”, según la cual, ambas descripciones, la ondulatoria y la corpuscular son necesarias para comprender al mundo cuántico. 2.4 Cuantización del núcleo atómico Con base en el formalismo cuántico, en 1928, George Gamow estudió la radiatividad alfa. Supuso que estas partículas están encerradas en el núcleo atómico en un pozo de potencial del cual, según la mecánica clásica, nunca podrían salir por no tener suficiente energía pero, de acuerdo a la mecánica cuántica, tienen una cierta probabilidad de hacerlo mediante el llamado “efecto túnel”. De acuerdo al principio de incertidumbre, Gamow supuso que una pequeña parte del núcleo atómico de la partícula alfa no está exactamente en el centro del núcleo sino ligeramente separada, de manera que, predomina la fuerza de repulsión electrostática y no la interacción nuclear fuerte. Así, el efecto túnel explica el proceso de emisión de partículas alfa del núcleo atómico. El efecto también explica los procesos para la producción de energía en las estrellas, es decir, las reacciones de fusión termonuclear, en las cuales, los átomos ligeros se aproximan suficientemente para fusionarse luego de haber superado sus barreras de potencial mediante el efecto túnel. En 1928, Paul Dirac formuló una teoría relativista del electrón, consistente con la mecánica cuántica y la teoría especial de la relatividad, es decir, una teoría electrodinámica cuántica. Con su ecuación de onda, Dirac predijo la existencia del antielectrón o positrón, en cuya aniquilación la masa se transforma en energía. Por algún tiempo se había especulado acerca de la existencia de otras partículas (sin carga), adicionales al protón, debido a que las masas de los átomos de número atómico superior al hidrógeno resultaban ser superiores a la suma de las masas de sus protones. La nueva partícula, el neutrón, fue descubierta por James Chadwick en

1932. Con ello se descubrió que el núcleo atómico tiene estructura interna y está formado por protones y neutrones. Ambos se mantienen unidos en el interior del núcleo debido a una fuerza llamada nuclear fuerte. El mismo año Heisenberg propuso un modelo de núcleo formado con protones y neutrones ligados por el intercambio de electrones. Ese año, también, al estudiar los rayos cósmicos Carl David Anderson descubrió al positrón constituido por una carga eléctrica positiva. El positrón es la antipartícula del electrón y correspondía a la partícula predicha por Dirac. La interacción de un electrón y un positrón resulta en la aniquilación de ambos y la creación de dos fotones gamma cuya energía equivale a la masa del par electrón-positrón. El fenómeno inverso, la creación de pares, también es posible. Este descubrimiento fue la primera evidencia de existencia de antimateria. De hecho, al principio de la expansión del universo existía casi la misma cantidad de materia y antimateria. Desde fracciones de segundo después del Big Bang existe antisimetría. En 1933, Enrico Fermi propuso una teoría de la radiatividad beta basada en la teoría cuántica de campos de Dirac, Heisenberg y Pauli. En este proceso, un núcleo atómico inestable emite una partícula beta, que puede ser un electrón o un positrón. La desintegración beta se debe a la interacción nuclear débil que transforma a un neutrón en un protón, o viceversa, creando un electrón o un positrón, respectivamente. En otro proceso en competencia, un neutrón puede capturar a un electrón para producir un protón y un neutrino. Para evitar la violación de la conservación de energía Pauli propuso la existencia del “neutrino” (y antineutrino), partícula (o antipartícula) sin carga y aparentemente sin masa no detectada a ese momento. Se creía que los protones y neutrones eran partículas elementales pero, para que la interacción fuerte los mantuviera unidos en el núcleo era necesaria la existencia de partículas mensajeras. En 1935, Hideki Yukawa introdujo una nueva teoría según la cual el protón y el neutrón se atraen mutuamente intercambiando una partícula virtual de masa intermedia entre las partículas nucleares y los electrones, es decir, un mesón. Considerando la interacción a distancia a través del intercambio de partículas, Yukawa introdujo el concepto de “campo” para describir el

2009 kosmos 1 (6) 8

comportamiento de magnitudes que se definen en todo punto de una región del espacio-tiempo. En 1937, Anderson y colaboradores corroboraron la teoría de Yukawa al descubrir en los rayos cósmicos a una partícula inestable doscientos veces más pesada que el electrón a la que se llama muón, tanto de carga positiva como negativa. Este, sin embargo, no era el mesón de Yukawa sino un elemento de su decaimiento. En 1939, habiéndose descubierto el neutrón, Fermi produjo en Chicago la primera reacción de fisión en cadena. Otro tanto hizo Otto Hahn en Alemania. La fisión significa el rompimiento de un núcleo atómico pesado, como el uranio, cuando es bombardeado por neutrones. Una secuencia de estas reacciones produce una reacción de fisión nuclear en cadena. Con esas ideas, los científicos nucleares se fueron a la guerra intentando la manufactura de una bomba en Alemania o incorporándose de lleno al proyecto Manhattan en los Estados Unidos. Muchos

coincidían en que Alemania pretendía construir la bomba. Entonces, para disuadir a Hitler sugirieron “ingenuamente” al gobierno de Estados Unidos que intensificara la investigación nuclear. Eso fue, precisamente, lo que ocurrió. Los grandes científicos de la época terminaron colaborando con un proyecto de muerte que algunos celebraron en la ebriedad como un triunfo cuando estalló la explosión en Nagasaki. Como consecuencia de la equivalencia de masa y energía de Einstein, en el proceso se libera una gran cantidad de energía que puede utilizarse con fines pacíficos o militares. En 1945, Hiroshima y Nagasaki fueron el blanco de las experiencias bélicas previas realizadas en Nevada y Los Alamos, en los Estados Unidos. Miles de japoneses murieron dejando secuelas de los daños biológicos hasta el día de hoy. En la posguerra, varios científicos nucleares adscritos al proyecto Manhattan recibieron el premio “Atomos para la paz”.

Efecto fotoeléctrico

Atomo cuántico

Principio de incertidumbre

Estados del electrón

2009 kosmos 1 (6) 9

3. Partículas elementales 3.1 Cuantización de las partículas En 1947, Cecil Frank Powell y colaboradores descubrieron al mesón Pi (π) o pion. De acuerdo a la teoría de Yukawa, la fuerza nuclear fuerte se debe al intercambio de piones. Eso funcionaría bien para el intercambio entre un protón y un neutrón pero no entre dos neutrones o dos protones. En este caso, se requería un mesón neutro que pronto fue encontrado, estableciéndose la existencia de los piones positivo (π+), negativo (π-) y neutro (π0). Hacia ese año parecía que se había logrado entender la estructura del átomo. Fotones, electrones, positrones, protones, neutrones y piones habían sido descubiertos y se tenía la certeza de la existencia del neutrino. Todo parecía elemental y explicable excepto el muón. Eso motivó el desarrollo de la física de las altas energías utilizando aceleradores de partículas, como el cosmotrón o el bevatrón, en Estados Unidos. Las actividades, sin embargo, estaban centradas en producir isótopos radiativos con fines médicos. Antes de la guerra, Heisenberg y Pauli se habían comprometido a elaborar una teoría general de las partículas que no fue presentada por el inicio de la guerra. Después de ésta, entre 1947-50, Shin’ichiro Tomonaga, Julian Sshwinger y Richard Feynman formularon la electrodinámica cuántica (QED) nueva, que es la teoría cuántica del campo electromagnético, misma que logró un rápido desarrollo teórico. En 1948 habían comenzado a aparecer multitud de partículas llamadas “extrañas” (mesones pesados, hiperones) por ser desconocidas y los aceleradores de partículas aumentan sus energías permitiendo numerosos experimentos. En 1953, Murray Gell-Mann introdujo la simetría llamada “extrañeza” para explicar el comportamiento de producción y desintegración de partículas extrañas, así como las simetrías SU(2) y SU(1). En 1961, Murray Gell-Mann, Yuval Ne’eman y David Speiser formularon una simetría interna unitaria llamada SU(3) y, en 1962, GellMann hizo la predicción del barión Omega (Ω-) que se detecta en 1964 confirmando a la simetría SU(3).

Ese año, Gell-Mann propuso el modelo de tres quarks, es decir, tres tipos de subpartículas o “sabores” que combinadas entre sí o con los correspondientes antiquarks, daban cuenta de más de 300 bariones o mesones identificados hasta entonces. Como partículas ligeras, o leptones, se consideraba al electrón al electrón, al muón y sus neutrinos. Se inició la búsqueda experimental de esos quarks especulando sobre las propiedades que tendrían. En el modelo de tres quarks de Gell-Mann, un barión (protón, neutrón) está constituido por tres quarks, un mesón por un quark y un antiquark. Los tres quarks serían los llamados “up” (arriba), “down” (abajo) y “strange” (extraño) con sus correspondientes antiquarks. Steven Weinberg, Abdus Salam y Sheldon Lee Glashow formularon en 1967 la teoría electrodébil que unifica la electrodinámica cuántica de las interacciones electromagnéticas y la teoría de las interacciones débiles. En 1971, Gerardus t’Hoofft hizo la corrección a la “renormalización” de Weinberg-Salamn eliminando los infinitos a cualquier grado de aproximación. En 1973, en el Centro Europeo de Investigaciones Nucleares (CERN) de Suiza, se detectaron las corrientes débiles neutras predichas por la teoría electrodébil. Al año siguiente, fue detectado por Samuel Chao Chung Ting y Burton Ritcher, el cuarto quark predicho por t’Hooft, llamado “encanto” (c). Mas tarde, en 1978, se descubrió el quinto quark, llamado “fondo” (b) y se supuso a un sexto llamado “cima” (t) que sería descubierto en 1995. En 1972, Gell-Mann y Harald Fritzsch introdujeron la Cromodinámica Cuántica (QCD) o teoría del color para explicar el confinamiento de los quarks. Según ésta teoría, cada quark, además de uno de los tres “sabores” (u, d, s) tiene uno de los tres “colores” primarios (por ejemplo, rojo, amarillo y azul) y, por tres colores secundarios (por ejemplo, naranja, verde y violeta) para los correspondientes antiquarks. Pero las partículas libres de la naturaleza son “incoloras”, o sea, obtenida por superposición de los quarks. Sin embargo, estos “colores”, como los “sabores”, no son reales sino solo denominaciones de trabajo.

2009 kosmos 1 (6) 10

De esta manera, los bariones (protones, neutrones) están formados por tres quarks de distinto color; dos colores complementarios forman aun mesón, a su vez, formado de un quark y un antiquark. Esto significa que ni los protones ni los neutrones son indivisibles. En 1978, Martin Lewis Perl descubrió una tercera partícula ligera, el leptón Tau (τ) o tauón. Así, en el congreso de Tokio de ese año se propuso el “modelo estándar de las partículas elementales”, según el cual, el universo está constituido por tres pares de leptones y tres pares de quarks. Los leptones son: el electrón, el muón y el tauón, cada uno con un neutrino asociado, es decir, el neutrino electrónico, el muónico y el tauónico, respectivamente. Los quarks son: u, d, s, c, b, t. Los leptones y quarks están agrupados en tres familias, la primera de las cuales, son constituyentes del universo ordinario, es decir, quark d, quark u, electrón y neutrino electrónico. La fórmula del protón es “uud” y, al del neutrón es “udd”. Esto es, un protón contiene dos quarks “up” (u) y un quark “down” (d); un neutrón contiene dos quarks “down” y un quark “up”. La combinación con los demás quarks puede crear partículas de masa mucho mayor que decaen rápidamente en protones y neutrones. Este tipo de partículas, quarks y leptones, son distinguibles, cumplen el principio de exclusión de Pauli y se les conoce como “fermiones”, partículas distinguibles que obedecen a la estadística de Fermi-Dirac y cumplen con el principio de exclusión de Pauli. El neutrino es una partícula elemental cuya existencia fue postulada por Pauli en 1930 para explicar la conservación de energía en las reacciones nucleares. Tomó mas de 30 años confirmar la existencia de los neutrinos. De acuerdo al modelo estándar existen en tres diferentes “sabores” o tipos de neutrinos que no poseen carga eléctrica, probablemente pesan más de cien veces la masa del electrón, oscilan e interactúan de manera extremadamente débil con la materia y están asociados con su correspondiente leptón. En los objetos astrofísicos los neutrinos se producen cuando ocurren las reacciones nucleares a densidades y temperaturas extremas, por ejemplo, en el Sol, el universo temprano, núcleos estelares o explosiones de supernova. Para todas las partículas se consideran las correspondientes antipartículas. Así los seis quarks tienen seis antiquarks y, los seis leptones, seis

antileptones. En el caso de los neutrinos, la partícula y la antipartícula es la misma. 3.2 Fuerzas de la naturaleza En mecánica cuántica hay interacciones entre las partículas materiales que son transmitidas por partículas portadoras de fuerza o bosones. Estas tienen la propiedad de ser partículas indistinguibles, obedecen la estadística de Bose-Einstein y no cumplen el principio de exclusión de Pauli. Esto significa que no existe un límite de partículas que se pueden intercambiar, por lo que, pueden dar lugar a fuerzas muy intensas. Pero, si estas partículas poseen gran masa resulta difícil producirlas e intercambiarlas a grandes distancias. Las partículas que intercambian las partículas materiales entre sí se dice que son “virtuales” porque no se pueden detectar. Pero existen porque tienen un efecto medible, es decir, producen la fuerza entre las partículas materiales. Algunas veces, sin embargo, esas partículas virtuales se pueden detectar en forma de ondas luminosas u ondas gravitatorias. Las partículas portadoras de fuerza se agrupan en cuatro categorías, de acuerdo con la intensidad de la fuerza que transmiten y con el tipo de partículas con que interactúan. Estas categorías corresponden al tipo de interacción conocida existente en la naturaleza que son: electromagnética, nuclear débil, nuclear fuerte y gravitacional. La fuerza electromagnética interactúa con partículas cargadas eléctricamente, es decir, electrones o quarks. La fuerza entre cargas iguales es atractiva y, entre cargas opuestas, es repulsiva. Esta fuerza es de largo alcance y se representa por el intercambio de un gran número de partículas virtuales llamadas “fotones”, sin masa, mismos que también pueden observarse como “reales” en diversas circunstancias. La fuerza nuclear débil es la responsable de la radiatividad y fue comprendida con la teoría electrodébil que unificó con la fuerza electromagnética con la débil. Weinberg y Salam sugirieron que, además del fotón, había otras partículas, conocidas como bosones vectoriales masivos, que transmiten a la fuerza débil. Estos bosones se conocen como W+, W- y Z0, cada uno una masa de 100 giga electron-volts (GeV), los cuales tienen una vida media muy corta y son de muy corto alcance.

2009 kosmos 1 (6) 11

La fuerza nuclear fuerte mantiene unidos a los quarks en el protón y en el neutrón, y a éstos juntos en los núcleos de los átomos. Se cree que esta fuerza es transmitida por una partícula llamada “gluón” que solo interactúa consigo misma y con los quarks. La fuerza es, por tanto, muy intensa y de corto alcance. La propiedad llamada “confinamiento” impide que los quarks se puedan observar aisladamente pues siempre liga a las partículas en combinaciones tales que el conjunto total no tiene color. El confinamiento también impide que se tengan gluones aislados, porque los gluones entre sí también tienen color. Se necesita, entonces, tener una colección de gluones para dar el color blanco. Esta colección forma una partícula inestable llamada “glueball” (bola de gluones). Los conceptos de quark y gluón están bien definidos. A energías normales los gluones unen a los quarks entre sí, a energías elevadas la interacción se hace menos intensa y los quarks y gluones se comportan casi como partículas libres. La fuerza gravitacional es universal porque toda partícula la experimenta de acuerdo a su masa y energía. Esta fuerza es débil, actúa a grandes distancias y se considera que es atractiva. En este caso, la fuerza transmitida entre dos fuerzas materiales se podría representar por el “gravitón”, partícula que no posee masa propia y es de largo alcance. El efecto es medible, por ejemplo, entre la Tierra y el Sol, las partículas virtuales que se intercambian hacen girar a la primera alrededor del segundo. Los gravitones reales serían las ondas gravitacionales que son débiles, difíciles de detectar y no han sido observadas. A partir del éxito con la unificación electrodébil, se ha intentado unificar a estas dos fuerzas con la nuclear fuerte en lo que se llama “teorías de gran unificación” (GUT). La idea está basada en que a altas energías, la fuerza nuclear se hace menos intensa mientras que la fuerza electrodébil se hace más intensa. A una determinada energía, llamada de unificación, las tres fuerzas deberían tener la misma intensidad y ser, por tanto, aspectos de una única fuerza. Además, las GUT predicen que a esta energía los electrones y los quarks serían esencialmente iguales. El valor de la energía de unificación no se conoce muy bien pero tendrían un valor tan grande que hace difícil comprobar la teoría en el laboratorio. Pero existen consecuencias de la teoría que han sido exploradas a baja energía, es el caso

del decaimiento del protón o el neutrón sin que se haya producido ninguna evidencia experimental. Ahora bien, las teorías GUT no incluyen a la gravedad. Esta es importante porque determina la evolución del universo, en algunos casos, domina sobre el resto de las fuerzas y hace que una estrella colapse en agujeros negros. 3.3 Leyes de conservación En todo proceso en que interaccionan partículas, existen magnitudes o propiedades que se conservan, es decir, que no cambian debido a invariancias del sistema bajo ciertas transformaciones. Una ley de conservación puede ser válida en todos o alguno de los procesos según el tipo de interacción que intervenga. Se consideran dos tipos de leyes de conservación, las absolutas y las relativas. Entre las primeras están las leyes de conservación de: energía y momento, momento angular total, carga eléctrica y simetría CPT (que representa la conjugación de la carga C, la inversión espacial P y la temporal T). Entre las relativas, están: paridad, isospin, números bariónico y leptónicos, extrañeza, “encanto”, “belleza” y “verdad”, y conjugación de carga y simetría CP. La importancia de las leyes de conservación es enorme. Las simetrías facilitan la comprensión de lo que sucede en el mundo cuántico. Las tres simetrías fundamentales están relacionadas con el espacio, el tiempo y la antimateria. La invariancia de las leyes físicas ente reflexiones se llama “paridad” o simetría P e implica que las leyes son las mismas para una situación cualquiera y para su imagen especular. En 1956, Tsung-Dao Lee y Chen Ning Yang demostraron que en el decaimiento beta del neutrón, producido por las interacciones débiles, no se conserva la paridad P. Los neutrinos también violan completamente la paridad, lo que permite distinguir un neutrino de un antineutrino. La simetría relacionada con el intercambio de carga eléctrica se llama conjugación de carga o simetría C e implica que las leyes son las mismas para las partículas y las antipartículas. Es decir, la interacción de la luz con la materia o la antimateria es idéntica. Pero, la simetría C es violada por las interacciones débiles. Lo que si parece que se conserva es una combinación de simetrías C y P. La simetría del tiempo T implica que las leyes de la física son las mismas si el tiempo

2009 kosmos 1 (6) 12

transcurre del pasado al futuro o al revés. Pero el tiempo fluye del pasado al futuro, es decir, parece que corre en una sola dirección. En 1994, Shahen Hacyan concluía que la dirección del tiempo es una propiedad “exclusivamente” estadística. Esto es así porque los cuerpos macroscópicos evolucionan en una sola dirección en el tiempo, “las moléculas y los átomos no distinguen entre pasado y futuro”. Una de las propiedades estadísticas de la naturaleza es la “entropía”, que es una medida del desorden de un sistema. La entropía está directamente relacionada con la dirección del tiempo. De acuerdo a la segunda ley de la termodinámica, la entropía total de un sistema siempre aumenta con el tiempo. Sin embargo, esta ley estadística solo tiene sentido cuando se aplica a conjuntos muy grandes de moléculas aisladas del resto del universo. A nivel cuántico no ocurre la asimetría entre pasado y futuro, esto es, los fenómenos cuánticos satisfacen la simetría T. Sin

embargo, la dirección del tiempo no está resuelta a nivel microscópico. Así pues, se tienen tres simetrías fundamentales: C, P y T. las dos primeras no son simetrías válidas pero una combinación de ellas sí lo es. De hecho, se puede demostrar que cualquier fenómeno físico, independientemente de la clase de interacción, debe satisfacer una combinación de simetrías. A nivel cuántico no existe una dirección privilegiada del tiempo pero, el problema del sentido del tiempo, no está resuelto. De acuerdo al teorema CPT cualquier teoría que obedezca a la mecánica cuántica y a la relatividad debe poseer siempre una simetría combinada. Pero, si se invierte la dirección del tiempo, las leyes de la física tendrían que cambiar pues, a gran escala, el universo en expansión no posee la simetría T. Cuando el tiempo avanza, el universo se expande; si el tiempo retrocediera, el universo se contraería.

Modelo estándar de las partículas elementales. a ) tres generaciones de quarks (d, u, s, c, b, t) y leptones (electrón, muón y tauón, con sus neutrinos), b) bosones de norma: fotón, W+, W-, Z0 y gluón, c) partícula (campo) de Higgs

2009 kosmos 1 (6) 13

Diagramas de Feynman que describen las cuatro interacciones fundamentales de la naturaleza

4. Cosmología física 4.1 Universo de quarks A gran escala del universo parece gobernar la teoría de la relatividad general de Einstein. En este caso, no se tiene en cuenta el “principio de incertidumbre” de la mecánica cuántica. Esto es consistente con las observaciones para campos débiles. Pero, tratándose de campos gravitacionales intensos, como el Big Bang y los agujeros negros, los efectos cuánticos son importantes. Sin embargo, no se tiene una teoría que unifique a la mecánica cuántica con la relatividad. Usando la dualidad onda-partícula, todo el universo, incluyendo la luz y la gravedad pueden ser descritos en términos de partículas. El universo observable que conocemos actualmente es muy vasto, lleno de estrellas, galaxias y otros objetos. Desde hace cien años se sabe que el universo está en expansión y, recientemente, se considera que también está en aceleración. La materia visible, luminosa, en el universo se considera de apenas el 0.4% del total, siendo la

materia bariónica del 3.6%, la mayor parte del universo no se ve, 23% es de materia oscura y 73% de energía oscura sin que, en ambos casos, se conozca su naturaleza. La materia bariónica está hecha de protones y neutrones, es decir, de quarks. De manera que, el universo observable está formado por quarks. Un caso conocido son las estrellas de quarks, que son parte de las estrellas de neutrones formadas por la explosión de las supernovas a partir de estrellas masivas evolucionadas. El remanente de la explosión es una nebulosa con una estrella central de neutrones compacta y de alta densidad que emite ondas de radio. La energía que hace brillar a las estrellas ocurre por reacciones de fusión termonuclear a base de átomos de hidrógeno y helio, es decir, electrones y quarks. En suma, el universo visible está hecho de quarks, electrones y campos, y podría contener más quarks que antiquarks. De hecho, el universo muy temprano estuvo hecho de quarks y electrones, a partir de los cuales se formaron los primeros átomos.

2009 kosmos 1 (6) 14

4.2 Vacío y campo de Higgs La consecuencia más importante de la expansión del universo es su concentración espacial, en el pasado, en un punto con una densidad y temperatura infinitas. Sin embargo, la descripción del universo, desde el punto de vista cuántico, no tiene sentido al tiempo cero. Al inicio de la expansión, llamado tiempo de Planck, solo había campos de energía que vibraban y esas vibraciones correspondían a partículas. A ese momento, las cuatro interacciones fundamentales de la naturaleza estaban unificadas en una sola. Pero cuando la temperatura bajó, el universo entró en una fase de “inflación” exponencial liberando enormes cantidades de energía que aceleraría la expansión del universo. La “inflación” es un campo cuántico que separa las interacciones fuertes de las electrodébiles. A ese momento empezaría a funcionar el llamado mecanismo de Higgs para formar la masa de las partículas. En los años 70s, para explicar la masa de los bosones W y Z de la teoría electrodébil, Weinberg y Salam recurrieron a la idea de Peter Higgs, según la cual, el espacio estaría lleno de un campo que interactúa con las partículas y genera su masa. En el campo de Higgs la energía es cero pero su intensidad es diferente de cero. Este es el caso del vacío total donde el valor de energía es el mínimo posible, es decir, cero; pero la intensidad del campo de Higgs en el vacío no es cero. La intensidad también es energía pero el vacío no posee energía, entonces, la energía asociada a la intensidad está en forma de la masa que adquieren las partículas W y Z. La energía del campo de Higgs depende de la temperatura. Para las interacciones débiles la temperatura crítica es muy elevada, similar a la existente en el universo temprano. Se estima que a la temperatura crítica se produjo un cambio de fase y por debajo de esa temperatura el campo de Higss generó las masas de las partículas. Como todo campo cuántico, el de Higgs vibra y sus vibraciones son ondas y partículas a la vez. Las vibraciones del campo de Higgs son partículas tipo bosones, mismos que no han sido descubiertos. En el gran acelerador colisionador de hadrones (LHC) del CERN de Suiza está en desarrollo un conjunto de experimentos para detectar al campo de Higgs.

Se considera que un mecanismo como éste podría explicar la masa de todas las partículas. Esto significaría que el espacio estaría lleno de muchos campos de Higgs y el estado de mínima energía, el vacío, tendría una intensidad tal que generaría la masa de todas las partículas. En la física clásica, el vacío se considera como la ausencia de todo pero, cuánticamente, la situación es diferente. Es espacio está lleno de campos, los cuales vibran y tienen fluctuaciones porque nunca están en reposo absoluto. Esto es congruente con el principio de incertidumbre de Heisenberg el cual impone condiciones inherentes a la naturaleza. Una partícula no puede estar en reposo absoluto, ya que, implicaría que estuviera presente en todas partes del universo, pues la incertidumbre en su posición sería infinita. Este principio también se aplica a los campos y, a las fluctuaciones cuánticas, que se pueden interpretar como partículas que se crean y destruyen en tiempos muy breves, son indetectables y se les conoce como partículas virtuales que producen efectos reales. La creación y aniquilación de partículas implican cambios de energía, modulados por el principio de incertidumbre de Heisenberg. Este mar de partículas virtuales tiene la propiedad de que la suma de los términos masaenergía y presión es negativa. Consecuentemente, habría atracción a escalas cortas y una repulsión a escalas largas, si bien, no se sabe como tratar a la energía del vacío en el marco de la teoría de la relatividad general. Pero el vacío cuántico podría tener efectos cosmológicos importantes para explicar la aceleración de la expansión del universo; también podría estar relacionado con la materia oscura. La expansión acelerada del universo se ha observado y podría estar generada por una gravedad repulsiva.

El potencial del campo de Higgs

2009 kosmos 1 (6) 15

4.3 Materia y energía oscura En muchos sistemas astrofísicos la masa inferida de las estrellas luminosas no es suficiente para explicar la dinámica del objeto, debe adicionarse materia cuya presencia solamente es revelada por efectos gravitacionales, por ejemplo, en los movimientos orbitales de las galaxias en cúmulos o en la rotación de galaxias espirales. Por ello, se ha postulado la existencia de una forma de “materia oscura”. De hecho la mayor parte de la masa en el universo consiste de esta materia cuya naturaleza física no se conoce. Cuando los constituyentes de la materia oscura se mueven a

velocidades menores a la de la luz se llama materia oscura fría. Los candidatos para la materia oscura incluyen a un con junto de partículas elementales, aún no descubiertas, llamadas “partículas masivas débilmente interactuantes” (WIMPs). Entre otras, se han propuesto al neutralino supersimétrico, también a las partículas llamadas “Q-balls” y, el llamado campo escalar “oscilatón”. Asimismo, se piensa que una proporción importante del universo está constituida por “energía oscura”, cuya naturaleza también se desconoce. Esta energía sería la responsable de la aceleración del universo y, probablemente, pudiera explicarse a partir del vacío cuántico.

Epílogo

Entre las teorías alternas al Big Bang, desde hace 30 años, se propuso la teoría de cuerdas cósmicas como una teoría matemática de once dimensiones, de las cuales solo podemos percibir cuatro, para explicar a cada partícula elemental como la vibración de una cuerda de tamaño subatómico. Sin embargo, esta teoría no está probada. En suma, el mundo que conocemos está hecho de campos de materia, cuyos cuantos se

llaman fermiones (quarks y electrones), y campos de fuerza (fotones, gluones, etc.) cuyos campos se llaman bosones. Estos campos son los ladrillos que forman al universo observable visible, incluyendo a los seres vivos. La vida es la forma viva de la materia y está hecha de estos ladrillos formando estructuras altamente organizadas cuya dinámica no comprendemos cabalmente.

Referencias • • • • • • • • • • •

Alcubierre M., Siddhartha F., Matos T. et al. 2002, [arXiv: astro-ph/0204307v1]. Caro T.L. 1999, De la Naturaleza de las Cosas, Biblioteca virtual Miguel de Cervantes, en www.cervantesvirtual.com Doncei M.G. 2002, La Revolución Cuántica: Nueva Visión en Física y en Filosofía, en Física Cuántica y Realidad, C. Mataix y A. Rivadula (eds), U. Complutense, p.17. Fernandez-Rañada A. 2002, La Mecánica Cuántica y el Espacio Vacío, en Física Cuántica y Realidad, C. Mataix y A. Rivadula (eds), U. Complutense, p.315. Fernández R., Ramón M. 2003, Partículas Elementales, FCE. Hacyan S. 1994, Del Universo Cuántico al Universo en Expansión, FCE. Hawking S. 1996, Historia del Tiempo, Crítica. Información general, en es.wikipedia.org Mataix C., Rivadulla A. (eds.) 2002, Física Cuántica y Realidad, U. Complutense. Kane G. 1987, Modern Elementary Particle Physics, Addison-Wesley. Resnick R. 1981, Conceptos de Relatividad y Teoría Cuántica, Limusa.

* doctor en física teórica, astronomía y astrofísica.

2009 kosmos 1 (6) 16

CENTRO TOLUQUEÑO DE ESCRITORES FEDERACION SINDICAL MUNDIAL FRENTE DE TRABAJADORES DE LA ENERGIA UNIVERSIDAD INTERNACIONAL DE LOS TRABAJADORES COOPERATIVA CINEMATOGRAFICA LAGARTIJA NEGRA PERIODICO LA CALLE DE LA SOCIEDAD CAZAIMAGEN