"ATOMO"
El átomo es un constituyente materia ordinaria, con propiedades químicas bien definidas, que mantiene su identidad. Cada elemento químico está formado por átomos del mismo tipo (con la misma estructura electrónica básica), y que no es posible dividir mediante procesos químicos. Está compuesto por un núcleo atómico, en el que se concentra casi toda su masa, rodeado de una nube de electrones. El núcleo está formado por protones, con carga positiva, y neutrones, eléctricamente neutros.nota 1 Los electrones, cargados negativamente, permanecen ligados a este mediante la fuerza electromagnética.
El átomo es un constituyente materia ordinaria, con propiedades químicas bien definidas, que mantiene su identidad. Cada elemento químico está formado por átomos del mismo tipo (con la misma estructura electrónica básica), y que no es posible dividir mediante procesos químicos. Está compuesto por un núcleo atómico, en el que se concentra casi toda su masa, rodeado de una nube de electrones. El núcleo está formado por protones, con carga positiva, y neutrones, eléctricamente neutros.nota 1 Los electrones, cargados negativamente, permanecen ligados a este mediante la fuerza electromagnética.
Los átomos se clasifican de acuerdo al número de protones y neutrones que contenga su núcleo. El número de protones o número atómico determina su elemento químico, y el número de neutrones determina su isótopo. Un átomo con el mismo número de protones que de electrones es eléctricamente neutro. Si por el contrario posee un exceso de protones o de electrones, su carga neta es positiva o negativa, y se denomina ion.
Modelo de Bohr
En la primera mitad del siglo XX se realizaron unos descubrimientos que no podían ser explicados con el modelo de Rutherford. El físico N. Bohr propone un modelo en el que los electrones sólo pueden ocupar ciertas órbitas circulares. Los electrones se organizan en capas y, en cada capa tendrán una cierta energía, llenando siempre las capas inferiores (de menor energía) y después las superiores.La distribución de los electrones en las capas se denomina configuración electrónica y se realiza de la siguiente manera: La 1ª capa puede contener, como máximo, 2 electrones. La 2ª capa puede contener, como máximo, 8 electrones. Comienza a llenarse una vez que la 1ª ya está completa. La 3ª capa puede contener, como máximo, 18 electrones. Comienza a llenarse una vez que la 2ª capa ya está completa. El número de electrones en cada capa se representa entre paréntesis y separados por comas. Por ejemplo, un átomo que tenga 11 electrones, los distribuye así: (2,8,1). Es decir, 2 electrones en la capa 1, 8 electrones en la capa 2 y 1 electrón en la capa 3.Niels Bohr (1885 - 1962). Físicodanés. Tras doctorarse en laUniversidad de Copenhague en1911, completó sus estudios enManchester, Inglaterra a las órdenes de Ernest Rutherford. Basándose en las teorías de Rutherford, publicó su modelo atómico en 1913, introduciendo la teoría de las órbitas cuantificadas, que consiste en que, en torno al núcleo atómico, el número de electrones en cada órbita aumenta desde el interior hacia el exterior. En su modelo, además, los electrones podían caer (pasar de una órbita a otra) desde una órbita exterior a otra interior, emitiendo energía, hecho sobre el que se sustenta la Mecánica Cuántica.En 1916, Bohr comenzó a ejercer de profesor en la Universidad de Copenhague, accediendo en 1920 a la dirección del recientemente creado Instituto de Física Teórica.En 1922 recibió el Premio Nobel de Física por sus trabajos sobre la estructura atómica y la radiación.Después de la guerra, abogando por los usos pacíficos de la energía nuclear, retornó a Copenhague, ciudad en la que residió hasta su fallecimiento en 1962.
Propiedades atómicas.
Masa
La mayor parte de la masa del átomo viene de los nucleones, los protones y neutrones del núcleo. También contribuyen en una pequeña parte la masa de los electrones, y la energía de ligadura de los nucleones, en virtud de la equivalencia entre masa y energía. La unidad de masa que se utiliza habitualmente para expresarla es la unidad de masa atómica (u). Esta se define como la doceava parte de la masa de un átomo neutro de carbono-12 libre, cuyo núcleo contiene 6 protones y 6 neutrones, y equivale a 1,66 · 10-27 kg aproximadamente. En comparación el protón y el neutrón libres tienen una masa de 1,007 y 1,009 u. La masa de un átomo es entonces aproximadamente igual al número de nucleones en su núcleo —el número másico— multiplicado por la unidad de masa atómica. El átomo estable más pesado es el plomo-208, con una masa de 207,98 u.8
En química se utiliza también el mol como unidad de masa. Un mol de átomos de cualquier elemento equivale siempre al mismo número de estos (6,022 · 1023), lo cual implica que un mol de átomos de un elemento con masa atómica de 1 u pesa aproximadamente 1 gramo. En general, un mol de átomos de un cierto elemento pesa de forma aproximada tantos gramos como la masa atómica de dicho elemento.
Los átomos no están delimitados por una frontera clara, por lo que su tamaño se equipara con el de su nube electrónica. Sin embargo, tampoco puede establecerse una medida de esta, debido a las propiedades ondulatorias de los electrones. En la práctica, se define el radio atómico estimándolo en función de algún fenómeno físico, como la cantidad y densidad de átomos en un volumen dado, o la distancia entre dos núcleos en una molécula.
Los diversos métodos existentes arrojan valores para el radio atómico de entre 0,5 y 5 Å. Dentro de la tabla periódica de los elementos, el tamaño de los átomos tiende a disminuir a lo largo de un periodo —una fila—, para aumentar súbitamente al comienzo de uno nuevo, a medida que los electrones ocupan niveles de energía más altos.
Las dimensiones del átomo son miles de veces más pequeñas que la longitud de onda de la luz (400-700 nm) por lo que estos no pueden ser observados utilizando instrumentos ópticos. En comparación, el grosor de un cabello humano es equivalente a un millón de átomos de carbono. Si una manzana fuera del tamaño de la Tierra, los átomos en ella serían tan grandes como la manzana original.
Modelo atómico de Thomson.
Luego del descubrimiento del electrón en 1897 por Joseph John Thomson, se determinó que la materia se componía de dos partes, una negativa y una positiva. La parte negativa estaba constituida por electrones, los cuales se encontraban según este modelo inmersos en una masa de carga positiva a manera de pasas en un pastel (de la analogía del inglés plum-pudding model) o uvas en gelatina. Posteriormente Jean Perrin propuso un modelo modificado a partir del de Thomson donde las «pasas» (electrones) se situaban en la parte exterior del «pastel» (la carga positiva).
Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras radiaciones.

Modelo de Rutherford
Este modelo fue desarrollado por el físico Ernest Rutherford a partir de los resultados obtenidos en lo que hoy se conoce como el experimento de Rutherford en 1911. Representa un avance sobre el modelo de Thomson, ya que mantiene que el átomo se compone de una parte positiva y una negativa, sin embargo, a diferencia del anterior, postula que la parte positiva se concentra en un núcleo, el cual también contiene virtualmente toda la masa del átomo, mientras que los electrones se ubican en una corteza orbitando al núcleo en órbitas circulares o elípticas con un espacio vacío entre ellos. A pesar de ser un modelo obsoleto, es la percepción más común del átomo del público no científico.
Rutherford predijo la existencia del neutrón en el año 1920, por esa razón en el modelo anterior (Thomson), no se habla de éste.
Por desgracia, el modelo atómico de Rutherford presentaba varias incongruencias:
Contradecía las leyes del electromagnetismo de James Clerk Maxwell, las cuales estaban muy comprobadas mediante datos experimentales. Según las leyes de Maxwell, una carga eléctrica en movimiento (en este caso el electrón) debería emitir energía constantemente en forma de radiación y llegaría un momento en que el electrón caería sobre el núcleo y la materia se destruiría. Todo ocurriría muy brevemente.
EJERCICIOS:
EJERCICIO:
CUANTOS

En física, el término cuanto o cuantio (del latín Quantum, plural Quanta, que representa una cantidad de algo) denotaba en la física cuántica primitiva tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro.1 Se hablaba de que una determinada magnitud estaba cuantizada según el valor de cuanto. Es decir, cuanto es una proporción hecha por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las caracterísitcas esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.
RELATIVIDAD
Teoría de la relatividad general
La teoría de la relatividad general se refiere al caso de movimientos que se producen con velocidad variable y tiene como postulado fundamental el principio de equivalencia, según el cual los efectos producidos por un campo gravitacional equivalen a los producidos por el movimiento acelerado.
La revolucionaria hipótesis tomada por Einstein fue provocada por el hecho de que la teoría de la relatividad especial, basada en el principio de la constancia de la velocidad de la luz sea cual sea el movimiento del sistema de referencia en el que se mide (tal y como se demostró en el experimento de Michelson y Morley), no concuerda con la teoría de la gravitación newtoniana: si la fuerza con que dos cuerpos se atraen depende de la distancia entre ellos, al moverse uno tendría que cambiar al instante la fuerza sentida por el otro, es decir, la interacción tendría una velocidad de propagación infinita, violando la teoría especial de la relatividad que señala que nada puede superar la velocidad de la luz.
Tras varios intentos fallidos de acomodar la interacción gravitatoria con la relatividad, Einstein sugirió de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo se encuentra deformado por la presencia de masa (o energía, que es lo mismo). Entonces, cuerpos como la tierra no se mueven en órbitas cerradas porque haya una fuerza llamada gravedad, sino que se mueven en lo más parecido a una línea recta, pero en un espacio-tiempo que se encuentra deformado por la presencia del sol.
Otra sorprendente deducción de la teoría de Einstein es el fenómeno de colapso gravitacional que da origen a la creación de los agujeros negros. Dado que el potencial gravitatorio es no lineal, al llegar a ser del orden del cuadrado de la velocidad de la luz puede crecer indefinidamente, apareciendo una singularidad en las soluciones. El estudio de los agujeros negros se ha convertido en pocos años en una de las áreas de estudio de mayor actividad en el campo de la cosmología.

Precisamente a raíz de la relatividad general, los modelos cosmológicos del universo experimentaron una radical transformación. La cosmología relativista concibe un universo ilimitado, carente de límites o barreras, pero finito, según la cual el espacio es curvo en el sentido de que las masas gravitacionales determinan en su proximidad la curvatura de los rayos luminosos. Sin embargo Friedmann, en 1922, concibió un modelo que representaba a un universo en expansión, incluso estático, que obedecía también a las ecuaciones relativistas de Einstein. Con todo, la mayor revolución de pensamiento que la teoría de la relatividad general provoca es el abandono de espacio y tiempo como variables independientes de la materia, lo que resulta sumamente extraño y en apariencia contrario a la experiencia. Antes de esta teoría se tenía la imagen de espacio y tiempo, independientes entre sí y con existencia previa a la del Universo, idea tomada de Descartes en filosofía y de Newton en mecánica.

Ejercicios:
PREDECIBILIDAD
Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de“decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.
Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación. Por ejemplo, en cuestiones climáticas podría tratarse de temperaturas medias de la atmósfera en determinados niveles, concentraciones de gases, precipitación, etc. También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales. Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes agencias e institutos de Meteorología y Climatología.
Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para estos experimentos la tercera propiedad de la predicción no tiene demasiado interés, pues la predicción -o mejor, simulación- del pasado no incita a la prisa.
Sin embargo, en las predicciones día a día para fenómenos meteorológicos, o anualmente para situaciones climáticas, es conveniente que la predicción pueda llevarse a cabo con antelación suficiente. Por supuesto, hay predictores que se pueden formular de inmediato: por ejemplo tomemos la permanencia y el paseo aleatorio. El primero consiste en suponer que la situación actual se prolongará hasta el momento para el que se quiere predecir; el segundo supone que la predicción es una mera cuestión de suerte. Ambos son predictores válidos y utilizados con frecuencia como “enemigos a batir” por cualquier otro diseño de predicción. Pero no todos los métodos son tan rápidos, y lleva siempre cierto tiempo efectuar la predicción.
"CAOS"
LA TEORÍA DEL CAOS:
Popularmente, se le llama Teoría del Caos a la rama de las ciencias exactas, principalmente física y matemáticas, que trata sobre comportamientos impredecibles en sistemas dinámicos (sistemas complejos que cambian o evolucionan con el estado del tiempo). La Teoría del Caos plantea que el mundo no sigue un patrón fijo y previsible, sino que se comporta de manera caótica y que sus procesos y comportamiento dependen, en gran manera, de circunstancias inciertas. Esto plantea que una pequeña variación en el sistema o en un punto del mismo puede provocar que en un lapso de tiempo a futuro éste presente un comportamiento completamente diferente e impredecible. No es propiamente una teoría, sino un gran campo de investigación abierto que abarca numerosas líneas de pensamiento.
De acuerdo a su definición, los sistemas dinámicos se clasifican básicamente en 3 tipos:
Estables
Inestables
Caóticos
Los sistemas estables tienden a un punto a lo largo del tiempo o siguen una misma órbita, sus ecuaciones características, condiciones iniciales, sus límites, elementos y relaciones nos permiten conocer su evolución a través del tiempo, es decir, sabemos hacia donde lo dirige su atractor.
Los sistemas inestables, en cambio, no se guían por atractores, se escapan de éstos y no tienden hacia un punto.
De un artículo titulado Las resonancias de Poncairé podemos desprender la siguiente conclusión:
“En otras palabras, en un sistema dinámico estable, dos condiciones iniciales próximas dan lugar a trayectorias próximas; y, en cambio, en un sistema dinámico inestable, dos condiciones iniciales igualmente próximas dan lugar a trayectorias que divergen en el tiempo según una ley exponencial”.¹
Los sistemas caóticos, por su parte, manifiestan ambos comportamientos. Ilya Prigogine nos proporciona la siguiente descripción sobre su comportamiento:
“las trayectorias correspondientes a condiciones iniciales tan vecinas como se quiera, divergen de manera exponencial con el tiempo”²
En los sistemas caóticos de pueden conocer sus ecuaciones y sus condiciones iniciales fijas, sin embargo la mas mínima variación provoca una evolución radical en su comportamiento.
Uno de los más citados ejemplos de sistema caótico es el clima atmosférico del cual podemos predecir su comportamiento y elaborar pronósticos en base a ecuaciones, estudios de su comportamiento pasado y el conocimiento de sus condiciones iniciales, sin embargo no podemos conocer con exactitud los parámetros que fijan sus condiciones iniciales y ésto provoca que “aunque se conozca el modelo, éste diverja de la realidad pasado un cierto tiempo”.³ Así mismo, nuestro pronóstico puede verse afectado por variaciones dentro del sistema atmosférico como la actividad humana, actividad volcánica o incluso fuera de éste como la actividad solar.
Un sistema debe presentar las siguientes propiedades para ser considerado caótico:
Sensibilidad a las condiciones iniciales
Debe ser transitivo
Sus órbitas periódicas deben formar un conjunto denso en una región compacta del espacio físico.
"NUCLEO"
Parte central del átomo en la que está concentrada la materia en forma de nucleones.
Constitución del núcleo. Como resultado de la célebre experiencia de Rutherford (v.) (1911) en la que se bombardeaban hojas metálicas finas con partículas alfa (v.
PARTÍCULAS ELEMENTALES) y la mayor parte de ellas pasaban sin desviación notable, mientras unas pocas sufrían una fuerte desviación cual si hubieran chocado contra un obstáculo, se llegó a la conclusión de que los átomos (v.) eran estructuras prácticamente vacías, pues contaban de un n. central muy pequeño (puesto que su diámetro era del orden de la cienmilésima del correspondiente al átomo), rodeado de electrones móviles que determinan el volumen de aquél. El n. está cargado positivamente y al mismo tiempo en él se concentra, prácticamente, toda la masa del átomo. Por esta razón puede decirse que la materia, a pesar de su aparente continuidad, por el hecho de estar constituida por átomos consiste, en realidad, en una serie de puntos (n. atómicos) en los que existe una concentración extraordinaria de masa, rodeados de enormes espacios vacíos; efectivamente, un n. con sus electrones, que constituye lo que llamamos átomo, nos recuerda en su estructura la del sistema solar.
A pesar de su extraordinaria pequeñez (el diámetro del n. expresado en cm. viene dado por la unidad dividida por la unidad seguida de trece ceros), el n., a su vez, tiene estructura compleja: está constituido por un número Z de protones (n. del átomo de hidrógeno) que le dan su carga positiva, pues cada uno de ellos posee una carga eléctrica igual y de signo contrario a la del electrón (v.).
En la naturaleza se encuentran átomos cuyos n. poseen valores de Z variables entre Z=1 (hidrógeno) hasta Z=92 (uranio), pero se han creado artificialmente otros de Z'> 92 aunque su vida es, en general, sumamente efímera debido a su inestabilidad.
Prácticamente, las masas de muchos n. resultan ser múltiplos enteros de la del más ligero, el n. de hidrógeno, llamado protón. Esto indujo a suponer que todos ellos estaban formados por un número de protones igual a su número másico A, (peso del n. en cuestión tomando como unidad el de hidrógeno ordinario), pero esta hipótesis obligaba a admitir que dentro del n. existía un cierto número de electrones negativos para neutralizar el exceso de cargas positivas (A-Z). Sin embargo, esta idea fue abandonada en 1932 cuando Chadwick descubrió la existencia del neutrón, partícula de masa prácticamente igual a la del protón pero desprovista de carga. En consecuencia, hoy sabemos que un n. contiene un número Z de protones y otro (A-Z) de neutrones, lo que justifica su carga positiva total igual a Z (número atómico), y número másico igual a A.
Los n. que poseen el mismo número atómico Z pero diferente número másico se denominan isótopos (v.), y son indiferenciables desde el punto de vista de su comportamiento químico. La mayor parte de los elementos naturales existen en forma de varios isótopos, generalmente en proporciones definidas, y sus números másicos son diversos; así, p. ej., el hidrógeno ordinario (A=1; Z=1) posee otros dos isótopos: el deuterio (A=2; Z=1) y el tritio
Protones y neutrones en el interior del n. se denominan nucleones y son prácticamente indiferenciables, puesto que las cargas eléctricas no juegan ningún papel en relación a las fuerzas nucleares que mantienen la estructura del n., como luego veremos.
Para los n. ligeros ocurre que, en general, el isótopo más abundante corresponde a A=2Z, esto es, en aquéllos el número de protones es igual al de neutrones, pero a medida que los n. son más pesados, es decir, contienen mayor número de nucleones, sucede que el número de neutrones aumenta más rápidamente que el de protones; así, p. ej., el isótopo más abundante del uranio (Z=92) tiene 146 neutrones; la estructura de los n. se expresa así, tomando como ejemplo el caso del uranio: Zsiu, es decir, z U, donde U es el símbolo químico del elemento (en este caso el uranio) de que se trata.
Las masas nucleares se expresan en función de la unidad atómica de masa (u.a.m.) que es la doceava parte de la que posee el n. de I6 C, o sea, del carbono de número másico 12. En esta escala, las masas de las partículas electrón, protón y neutrón son respectivamente: 0,00055; 1,00758 y 1,00893 u.a.m. Por otra parte, la u.a.m. corresponde a 1,6604X 10-27 Kg., valor que multiplicado por el número másico da, muy aproximadamente, la masa del n. en Kg., teniendo en cuenta que la del electrón es del orden de 1/2000 de la del protón y que la del neutrón es prácticamente igual a la del protón.
Estabilidad de los núcleos y fuerzas nucleares. Ocurre que si bien los n. están formados por protones y neutrones, su masa es menor que la suma de las masas de sus componentes; esta pérdida de masa da lugar a la denominada energía de enlace o de ligadura que se ha desprendido al formarse el n. a partir de sus componentes, los nucleones. Por otra parte, un n. será tanto más estable cuanto mayor sea su pérdida de masa, o energía de enlace, ya que en virtud de la conocida equivalencia entre masa y energía (v. ENERGÍA Y MASA), para descomponerlo en nucleones habría que aportar una energía igual a la que denominamos de enlace. Las energías de enlace se suelen expresar por nucleón, es decir, dividiendo la total por el número de nucleones; este valor varía entre 5 y 9 MeV para todos los n., pasando por un máximo para los elementos intermedios y decreciendo rápidamente para los ligeros, así como lentamente para los pesados, (1 MeV=1.106 eV; 1 eV o electrón. voltio es la energía que adquiere un electrón en el campo eléctrico de 1 voltio; es la unidad energética corriente en los fenómenos del microcosmos).
El hecho anterior explica por qué cuando un n. pesado, p. ej., el de uranio, se fracciona en dos partes que corresponden a n. intermedios con mayor energía de enlace, se produce una liberación de energía (fisión). Análogamente ocurre cuando varios n. ligeros se unen para formar un n. más pesado (fusión). En ambos casos, la masa desaparecida se convierte en energía (v. ENERGÍA Y MASA).
Del examen de las masas nucleares, así como de las energías de enlace, puede deducirse valiosa información acerca de la estructura del n., comprobándose que las fuerzas que mantienen unidos entre sí a los nucleones deben tener características muy peculiares. En primer lugar, puesto que todos los nucleones cargados (protones), en virtud de la repulsión electrostática entre cargas eléctricas del mismo signo, deberían repelerse, hay que admitir que, superponiéndose a estas fuerzas repulsivas y superándolas, existe otro tipo de fuerzas, las nucleares, de carácter atractivo y corto alcance, puesto que desaparecen a distancias superiores a las dimensiones del n. Por otra parte, puesto que los neutrones no están menos firmemente ligados entre sí y á los protones del n., hay que admitir que dichas fuerzas nucleares son análogas para ellos, o sea, que las fuerzas de enlace protón-protón, protón-neutrón y neutrón-neutrón, son prácticamente idénticas.
En consecuencia, cabría esperar que al variar, el número de partículas o nucleones en el n., el efecto combinado de dichas fuerzas de enlace variara proporcionalmente a Al (pues cada uno de los A nucleones se supone sometido a la acción de los A-1 restantes). Sin embargo, la energía de enlace resulta ser proporcional a A (vimos que la energía de enlace por nucleón es prácticamente constante y varía sólo entre 5 y 9 MeV). De esto hay que deducir que las fuerzas nucleares son saturadas; es decir, que cada partícula determina sólo un número limitado de lazos de unión, o, en otras palabras, que dichas fuerzas nucleares, aunque extraordinariamente intensas, son de alcance sumamente corto, y más allá de cierta distancia las fuerzas atractivas entre nucleones ceden su papel a las electrostáticas de repulsión.

La manera más corriente de explicar el mecanismo de las fuerzas nucleares consiste en suponer que cada nucleón es temporal y sucesivamente un protón y un neutrón, efectuando el cambio mediante la emisión virtual de un mesón, la cual es una partícula ligera, que puede llevar carga positiva o negativa unitaria, o ser neutra; las trasformaciones que tendrían lugar dentro del núcleo serían:
n->p++a-; p->n+7r+; n-->n+ir°; p->p+ir++7r° (n=neutrón; p=protón; a=mesón). En otras palabras. los mesones actúan a modo de aglutinante que mantiene unidos a los nucleones, pues dichas reacciones se repiten muy rápidamente, y los mesones, aunque intercambiándose de modo continuo entre dos de ellos, raramente serán observables fuera del n. Esta rápida y continua transferencia de mesones constituye una fuerza de intercambio que los mantiene unidos entre sí, de forma análoga a lo que ocurre en los enlaces químicos (v.) covalentes, en los que la unión se justifica por el intercambio de un electrón de dos iones.

Yukawa, físico japonés, fue quien sugirió estas ideas en 1935, asignando, por razones teóricas, a la masa del mesón un valor de unas 200 veces la del electrón. Posteriormente, 1947, Powell y sus colaboradores descubrieron tales partículas en el estudio de la radiación cósmica, donde se producen bajo el impacto de partículas de extraordinaria energía que, al chocar con los n., determinan la desintegración de éstos en un gran número de fragmentos, entre los cuales han podido identificarse los mesones; éstos, por la extraordinaria brevedad de su vida media (del orden de 10-8 segundos), son difícilmente observables. Sin embargo, hoy día los mesones pueden producirse artificialmente, bombardeando blancos de carbón con partículas alfa y protones acelerados, y el estudio
de las profundas interacciones de tales partículas con la materia resulta ser uno de los problemas más apasionantes de la Física moderna, hasta el extremo de que la Física de partículas o de alta energía es uno de los temas a los que más inversiones y esfuerzos se dedican en todos los países avanzados, pues solamente gracias a ellos podremos llegar, tal vez, a conocer la verdadera estructura del n., la naturaleza de las fuerzas nucleares y, con ello, al conocimiento de la estructura última de la materia.
Ejercicios:
Radioactividad
La radiactividad (o radioactividad) puede considerarse un fenómeno físico natural por el cual algunos cuerpos o elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, etc.
Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes).
Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, que son capaces de transformarse en núcleos de átomos de otros elementos.
La radiactividad puede ser:
Natural: manifestada por los isótopos que se encuentran en la naturaleza.

Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.
En 1896 Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no dependía de la forma física o química en la que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
Radiactividad artificial
La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por los esposos Jean Frédéric Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y de aluminio con partículas alfa. Observaron que las sustancias bombardeadas emitían radiaciones después de retirar el cuerpo radiactivo emisor de las partículas de bombardeo.
Rayos Alfa (a)
Estos rayos están formados por partículas materiales que presentan dos unidades de carga eléctrica positiva y cuatro unidades de masa. Son ligeramente desviados por la acción de fuerzas magnéticas intensas. Pueden ionizar los gases y penetrar en la materia. Son detenidos o absorbidos cuando se pone ante ellos una lámina metálica. Su velocidad inicial varía desde 109 cm. /s hasta 2 x 109 cm. /s.
Rayos Beta (b)
Las partículas que conforman a los Rayos Beta son de una masa menor a la de los rayos alfa y son de unidad de carga negativa. Se proyectan a grandes velocidades, aunque ésta depende de la fuente de procedencia y en ocasiones son emitidos a una velocidad próxima a la de la luz (3×1010 cm. /s).
Rayos Gamma (g)
Su naturaleza es diferente a los rayos alfa y beta, puesto que no experimentan desviación ante los campos eléctricos y/o magnéticos. A pesar de que tienen una menor longitud de onda que los rayos X, actúan como una radiación electromagnética de igual naturaleza. Pueden atravesar láminas de plomo y recorre grandes distancias en el aire. Su naturaleza es ondulatoria y no tiene carga eléctrica, ni masa. Su capacidad de ionización es más débil en comparación con los rayos alfa y beta.
Ejercicios:
“FISION y FUSION”
Fisión nuclear
La fisión es la división de un nucleu atómico pesado (Uranio, plutonio, etc.)en dos o más fragmentos causado por el bombardeo de neutrones, con liberación de una enorme cantidad de energía y varios neutrones.
Cuando la fisión tiene lugar en un átomo de Uranio 235se obserba su triple fenómeno;
-Aparace una cantidad de energía, elevada en 200MeV que traduce la perdida de masa.
- Los produntos de ruptura (300 o´400)son radiactivos. Su presencia expleca los efectos de explosión de un artefacto nuclear.
- Cada nucleo fisionado emite 2 ó 3 neutrones que provocan el fenómeno de reacción en cadena y explican la noción de la masa crítica.
Se observa el mismo fenómeno de fusión en el plotinio 239 (artificial) y en el Uranio 233 (artificial). Ambos se fabrican a partir del Torio. Los nucleos se denominan nucleos flexibles.
Para que se produzca la fisión hace falta que el neutrón incidente reuna unas condiciones determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutron ha de ser un neutron termicocuya energía es de la orden 1/40 eV, lo cual responde a una velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neitrones rápidos cuya energía es 1MeV.
Fusión nuclear
La fusión de determinados núcleos de elementos ligeros es uno de los dos orígenes de energía nuclear, siendo la otra, la antes citada.
En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio). Cuando se fusionan los nucleos de dichos isótopos se observa la aparición de energía que procede de la perdida de de masa, de acuerdo con la relación de Einstein E=m.c2.
La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de vista teórico como del tecnológico. Esto ocurre por estar los nucleos cargados positivamente.
La fusión y la fisión nuclear
Encontrar recursos energéticos casi inagotables, baratos y no contaminantes ha sido un afán del hombre casi desde el primer momento.
El gran salto cuantivo lo dió el descubrimiento, hacia el año 1938-1939, es decir, la separación del nucleo de un átomos en otros elementos , liberaba gran cantidad de energía.
Desgraciadamente esta energía, a pesar de su rendimiento, es también altamente peligrosa-recerdese que uno de el militar en Hiroshima y Nagasaki, y el desastre de Chernobil-. La alternativa del futuro es la fusión nuclar. Las diferencias entre la fisión y la fusión nuclear son;
Por la fusión nuclear, un nucleo pesado como el Uranio 235, es dividido generalmente en dos nucleosmás ligeros debido a la colisión de un neutron (recordemos que un átomo se compone de electrones, neutrones y protones). Como el neutron no tiene carga electrica atraviesa facilmente el nucleo del Uranio. Al dividirse este, libera más neutrones que colisionan con otros átomos de Uranio creando la conocida reacción en cadena de gran poder radiactivo y energético. Esta reacción se produce a un ritmo muy acelerado en las bombas nucleares, pero es controlado para usos pacíficos.
Por contra, la fusión es la unión de dos nucleos ligeros en uno más pesado, obteniéndose del orden de cuatro veces más energía que en la fisión.
Mientras que la fisión nuclearse conoce y puede controlarse bastante bien, la fusión plantea el siguiente gran inconveniente, que hace que continue en fase de estudio, aunque entrando en el siglo XXI se espera resolver:
Para que la reacción de la fusión sea posible hay que vencer la repulsión electroestática entre dos nucleos igualmente cargados; esto es, al existir nucleos atómicos con igual carga, y en virtud del principio de que las cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas.
Esto se logra gracias al calor aplicando temperaturas de millones de grados. El problema mencionado proviene de la dificultad de encontrar un reactor que aguante esa temperatura.
Con este calor se crea un nuevo estado de la materia, el plasma, en el que se dá un absoluto desorden de iones y electrones.
Hay formas de conseguir la energía nuclear de fusión que se están experimentando actualmente, el confinamiento magnético y el confinamiento lineal.
Con el magnético se crea y se mantiene la reacción gracias a grandes cargas magnéticas.
Con el linel, el calentamiento se consigue con laser y el confinamiento del plasmacon la propia inercia de la materia.
La investigación actual está inclinada más por el magnético, habiendose descubierto recientemente un nuevo método para mantener la reacción, cambiando el campo magnético de la forma cilíndrico a otra aproximadamente de forma de toro.
Podemos decir con orgullo que España se encuentra en los primeros puestos encuanto a la investigación de la energía de fusión, disponiendo de prestigios científicos dedicados a esta materia y con gran reconocimiento nacional.
La reacción de fusión se suele conseguir por la unión por la unión del tritio y el deuterio (isótopos de hidrógeno) para conseguir la partícula X (alfa) logrando el calor necesario. El deuterio se encuentra en un 0,15% en el hidrógeno, y el tritio se extra del litio, muy agundante en el agua, por lo que no hay problemas en cuanto a estas materias primas.
Comparativamente, la energia de fusión proporciona más energía que la fisión. Por ejemplo, medio kilo de hidrógeno (muy abundante en la naturaleza, ya que forma parte del agua)produciría unos 35 millones de kilovatios hora.Por otro lado la fusión no contamina, o al menos no tanto como la fisiónno existiendo peligro de radioactividad. La fisión por contra requiere de una materia prima de dificil y costosa extración.
También se a hablado de fusión en frio, para evitar los problemas que ya hemos cit
citado con anterioridad.Este sistema lo propuso hace pocos años un importante científico, que supondría un gigantesco avance en este campo.


En cuanto a la utilidad de la energía de fusión, que es la que se da en el Sol para generar el calor que nos permite vivir, podemos destacar primeramenteque sería una fuente casi inagotable de electricidad. Paulatinamente se deberían ir sustituyendo los reactores de fisión por los nuevos de fisión, evitandose así los problemas de radio actividad.
En un futuro no demasiado lejano incluso podrían instalarse estos reactores, como a hora ocurre en la fisión, en submarinos , en naves espaciales, y también en aereonaves y vehículos terrestres. Quizás se pueda llegar a tener en camiones, trenes, autobuses,… con motores de fusión (¿quién sabe?).















