lunes, 17 de junio de 2013

Teoría del caos

Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total...



Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.

1. Efecto mariposa y caos matemático.- Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo. Desde el punto cualitativo, as relaciones causa-efecto pueden ser concebidas de varias maneras: a) como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales; b) como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros; c) como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos. Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.







2. Causa-efecto: relaciones cuantitativas.- Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:
1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales); 2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica); 3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).
Los seres humanos tendemos inevitablemente a creer en alguno de estos supuestos en la vida cotidiana, y por motivos muy diversos. Detrás de toda creencia hay un deseo, que es quien le da su intensidad, su persistencia, su razón de ser. Así, la creencia en una desproporción causa-efecto del caso 2 oculta un deseo de poder: la ilusión de que con muy poco se puede lograr mucho. Está en la base de muchas supersticiones (la posesión de un simple amuleto garantiza nada menos que felicidad). De modo parecido, la creencia en una proporcionalidad razonable entre causa y efecto del caso 1 podría protegernos de la incertidumbre: sabemos seguro que después de la causa vendrá un efecto esperado y controlable, y no hay lugar para sorpresas desagradables. Así también, la creencia en una desproporción como la del caso 3 puede esconder la ilusión de aliviar culpas propias: si me esfuerzo mucho por ayudar a quien hice daño -causa grande-, lograré tranquilizarme sólo un poco -efecto pequeño- (aunque no mucho, porque ?debo? sufrir por el daño hecho).
Examinemos algunos ejemplos donde causas pequeñas producen grandes efectos, que es uno de los campos fértiles donde han germinado la teoría del caos y su efecto mariposa. Este listado de ejemplos no pretende ser exhaustivo sino representativo, y varios de estos ejemplos responden en realidad a los mismos mecanismos.





3. Causas pequeñas, grandes efectos.- El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.
Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones de aquellas impresiones subjetivas que habitan nuestra mente de físicos o psicólogos aficionados, tan acostumbrada a transitar la siempre útil, pero también la siempre peligrosa navaja de Occam, que todo lo simplifica. Examinemos entonces algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y efectos.

Núcleo atómico

El núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,9% de la masa total del átomo.
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción nuclear fuerte, la cual permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes). La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.



Forma y tamaño del núcleo


Los núcleos atómicos son mucho más pequeños que el tamaño típico de un átomo (entre 10 mil y 100 mil veces más pequeños). Además contienen más del 99% de la masa con lo cual la densidad másica del núcleo es muy elevada. Los núcleos atómicos tienen algún tipo de estructura interna, por ejemplo los neutrones y protones parecen estar orbitando unos alrededor de los otros, hecho que se manifiesta en la existencia del momento magnético nuclear. Sin embargo, los experimentos revelan que el núcleo se parece mucho a una esfera o elipsoide compacto de 10-15 m (= 1 fm), en el que la densidad parece prácticamente constante. Naturalmente el radio varía según el número de protones y neutrones, siendo los núcleos más pesados y con más partículas algo más grandes.

Modelos de estructura del núcleo atómico


En 1808 el químico inglés John Dalton propone una nueva teoría sobre la constitución de la materia. Según Dalton toda la materia está formada por átomos indivisibles e invisibles, estos a su vez se unen para formar compuestos en proporciones enteras fijas y constantes. De hecho Dalton propuso la existencia de los átomos como una hipótesis para explicar porqué los átomos sólo se combinaban en ciertas combinaciones concretas. El estudio de esas combinaciones le llevó a poder calcular los pesos atómicos. Para Dalton la existencia del núcleo atómico era desconocida y se consideraba que no existían partes más pequeñas.
En 1897 Joseph John Thomson fue el primero en proponer un modelo estructural interno del átomo. Thomson fue el primero en identificar el electrón como partícula subatómica de carga negativa y concluyó que «si los átomos contienen partículas negativas y la materia se presenta con neutralidad de carga, entonces deben existir partículas positivas». Es así como Thomson postuló que el átomo debe ser una esfera compacta positiva en la cual se encontrarían incrustados los electrones en distintos lugares, de manera que la cantidad de carga negativa sea igual a la carga positiva.
Así ni el modelo atómico de Dalton ni el de Thomson incluían ninguna descripción del núcleo atómico. La noción de núcleo atómico surgió en 1911 cuando Ernest Rutherford y sus colaboradores Hans Geiger y Ernest Marsden, utilizando un haz de radiación alfa, bombardearon hojas laminadas metálicas muy delgadas, colocando una pantalla de sulfuro de zinc a su alrededor, sustancia que tenía la cualidad de producir destellos con el choque de las partículas alfa incidentes. La hoja metálica fue atravesada por la mayoría de las partículas alfa incidentes; algunas de ellas siguieron en línea recta, otras fueron desviadas de su camino, y lo más sorprendente, muy pocas rebotaron contra la lámina.

Radioactividad


Radioactividad


La radiactividad o radioactividad, se refiere a las partículas emitidas por los núcleos atómicos, como resultado de una inestabilidad nuclear. 

Símbolo de radiactividad.



Debido a que el núcleo experimenta un intenso conflicto entre las dos fuerzas más poderosas de la naturaleza, no es de extrañar que haya muchos isotopos nucleares que son inestables y emiten algún tipo de radiación. Los tipos más comunes de radiación se llaman radiación alfa, beta, y gamma, pero hay otras variedades de desintegración radioactiva.



Las tasas de desintegración o decaimiento radiactivo se expresan normalmente en términos de sus vidas medias, y la semi vida de una especie nuclear dada, está relacionada con su riesgo de radiación. Los diferentes tipos de radiactividad, conduce a diferentes trayectorias de desintegración, que transmutan los núcleos en otros elementos químicos. 



El examen de las cantidades de los productos de la desintegración, hacen posible la datación radiactiva. 
La radiación de origen nuclear se distribuye por igual en todas las direcciones, obedeciendo la ley del inverso del cuadrado.

---------------------------------------------------------------------------------------

Radiactividad Alfa


Compuesto por dos protones y dos neutrones, la partícula alfa es un núcleo del elemento helio. Debido a su masa muy grande (más de 7000 veces la masa de la partícula beta) y su carga, tiene muy corto alcance. No es adecuada para la terapia de radiación, ya que su alcance en el interior del cuerpo, es de menos de una décima de milímetro. Su principal peligro de radiación se produce cuando se ingiere en el cuerpo; tiene un gran poder destructivo dentro de su corto rango. En contacto con membranas de rápido crecimiento y células vivas, se produce el máximo daño.
La emisión de partículas alfa se modela como un proceso de penetración de barrera. La partícula alfa es el núcleo del átomo de helio y es el núcleo de la más alta estabilidad.


---------------------------------------------------------------------------------

Penetración de barrera alfa.


La energía de las partículas alfa fué un misterio para los primeros investigadores, porque de acuerdo con la física clásica era evidente que no tenían energía suficiente para escapar del núcleo. Una vez que por dispersión de Rutherford se obtuvo un tamaño aproximado del núcleo, se pudo calcular la altura de la barrera de Coulomb en el radio del núcleo. Era evidente que esta energía era varias veces más alta que las energías de las partículas alfa observadas. También hubo una increíble variedad de vidas medias de partículas alfa, que no se pudo explicar con nada de la física clásica.
La resolución de este dilema vino con la comprensión de que había una probabilidad finita de que la partícula alfa podría penetrar la pared de túnel mecánico cuántico. Usando el efecto túnel, Gamow fue capaz de calcular una dependencia de la semi vida en función de la energía de la partícula alfa, que estaba de acuerdo con las observaciones experimentales.
-----------------------------------------------------------------------------------------

Penetración de la Materia

Aunque es la más masiva y más enérgica de las emisiones radiactivas, la partícula alfa, debido a su fuerte interacción con la materia, es la de más corto alcance. El rayo gamma electromagnético es extremadamente penetrante, incluso lo consigue en considerables espesores de hormigón. El electrón de la radiactividad beta interactúa fuertemente con la materia y tiene un corto alcance.

Fisión nuclear.

Como los neutrones no tienen carga eléctrica pueden penetrar al núcleo atómico sin que exista repulsión electrostática. Los muy rápidos llegan a desintegrar el átomo; los lentos, pueden ser capturados por este y formar un isotopo inestable.
El fenómeno de la fisión nuclear consiste en bombardear núcleos pesados con neutrones para hacerlos inestables y obtener núcleos ligeros, neutrones y gran cantidad de energía en forma de calor y radiación.



Los neutrones que resultan en cada proceso de fisión nuclear incitan otros rompimientos. A gran escala dan origen a una reacción en cadena.




La masa crítica es la mínima cantidad de material fisionable que es necesario para efectuar una reacción en cadena. Por ejemplo, en la reacción de fisión del ²³⁵u es necesario que la muestra tenga suficiente volumen de este isótopo para capturar los neutrones que harán que la reacción en cadena se sostenga. Esta reacción es compleja y entre ellos el ⁹⁰sr,1⁴³xe,1³⁹ba, ⁹⁴kr, ⁹⁰rb y 1 ⁹⁴ cs
En las reacciones de fisión nuclear, aproximadamente 0.1% de la masa se convierte en energía. Los fragmentos de uranio que se producen tienen menos masa que el uranio original, y es precisamente de esta diferencia de masa que se desprenden grandes cantidades de energía.




REACTOR NUCLEAR


Una central nucleoeléctrica es una planta que utiliza la energía contenida dentro del átomo, a través de un dispositivo denominado reactor nuclear. Este controla el proceso de fisión, para que se aproveche el calor generado para producir vapor de agua, el cual mueve turbinas que accionan generadores de energía eléctrica.

Ventajas de la fisión nuclear.


La fisión nuclear es una reacción exotérmica que libera enormes cantidades de energía, por ejemplo, ¡un gramo de uranio-235 puede proporcionar tanta energía como la que se obtendría de quemar 2600 toneladas de carbón!.

Riesgos de la fisión nuclear.


Un factor en contra de la fisión nuclear es la posibilidad de que produzcan accidentes como el que ocurrió con el reactor en la isla three mile en pensilvania, estados unidos, en 1979, donde hubo emisión de radiación, o el de chernobyl, cuyo reactor se salió de control y la explosión libero grandes cantidades de radiación y lluvia ácida.
Hubo muertes entre la gente.

Vease también:

https://www.youtube.com/watch?v=QCZCqtp7S_8 Los 10 peores accidentes nucleares de la historia.

domingo, 9 de junio de 2013

Fusión Nuclear

¿Qué es la fusión nuclear?

La fusión nuclear es una reacción nuclear en la que dos núcleos de átomos ligeros, en general el hidrógeno y sus isótopos (deuterio y tritio), se unen (fusionan) para formar otro núcleo más pesado, liberando una gran cantidad de energía.

Un ejemplo claro lo vemos a diario en la energía solar que tiene su origen en la fusión de núcleos de hidrógeno, generándose helio y liberándose una gran cantidad de energía que llega a la Tierra.

Para efectuar las reacciones de fusión nuclear, se deben cumplir los siguientes requisitos:
  • Temperatura muy elevada para separar los electrones del núcleo y que éste se aproxime a otro venciendo las fuerzas de repulsión electrostáticas. La masa gaseosa compuesta por electrones libres yátomos altamente ionizados se denomina PLASMA.
  • Confinamiento necesario para mantener el plasma a elevada temperatura durante un tiempo mínimo.
  • Densidad del plasma suficiente para que los núcleos estén cerca unos de otros y puedan lugar a reacciones de fusión.
Los confinamientos convencionales, como las paredes de una vasija, no son factibles debido a las altas temperaturas del plasma. Por este motivo, se encuentran en desarrollo dos métodos de confinamiento:
  • Fusión nuclear por confinamiento inercial (FCI): Consiste en crear un medio tan denso que las partículas no tengan casi ninguna posibilidad de escapar sin chocar entre sí. Una pequeña esfera compuesta por deuterio y tritio es impactada por un haz de láser, provocándose su implosión. Así, se hace cientos de veces más densa y explosiona bajo los efectos de la reacción de fusión nuclear.
  • Fusión nuclear por confinamiento magnético (FCM): Las partículas eléctricamente cargadas del plasma son atrapadas en un espacio reducido por la acción de un campo magnético. El dispositivo más desarrollado tiene forma toroidal y se denomina TOKAMAK.

La fusión nuclear tiene lugar cuando dos núcleos de átomos ligeros se unen para formar otro núcleo más pesado, liberando una gran cantidad de energía.
Los elementos atómicos empleados normalmente en las reacciones fusión nuclear son el Hidrógeno y susisótopos: el Deuterio (D) y el Tritio (T). Las reacciones de fusión más importantes son:
D + T --> 4He + n + 17,6 MeV
D + D --> 3He + n + 3,2 MeV
D + D --> T + p + 4,03 MeV
n = neutrones
p = protones
Para que tengan lugar estas reacciones debe suministrarse a los núcleos la energía cinética necesaria para que se aproximen los núcleos reaccionantes, venciendo así las fuerzas de repulsión electrostáticas. Para ello se necesita calentar el gas hasta temperaturas muy elevadas (107 ó 108 ºC ), como las que se supone que tienen lugar en el centro de las estrellas.
El gas sobrecalentado a tan elevadas temperaturas, de modo que los átomos estarán altamente ionizados,recibe el nombre de plasma.
El requisito de cualquier reactor de fusión nuclear es confinar dicho plasma con la temperatura y densidad lo bastante elevadas y durante el tiempo justo, a fin de permitir que ocurran suficientes reacciones de fusión nuclear, evitando que escapen las partículas, para obtener una ganancia neta de energía. Esta ganancia energética depende de que la energía necesaria para calentar y confinar el plasma, sea menor que la energía liberada por las reacciones de fusión nuclear. En principio, por cada miligramo de deuterio-tritio se pueden obtener 335 MJ.

MODELO DE LA MECÁNICA CUÁNTICA

Cuantos: Teoria Cuántica.
En 1926, Edwin Schrödinger (1887-1961), físico alemán, premio nobel por sus aportaciones a la mecánica cuántica, usando un modelo matemático tridimensional basado en las propiedades ondulatorias del electrón y en la cuantificación de la energía cinética y potencial, desarrollo un conjunto de ecuaciones por medio de las cuales intento explicar el movimiento del electrón en términos de probabilidades. Imagino al átomo con un núcleo positivo rodeado de nubes electrónicas, las cuales permiten ubicar al electrón en algún lugar del espacio atómico.

Radiación.
La intensa fuerza nuclear mantiene unidos a protones y neutrones en el núcleo atómico superando la fuerza de repulsión de coulomb, llamada así por Charles Augustin Coulomb (1736-1806), un físico francés cuya mayor aportación fue en el campo del magnetismo y electricidad. Sin embargo, cuando la fuerza nuclear no es suficiente, los núcleos de los átomos se vuelven inestables y emiten partículas o fotones convirtiéndose en radiactivos. La radiación se define como la propiedad de algunos materiales de emitir rayos muy penetrantes. Esta integrada por partículas alfa, beta y rayos gamma
.


Desintegración radiactiva.

Los núcleos están compuestos por protones y neutrones, que se mantienen unidos por la denominada fuerza fuerte. Algunos núcleos tienen una combinación de protones y neutrones que no conducen a una configuración estable. Estos núcleos son inestables o radiactivos. Los núcleos inestables tienden a aproximarse a la configuración estable emitiendo ciertas partículas. Los tipos de desintegración radiactiva se clasifican de acuerdo a la clase de partículas emitidas.

Un ejemplo concreto 

Analicemos para el caso del átomo de hidrógeno, según el modelo de Bohr, cómo se conjugan estos tres supuestos cuánticos anteriores, a), b) y c). El átomo de hidrógeno se entiende como un sistema estable formado por un electrón y un protón. El electrón puede hallarse en un conjunto infinito, pero discontinuo de niveles de energía [supuesto c)].

Para pasar de un nivel a otro, el electrón debe absorber o emitir un quantum discreto de radiación [supuesto a)] cuya energía sea igual a la diferencia de energía entre esos niveles. Los niveles posibles de energía de los electrones se representan matemáticamente por funciones ondulatorias [supuesto b)], denominadas “funciones de estado”, que caracterizan el estado físico del electrón en el nivel de energía correspondiente. 

Para conocer el valor experimental de cualquier propiedad referente a la partícula debe “preguntarse” a su función de estado asociada. Es decir, dicha función constituye un tipo de representación del estado físico, tal que el estado del electrón en el n-ésimo nivel de energía es descrito por la n-ésima función de estado. 

La función de onda 

La descripción más general del estado del electrón del átomo de hidrógeno viene dada por la “superposición” de diferentes funciones de estado. Tal superposición es conocida como “función de onda”. La superposición de estados posibles es típica de la Teoría Cuántica, y no se presenta en las descripciones basadas en la Física Clásica. 

En esta última, los estados posibles nunca se superponen, sino que se muestran directamente como propiedades reales atribuibles al estado del sistema. Al contrario, especificar el estado del sistema en la Teoría Cuántica implica tomar en consideración la superposición de todos sus estados posibles. Las funciones de onda no son ondas asociadas a la propagación de ningún campo físico (eléctrico, magnético, etc.), sino representaciones que permiten caracterizar matemáticamente los estados de las partículas a que se asocian. 

El físico alemán Max Born ofreció la primera interpretación física de las funciones de onda, según la cual el cuadrado de su amplitud es una medida de la probabilidad de hallar la partícula asociada en un determinado punto del espacio en un cierto instante. Aquí se manifiesta un hecho que se repetirá a lo largo del desarrollo de la Teoría Cuántica, y es la aparición de la probabilidad como componente esencial de la gran mayoría de los análisis. 

La probabilidad en la Teoría Cuántica 

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión. La importancia de la probabilidad dentro de su formalismo supuso el punto principal de conflicto entre Einstein y Bohr en el V Congreso Solvay de Física de 1927. 

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de ella una teoría incompleta reemplazable por una hipotética teoría mejor, carente de predicciones probabilistas, y por lo tantodeterminista. Acuñó esta opinión en su ya famosa frase, “Dios no juega a los dados con el Universo”. 

La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica es muy distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera como una medida de la ignorancia del sujeto, por falta de información, sobre algunas propiedades del sistema sometido a estudio. Podríamos hablar, entonces, de un valor subjetivo de la probabilidad. Pero en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. 

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo un conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”), supuestamente obviados por la teoría, que al ser tenidos en cuenta aportarían la información faltante que convertiría sus predicciones probabilistas en predicciones deterministas. 


Veáse tambien:
http://www.youtube.com/watch?v=cP9Ko7pZSiI Linea del tiempo de los modelos atómicos http://www.youtube.com/watch?v=48yDFbwZRv4 Evolución de los modelos atómicos http://www.youtube.com/watch?v=QCZCqtp7S_8 Los 10 peores accidentes nucleares de la historia

lunes, 3 de junio de 2013

Modelos atómicos

Átomos: Modelos Atómicos
Modelo de DALTON.
Fue el primer modelo atómico con bases científicas, fue formulado en 1808 por John Dalton, quien imaginaba a los átomos como diminutas esferas. Este primer modelo atómico postulaba: La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir. Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de los diferentes elementos tienen pesos diferentes. Los átomos permanecen sin división, aun cuando se combinen en las reacciones químicas. Los átomos, al combinarse para formar compuestos guardan relaciones simples. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos. Modelo de Thomson Luego del descubrimiento del electrón en 1897 por Joseph John Thomson, se determinó que la materia se componía de dos partes, una negativa y una positiva. Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras radiaciones.
.

Modelo de Rutherford.  
 Este modelo fue desarrollado por el físico Ernest Rutherford a partir de los resultados obtenidos en lo que hoy se conoce como el experimento de Rutherford en 1911. Representa un avance sobre el modelo de Thomson, ya que mantiene que el átomo se compone de una parte positiva y una negativa, sin embargo, a diferencia del anterior, postula que la parte positiva se concentra en un núcleo, el cual también contiene virtualmente toda la masa del átomo, mientras que los electrones se ubican en una corteza orbitando al núcleo en órbitas circulares o elípticas con un espacio vacío entre ellos. A pesar de ser un modelo obsoleto, es la percepción más común del átomo del público no científico.
   
 Modelo de Bohr.
«El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose alrededor del núcleo en órbitas bien definidas». Las órbitas están cuantizadas (los e- pueden estar solo en ciertas órbitas) Cada órbita tiene una energía asociada. La más externa es la de mayor energía. Los electrones no radian energía (luz) mientras permanezcan en órbitas estables. Los electrones pueden saltar de una a otra órbita. Si lo hace desde una de menor energía a una de mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía asociada a cada órbita. Si pasa de una de mayor a una de menor, pierde energía en forma de radiación (luz). El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno. Pero solo la luz de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido cuando un electrón cae de una órbita a otra, siendo un pulso de energía radiada.  
 Modelo de Sommerfeld.
En una etapa posterior a la de los descubrimientos de Bohr Arnold Sommerfeld propuso que:  Las orbitas podían ser circulares y elípticas.  En las orbitas elípticas el núcleo debía encontrarse en uno de sus focos.  En los niveles de energía existían subniveles representados por las letras S, P, D y F.  El numero de orbitales elípticos no deben superar al numero cuántico principal, de tal forma que el nivel 1 contiene una orbita circular, el nivel 2 una circular y una elíptica, el nivel 3 una circular y 2 elípticas con diferentes grados de excentricidad. Actualmente los procesos atómicos se utilizan en medicina e industrias. Además el uso del electrón como partícula de bombardeo del núcleo a permitido controlar el proceso de fisión nuclear. Es una opción viable para generar energía eléctrica. Actualmente, el proceso se usa en muchos países, entre los que se incluye México. El átomo es la unidad de materia más pequeña de un elemento químico que mantiene su identidad o sus propiedades, y que no es posible dividir mediante procesos químicos. Está compuesto por un núcleo atómico, en el que se concentra casi toda su masa, rodeado de una nube de electrones. El núcleo está formado por protones, con carga positiva, y neutrones, eléctricamente neutros. Los electrones, cargados negativamente, permanecen ligados a este mediante la fuerza electromagnética.  
 Actualmente los procesos atómicos se utilizan en medicina e industrias. Además el uso del electrón como partícula de bombardeo del núcleo a permitido controlar el proceso de fisión nuclear. Es una opción viable para generar energía eléctrica. Actualmente, el proceso se usa en muchos países, entre los que se incluye México. El átomo es la unidad de materia más pequeña de un elemento químico que mantiene su identidad o sus propiedades, y que no es posible dividir mediante procesos químicos. Está compuesto por un núcleo atómico, en el que se concentra casi toda su masa, rodeado de una nube de electrones. El núcleo está formado por protones, con carga positiva, y neutrones, eléctricamente neutros. Los electrones, cargados negativamente, permanecen ligados a este mediante la fuerza electromagnética.

Véase también:
http://www.youtube.com/watch?v=cP9Ko7pZSiI Linea del tiempo de los modelos atómicos http://www.youtube.com/watch?v=48yDFbwZRv4 Evolución de los modelos atómicos 

martes, 30 de abril de 2013

Luz, Reflexión y Espejos

Equipo 1 Temas: 1. Luz 2. Reflexión 3. Espejos 1. La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica: [editar]Teoría ondulatoria [editar]Descripción Esta teoría, desarrollada por Christiaan Huygens, considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se autopropaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación. 2. Reflexión Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro). La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante tallado. En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión. Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en suspensión que contienen respectivamente. 3. Espejos Un espejo es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión. El ejemplo más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo. También existen espejos curvos que pueden ser cóncavos o convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan paralelos al eje. Los espejos son objetos que reflejan casi toda la luz que choca contra su superficie debido a este fenómeno podemos observar nuestra imagen en ellos.

lunes, 4 de marzo de 2013

Procesos termodinámicos

Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos termodinámicos son:  Proceso isotérmico  Proceso isobárico  Proceso isocórico  Proceso adiabático Las variables más comunes en el estudio de los procesos termodinámicos son: Temperatura, volumen, presión y calor (energía), en especial son importantes las transformaciones en las cuales una de estas variables permanecen constantes. Temperatura constante: proceso ISOTÉRMICO Presión constante: proceso ISOBÁRICO. Volumen constante: proceso ISÓCORO (o ISICÓRICO). Calor constante: proceso ADIABÁTICO Procesos termodinámicos Se produce cuando un sistema macroscópico pasa de un estado de equilibrio a otro y es la parte de la física en que se estudian las relaciones entre el calor y las restantes formas de energía. Calor: El calor es el proceso de transferencia de energía térmica entre diferentes cuerpos o diferentes zonas de un mismo cuerpo que se encuentran a distintas temperaturas. Este flujo de energía siempre ocurre desde el cuerpo de mayor temperatura hacia el cuerpo de menor temperatura, ocurriendo la transferencia hasta que ambos cuerpos se encuentren en equilibrio térmico (ejemplo: una bebida fría dejada en una habitación se entibia). Energía: En física, «energía» se define como la capacidad para realizar un trabajo. En física, se denomina proceso termodinámico a la evolución de determinadas magnitudes (o propiedades) propiamente termodinámicas relativas a un determinado sistema termodinámico. Desde el punto de vista de la termodinámica, estas transformaciones deben transcurrir desde un estado de equilibrio inicial a otro final; es decir, que las magnitudes que sufren una variación al pasar de un estado a otro deben estar perfectamente definidas en dichos estados inicial y final.

jueves, 13 de diciembre de 2012

Imanes Naturales

Son cuerpos que tienen cierta fuerza de atracción magnética. Diferencia entre los imanes Naturales son aquellos imanes que son de la naturaleza y que no fueron hechos por el hombre. Se denominan magnetita y es un mineral constituido por oxido ferroso. Es de color negro Artificiales son los de fabricas o construidos por algún proceso de industrias. En un imán la capacidad de atracción es mayor en sus extremos o polos. Estos polos se denominan norte y sur, debido a que tienden a orientarse según los polos geográficos de la Tierra, que es un gigantesco imán natural. PROPIEDADES MAGNÉTICAS El magnetismo es una propiedad por la cual los materiales se atraen o repelen de otros. Todos los materiales tienen propiedades magnéticas aunque sólo unos pocos las tienen en una medida mucho mayor que los demás y los denominamos magnéticos. Los imanes tienen dos polos llamados Norte y Sur. Si se divide un imán, éste vuelve a tener nuevamente dos polos