domingo, 10 de junio de 2012

EVALUACIÓN DEL BLOG

Ésta será mi última entrada en este blog dedicado a las asignaturas de Física y Quimica y Ciencias para el Mundo Contemporáneo, y sobre este blog voy a valorar diferentes cosas.
Para empezar me parece una gran adaptación a los últimos métodos de estudios, muy relacionados con internet. Es una forma muy rápida y fácil para indagar en aquellas dudas que tenemos, o tan sólo para realizar trabajos que son mandados en clase, además nos da una idea sobre métodos en los que podemos compartir nuestra opinión o las últimas noticias, no sólo puede servir en el ámbito educativo.
En cuanto a la parte negativa de la creción de los blogs, solo veo la necesidad de tener un PC y conexióna  internet (que no se tiene en cualquier sitio) para poder cumplir los objetivos del curso (o parte de ellos) pero por lo demás, me parece una magnífica idea.
VAMOS RAYO!

ARCHIVO WIKIPEDIA DE LA NASA

NASA son las siglas, en Idioma inglés, para la Administración Nacional de Aeronáutica y del Espacio1 (National Aeronautics and Space Administration) de los Estados Unidos, que es la agencia gubernamental responsable de los programas espaciales.

Historia

El programa espaciAl soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.
El 29 de julio de 1958 Eisenhower firmó el Acta de fundación de la NASA, la cual empezó a funcionar el 6 de octubre de 1958 con cuatro laboratorios y unos 8000 empleados.
La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada carrera espacial que se produjo durante la Guerr


El Programa Gemini

El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a "aterrizar a un hombre en laLuna y devolverlo sano y salvo a la Tierra antes del final de la década", para lo cual se creó el Programa Apolo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apolo, cuyas misiones eran mucho más complejas.
El programa comenzó con el Gemini 3 el 21 de marzo de 1965 y acabó con el Gemini 12 el 11 de noviembre de 1966. Edward White, quien posteriormente murió en el accidente del Apolo 1, hizo con el Gemini 4 el 3 de junio de 1965 la primera caminata espacial de un estadounidense. El 15 de diciembre de 1965 los Gemini 6 y 7, tripulados por dos astronautas cada uno, hicieron su primera cita espacial aproximando las naves hasta 1,8 m. El vuelo del Gemini 7 tuvo una duración de dos semanas, tiempo que se estimó necesario para las misiones Apolo. El 16 de marzo de 1966 la nave Gemini 8, tripulada por David Scott y Neil Armstrong, que luego sería el primer hombre en pisar la Luna, atracaron su nave a un cohete Agena preparando la maniobra de atraque entre el módulo lunar y la nave Apolo.

[editar]El Programa Apolo

Buzz Aldrin camina sobre la superficie de la Luna durante la misión Apolo 11.
Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. La NASA, tras este accidente, lanzó un programa de premios para mejorar la seguridad de las misiones, el Premio Snoopy. El Programa Apolo logró su meta con el Apolo 11, que alunizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la Luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la Luna fueron, traducidas del inglés: «Este es un pequeño paso para el hombre, pero un gran salto para la humanidad» --aunque quiso decir "un hombre", para hacer la contraposición individuo-humanidad.
Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17 en diciembre de 1972, cuyo resultado fue además de la recogida de muestras de regolito la instalación de equipos de estudio superficiales ALSEP.
El astronauta Charles M. Duke, Jr. en la misiónApollo 16.
La NASA había ganado la carrera espacial y, en cierto sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Ni la casi trágica misión del Apolo 13, donde la explosión de un tanque de oxígeno casi costó la vida a los tres astronautas y les obligó a renunciar a pisar la Luna, pudo volver a atraer la atención. Las misiones posteriores al Apolo 17 (estaban planificadas varias misiones más, hasta el Apolo 20) fueron suspendidas. Los recortes del presupuesto, debidos en parte a la Guerra de Vietnam, provocaron el fin del programa. Los tres Saturno V no utilizados se usaron para el desarrollo del primer laboratorio estadounidense en órbita, el Skylab, y las ideas fueron en la línea de desarrollar un vehículo espacial reutilizable como eltransbordador espacial. Poco conocido es el proyecto AAP (Apollo Applications Program), que debía ser el sustituto de las misiones Apolo, o el LASS, destinado a establecer una base habitada en la superficie del satélite.

Misiones no tripuladas
Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, han habido muchas misiones no tripuladas promovidas por la agencia espacial.
En 1962 el Mariner 2 fue la primera nave espacial en hacer un sobrevuelo cercano a otro planeta, en este caso Venus. Los programas Ranger, Surveyor y Lunar Orbiter eran esenciales para evaluar las condiciones lunares antes de intentar el vuelo tripulado del programa Apolo. Posteriormente, las dos sondas Viking que aterrizaron en la superficie deMarte enviaron a la Tierra las primeras imágenes de la superficie del planeta. Quizá las misiones no tripuladas más impresionantes fueron los programas Pioneer 10, Pioneer 11,Voyager 1 y Voyager 2, misiones que visitaron Júpiter, Saturno, Urano y Neptuno y enviaron impresionantes imágenes en color de todos ellos y la mayoría de sus satélites
Cooperación entre EE.UU. y la Unión Soviética
El desarrollo ya logrado por las dos potencias espaciales tenía que producir un acercamiento entre la Unión Soviética y los Estados Unidos. Por lo tanto, el 17 de julio de 1975 un Apolo, encontrando un nuevo uso después de la cancelación del Apolo 18, se acopló a un Soyuz soviético en la misión Apolo-Soyuz para la que hubo que diseñar un módulo intermedio y acercar la tecnología de las dos naciones. Aunque la Guerra Fría duraría más años, este fue un punto crítico en la historia de NASA y el principio de la colaboración internacional en la exploración espacial. Después vinieron los vuelos del transbordador a la estación rusa Mir, vuelos de estadounidense en la Soyuz y de rusos en el transbordador y la colaboración de ambas naciones y otras más en la construcción de la Estación Espacial Internacional (ISS).

ALEXANDER FRIEDMANN


ALEXANDER FRIEDMANN


Alexander Friedmann nació el 29 de junio de 1888 en San Petesburgo y murió el 16 de septiembre de 1925 en Leningrado. Fue un ruso y soviético físico y matemático.Luchó en la Primera Guerra Mundial como un terrorista y más tarde vivió la Revolución rusa de 1917.
Friedmann obtuvo su título en La Universidad Estatal de San Petersburgo (1910), se convirtió en un profesor de San Petersburgo la universidad del estado de Minas , y profesor en la Universidad Estatal de Perm en 1918.
Friedman demostró que tenía el mando de los tres modelos de Friedmann que describen la curvatura positiva, cero y negativos, respectivamente, una década antes de Robertson y Walker publicó su análisis.
Este modelo dinámico cosmológica de la relatividad general sería pasado a formar el estándar para el Big Bang y la teoría de estado estacionario . El trabajo de Friedmann apoya ambas teorías por igual, por lo que no fue sino hasta la detección de la radiación cósmica de fondo que la teoría del estado estacionario fue abandonado en favor del actual paradigma favorito Big Bang.
La clásica solución de las ecuaciones de campo de Einstein que describen un universo homogéneo e isótropo se llama la métrica de Friedmann-Lemaître-Robertson-Walker.
Friedman se interesaba además de por la relatividad general, por la hidrodinámica y la meteorología.
George Gamow y Vladimir Fock se encontraban entre sus alumnos.
Friedmann murió el 16 de septiembre de 1925, a la edad de 37 años, a partir de la fiebre tifoidea que contrajo durante sus vacaciones en Crimea .

ANÁLISIS DE LAS CARACTERÍSTICAS DEL PETRÓLEO


Origen del petróleo
El petróleo se forma bajo la superficie terrestre por la descomposición de organismos marinos. Los restos de animales minúsculos que viven en el mar y, en menor medida, los de organismos terrestres arrastrados al mar por los ríos o los de plantas que crecen en los fondos marinos se mezclan con las finas arenas y limos que caen al fondo en las cuencas marinas tranquilas. Estos depósitos, ricos en materiales orgánicos, se convierten en rocas generadoras de crudo. El proceso comenzó hace muchos millones de años, cuando surgieron los organismos vivos en grandes cantidades, y continúa hasta el presente. Una vez formado el petróleo, éste fluye hacia arriba a través de la corteza terrestre. El petróleo queda atrapado, formando un depósito. Sin embargo, una parte significativa brota en la superficie terrestre o en el fondo del océano.
Búsqueda del petróleo
La mayoría de los pozos petrolíferos se perforan con el método rotatorio. El crudo atrapado en un yacimiento se encuentra bajo presión. La mayor parte del petróleo contiene una cantidad significativa de gas natural en disolución, que se mantiene disuelto debido a las altas presiones del depósito. Cuando el petróleo pasa a la zona de baja presión del pozo, el gas deja de estar disuelto y empieza a expandirse. Esta expansión, junto con la dilución de la columna de petróleo por el gas, menos denso, hace que el petróleo aflore a la superficie.
A medida que se continúa retirando líquido del yacimiento, la presión del mismo va disminuyendo poco a poco, así como la cantidad de gas disuelto. Esto hace que la velocidad de flujo del líquido hacia el pozo se haga menor y se libere menos gas. Cuando el petróleo ya no llega a la superficie se hace necesario instalar una bomba en el pozo para continuar extrayendo el crudo.
Finalmente, la velocidad de flujo del petróleo se hace tan pequeña, y el costo de elevarlo hacia la superficie aumenta tanto, que esto significa que se ha alcanzado el límite económico del pozo, por lo que se abandona su explotación.
Características físicas y composición química
El petróleo es una mezcla de hidrocarburos que se encuentra en la naturaleza ya sea en estado sólido, líquido o gaseoso. Estas tres fases del petróleo puede transformarse una en otra, sometiéndolas a cambios moderados de temperatura o presión. Algunos de los constituyentes del petróleo son sólidos a las temperaturas ordinarias de la tierra, pero la aplicación del calor para producir una pequeña elevación de la temperatura hará que tomen la forma liquida, aumentando el calentamiento hasta el punto de ebullición se convertirán en gases y vapores. Otros componentes son vapores de la temperatura ordinaria, pero la presión de la tierra que naturalmente se desarrolla dentro de las rocas que los contienen hará que los condense formando líquidos. Si se elimina esta presión se permitirá que el liquido vaporice nuevamente, siempre que no haya cambios en la temperatura. El petróleo liquido puede también convertirse al estado sólido o gaseoso por evaporación, formando gases o vapores las fracciones mas ligeras y volátiles y solidificándose las fracciones mas pesadas. Las formas sólidas y gaseosas son solubles en las formas liquidas los cambios líquidos tales como la oxidación del petróleo liquido pueden también ser motivo de solidificación. En la naturaleza todas las variantes desde formas sólidas duras y quebradizas pasando por sustancias suaves y sedosas, semisólidos viscosas, líquidos pesados y viscosos, líquidos ligeros y volátiles de consistencia similar al agua, vapor y densos a ligeros, y gases casi inconfensables, pueden encontrarse asociados en una sola región al ocurrir cambios de presión temperatura y otros físicos o químicos, habrá un reajuste continuo entres las diferentes fases o las mezclas de hidrocarburo.

VIDEO-DEMOSTRACIÓN DE FABRICACIÓN DE BOTELLAS DE PLÁSTICO


lunes, 4 de junio de 2012

FABRICACIÓN DE PLÁSTICOS POR COMPRESIÓN

El moldeo por compresión es uno de los proceso de transformación de plásticos más antiguo que existe (a principios del siglo XIX) , aunque no comenzó a desarrollarse a escala industrial hasta 1908, cuando Leo Baeckeland desarrollo las resinas fenol-formaldehido, que siguen empleándose aún hoy en día.
El moldeo por compresión es un método de moldeo en el que el material de moldeo, en general precalentado, es colocado en la cavidad del molde abierto. El molde se cierra, se aplica calor y presión para forzar al material a entrar en contacto con todas las áreas del molde, mientras que el calor y la presión se mantiene hasta que el material de moldeo se ha curado. El proceso se emplea en resinas termoestables en un estado parcialmente curado.El moldeo por compresión es un método de alta presión, adecuado para el moldeo de piezas complejas, de alta resistencia con refuerzos de fibra de vidrio. Los compuestos termoplásticos, aunque en menor medida, también pueden ser moldeados por compresión con refuerzos de cintas unidireccionales, tejidos, fibras orientadas al azar o de hilos cortados. La ventaja de moldeo por compresión es su capacidad para moldear piezas grandes, bastante intrincadas o complejas. Además, es uno de los métodos de más bajo costo en comparación con el moldeo por otros métodos tales como moldeo por transferencia y moldeo por inyección, por otra parte se desperdicia poco material, dándole una ventaja cuando se trabaja con compuestos caros. Sin embargo, el moldeo por compresión a menudo proporciona productos de pobre consistencia y dificultad en el acabado, y no es adecuado para algunos tipos de piezas. En este proceso se produce una menor degradación de la longitud de la fibra en comparación con el moldeo por inyección. Este método de moldeo es muy utilizado en la fabricación de piezas de automóviles, cubiertas, defensas, cucharones, spoilers, así como pequeñas piezas más complejas. El material a ser moldeado se coloca en la cavidad del molde y los platos calientes son cerrados por un pistón hidráulico. El moldeo de compuestos a granel y el moldeo de lámina compuesta utilizan este método de moldeo, estos compuestos son conformados a la forma del molde por la presión aplicada y se calienta hasta que se produce la reacción de curado. El material para el SMC por lo general se corta para ajustarse a la superficie del molde. El molde se enfría y se retira la pieza. Los materiales pueden ser cargados en el molde, ya sea en forma de pellets o lámina, o el molde se puede cargar desde una extrusora de plastificación. Los materiales se calientan por encima de su punto de fusión, se forman y se enfrían. El material de alimentación se distribuye en forma uniforme en la superficie del molde, la orientación del flujo se produce durante la fase de compresión.


Definición del procesoEl moldeo por compresión es un proceso de conformación en que se coloca un material plástico directamente en un molde de metal se calienta y luego se ablanda por el calor, y obligado a conformarse con la forma del molde en el molde cerrado.
 Esquema del procesoEl moldeo por compresión se inicia, con una cantidad determinada colocada o introducida en un molde. Luego el material se calienta a un estado maleable y moldeado. Poco después, la prensa hidráulica comprime el plástico flexible contra el molde, dando como resultado una pieza perfectamente moldeada que mantiene la forma de la superficie interior del molde. Después la prensa hidráulica retrocede, un pin eyector en el fondo del molde rápidamente expulsa la pieza final fuera del molde y entonces, el proceso concluye.

FABRICACIÓN DE PLÁSTICOS POR EXTRUSIÓN

La extrusión es un proceso por el cual es posible obtener productos acabados o semiacabados en régimen continuo.


Utilizándose equipos que funden, homogeneizan y fuerzan al polímero a pasar a través de matrices de forma definida – asociados a equipos auxiliares como corte, conformación, soldadura, etc. – se pueden producir tubos, películas, chapas, filamentos perfiles, frascos, bidones, etc. Este proceso puede ser también empleado para el revestimiento de substratos como papel, aluminio y conductores eléctricos.

Las figuras a seguir, presentan algunos productos acabados obtenidos a partir del proceso de extrusión.

La extrusión es un término que asocia al equipo (extrusora), utilizado para efectuar tal proceso, al procesamiento del polímero, propiamente dicho. A pesar de ser distintos, todavía así se torna difícil separarlos, pues, la verdad, uno complementa al otro. De este modo, se hace una descripción unificada proceso/equipo, una descripción sucinta de cada proceso de extrusión para la obtención de diversos tipos de productos acabados y de las características del tipo de PEAD, que puede ser utilizado.

Los materiales plásticos se extruyen en perfiles continuos  de sección regular, esto se hace con máquinas que operan de modo semejante a las de fabricar embutidos. El material se coloca en una tolva, de la que pasa a un cilindro de calefacción y a través del cual pasa con la ayuda de un tornillo de alimentación. En el extremo opuesto del cilindro de calentamiento, se obliga al material (que se ha calentado y comprimido hasta formar una masa plástica) a pasar a través de una boquilla que da forma a la sección extruída.

La sección se conduce fuera de la boquilla con la ayuda de una cinta transformadora en movimientos y la dimensión final de la pieza viene determinada por la velocidad de esta cinta que estira el perfil extruido hasta un área de sección reducida.

Para que sea realizado el proceso de extrusión, es necesario aplicar presión al material fundido, forzándolo a pasar de modo uniforme y constante a través de la matriz. Atendiendo a estos requisitos, las máquinas extrusoras se clasifican en: extrusoras de dislocamiento positivo y extrusoras de fricción.

Extrusoras de dislocamiento positivo

Se obtiene la acción de transporte mediante el dislocamiento de un elemento de la propia extrusora. En la matriz la reología del polímero tiene mayor influencia sobre el proceso.

Extrusora de pistón (inyectora)
Un pistón, cuyo accionamiento puede ser hidráulico o mecánico, fuerza al material a pasar a través de la matriz. Es utilizada para la extrusión de polímeros termofixos, politetrafluoretileno, Polietileno de Alta Densidad de Ultra Alto Peso Molecular (PEAD – UAPM), metales y materiales cerámicos.

Extrusoras de fricción
La acción del transporte, conseguida aprovechándose las características físicas del polímero y la fricción de éste con las paredes metálicas transportadoras de la máquina, donde ocurre la transformación de energía mecánica en calor que ayuda a la fusión del polímero. La reología del polímero tiene influencia sobre todo el proceso. Los tipos son: extrusora de cilindros y extrusora de rosca. 

Extrusora de cilindros
Consiste, básicamente, en dos cilindros próximamente dispuestos. El material a ser procesado pasa entre estos cilindros y es forzado a pasar por una matriz. Este proceso es utilizado para algunos elastómeros y termoplásticos. La figura 2 representa una esquematización de este tipo de extrusora. 

Extrusora de rosca
Las extrusoras de rosca pueden estar constituidas por una, dos o más roscas. Son las más utilizadas para la extrusión de termoplásticos, comparadas con todos los demás tipos de extrusoras. Abordaremos más específicamente las extrusoras de una rosca, pues son las más empleadas en el mercado nacional.

FABRICACIÓN DE PLÁSTICOS POR INYECCIÓN

Un émbolo o pistón de inyección se mueve rápidamente hacia adelante y hacia atrás para empujar el plástico ablandado por el calor a través del es­pacio existente entre las paredes del cilindro y una pieza recalentada y situada en el centro de aquél. Esta pieza central se emplea, dada la pequeña conductividad térmica de los plásticos, de forma que la superficie de calefacción del cilindro es grande y el espesor de la capa plástica calentada es pequeño. Bajo la acción combinada del calor y la presión ejercida por el pistón de inyección, el polímero es lo bastante fluido como para llegar al molde frío donde toma forma la pieza en cuestión. El polímero estará lo suficiente fluido como para llenar el molde frío. Pasado un tiempo breve dentro del molde cerrado, el plástico solidifica, el molde se abre y la pieza es removida. El ritmo de producción es muy rápido, de escasos segundos

MICROSCOPIO DE HAZ DE ELECTRONES O DE EFECTO TÚNEL

Se trata de una maquina capaz de revelar la estructura atómica de las partículas.Las técnicas aplicadas se conocen como "de barrido de túnel" y están relacionadas con la mecánica cuántica.Consiste en atrapar a los electrones que escapan en ese efecto túnel,logrando una imagen de la estrucutra atómica de la materia con una alta resolución, en la que cada átomo se distingue de otro.Una vez realizado esto se escanea la superficie del objeto, y haciendo un mapa de la distancia entre varios puntos se genera una imagen en tres dimensiones.También han sido utilizados para producir cambios en la composición molecular de las sustancias.Es un instrumento fundamental en la nanotecnología y la nanociencia.Fue inventado por Binning y Rohrer en 1981, quienes fueron galardonados con el Premio Nobel en 1986 debido a este descubrimiento.
Un microscopio de este tipo contiene una punta de exploración, un piezoeléctrico de altura controlada,escáner x-y,control sistema de aislamiento de vibraciones y una computadora.
La resolución de la imagen viene dada por el radio de curvatura de la punta exploradora,a veces, poseen dos puntas al final y esto produce imágenes de doble punta, que contribuyen al efecto túnel.Para ello ha sido esencial la obtención de puntas afiladas y útiles.Actualmente, nanotubos de carbono han sido utilizados para esto.En ocasiones las puntas son de tungsteno,platino-iridio o de oro.Se utilizan sistemas de resortes o resosrtes de gas para mantener al microscopio libre de vibraciones, a veces, se implantan mecanismos para reducir las corrientes parásitas.Después del escaneo, se obtienen los datos a través de una computadora.La computadora también se usa para mejorar la imagen con ayuda de un procesamiento digital de imágenes.

lunes, 14 de mayo de 2012

YURI GAGARIN

Yuri Alekséyevich Gagarin (KlúshinoURSS9 de marzo de 1934 - Novosyolovo, URSS, 27 de marzo de 1968), ruso: Ю́рий Алексе́евич Гага́рин, fue un cosmonauta soviético. El 12 de abril de 1961, Gagarin fue el primer ser humano en viajar al espacio exterior a bordo de la nave Vostok 1.


EL VIAJE DE YURI 

File:Gagarin in Sweden.jpgEl miércoles 12 de abril de 1961, Gagarin se convirtió en el primer ser humano que viajó al espacio en la nave Vostok 3KA-3, más conocida como Vostok 1. Su nombre clave durante el vuelo fue Kedr (en ruso кедр, cedro), es decir, pino siberiano, los operadores de tierra eranZaryá (Заря, Aurora) y Vesná (Весна, primavera) Se sabe que el vuelo duró 108 minutos en total: 9 minutos para entrar en órbita y luego una órbita alrededor de la Tierra. Mientras, todo lo que tenía que hacer era hablar por radio, probar un poco de comida -fue el primero en comer a bordo de una nave espacial- con el objetivo de saber si un ser humano podía sentir y comportarse de manera normal estando singravedad.
Los científicos no conocían con certeza los efectos de la ingravidez, y la nave estuvo siempre bajo control terrestre. En caso de emergencia contaba con todos los instrumentos de vuelo necesarios para el aterrizaje manual. Gagarin estaba sujeto a un asiento eyectable, por medio del cual saldría del módulo de la nave luego del descenso, a una altitud de aproximadamente 7 kilómetros.
El vuelo del Vostok 1 comenzó a las 06:07 hora universal (UT), impulsado por un cohete de la serie Vostok-K desde el Cosmódromo de Baikonur. Los controladores de tierra no sabían si Gagarin había alcanzado una órbita estable hasta 25 minutos después del lanzamiento, justo cuando se dirigía hacia el lado no iluminado de la Tierra y dejando atrás la Unión Soviética a través del Océano Pacífico. Cruzó en la madrugada el estrecho de Magallanes y durante el amanecer el vasto Océano Atlántico Sur. Después se activó el sistema automático de la nave para alinear la cápsula y disparar los cohetes de retroceso para así empezar el descenso, mientras cruzaba la costa occidental de Angola, a unos 8000 kilómetros de altura aún.
File:Gagarin's capsule in Moscow Cosmonautics museum.jpgDurante este punto crítico de reentrada atmosférica, se presentó el problema más grave del vuelo. La nave debía de desprenderse de una parte si quería reentrar exitosamente adoptando una orientación apropiada o terminaría convertida en una gran bola de fuego. Durante 10 incómodos minutos, y sin poder actuar, la cápsula giraba violentamente. Había fallado el sistema de suelta automático y la vida de Gagarin peligraba. Por suerte, con el inmenso calor generado durante la reentrada se debilitó el sistema de anclaje y se liberó la cápsula con Gagarin en su interior. Mientras su descenso continuaba, cruzaba los oscuros bosques y montañas del centro de África, luego el Sáhara, el río Nilo, Oriente Medio, mientras continúa su descenso hacia el sudoeste de la actual Federación Rusa. Preparado para iniciar la expulsión y ya cerca del Mar Negro, se deshace de la cápsula a 7000 metros sobre la tierra.
Debido a un error del sistema de frenado, no aterrizó en la región prevista (a unos 110 kilómetros de Stalingrado, hoy Volgogrado), sino en laprovincia de Sarátov. A las 10:20 de aquel día, Gagarin, tras salir despedido de la cápsula del Vostok, aterrizó en paracaídas cerca del pueblo de Smelovka, a unos 15 kilómetros de la ciudad de Engels. La campesina Anna Tajtárova de una granja colectiva cercana y su nieta Rita, de seis años de edad, fueron las primeras personas en encontrar a Gagarin. Llevaba un extraño traje naranja y un casco blanco con unas grandes iniciales en rojo, CCCP (las siglas en ruso de la Unión de Repúblicas Socialistas Soviéticas). «¿Vienes del espacio?», preguntó la anciana. «Ciertamente, sí», dijo el cosmonauta que, para calmar a la campesina, se apresuró a añadir: «Pero no se alarme, soy soviético». La primera medida inmediata del gobierno soviético es su ascenso del rango militar de teniente segundo a mayor.
File:Convert ru kosmos080.jpgSegún los medios soviéticos, durante la órbita Gagarin comentó: «Aquí no veo a ningún Dios». Sin embargo, no hay grabación que demuestre que Gagarin pronunció esas palabras. En cambio, se sabe que Nikita Jrushchov dijo una vez: «Gagarin estuvo en el espacio, pero no vio a ningún Dios allí». Luego estas palabras empezaron a ser atribuidas al cosmonauta. Lo que sí dijo con certeza el cosmonauta desde la nave Vostok 1 fue: «Pobladores del mundo, salvaguardemos esta belleza, no la destruyamos».

LA GRAVEDAD REVELA UN EXOPLANETA OCULTO [NOTICIA]


Un método de cálculo basado en interferencias gravitacionales entre planetas ha permitido descubrir la presencia de un exoplaneta oculto que orbita alrededor de una estrella similar al Sol. Esta técnica ya fue empleada por el matemático Urbain Le Verrier para predecir la existencia de Neptuno hace más de un siglo, pero por primera vez ha hecho posible inferir un nuevo planeta oculto fuera del Sistema Solar. Los resultados, basados en datos tomados por el satélite Kepler, se publican en la revista Science.

A pesar de que con las últimas tecnologías el hombre ha desarrollado telescopios muy potentes para observar los cuerpos celestes, muchas veces estos son muy lejanos, o por su posición y características no son detectables. Es preciso entonces `adivinar´ su presencia a tra
vés de, por ejemplo, el efecto que ejercen sobre otros astros. Esta es la base de la teoría de la perturbación gravitacional, empleada por primera vez por Le Verrier para predecir la existencia de Neptuno sobre la base de pequeñas variaciones en el movimiento de Urano.

Cambios en la órbita

Upsilon AndromedaeLa base de este método es sencilla de entender. Los planetas que giran en torno a una estrella siguen una órbita cuyos movimientos están regulados por las leyes de Kepler. Cuando un planeta pasa en primer plano frente a la estrella, su luz se oscurece por un breve periodo de tiempo. Estos tránsitos son también periódicos y suelen tener la misma duración. "Para un planeta que sigue una órbita estrictamente kepleriana, en torno a su estrella madre, las propiedades de espacio, de tiempo, y de la curva de luz observada, deben ser inmutables en el tiempo", afirma David Kipping, del Centro de Astrofísica Harvard-Smithsoniano (EEUU), y coautor del estudio. Sin embargo, en ocasiones se pueden producir variaciones en estas propiedades. Una de estas excepciones se produce cuando un segundo planeta, debido a su gravedad, `tira´ del primero y produce variaciones en la órbita.

Los investigadores identificaron, gracias a los datos del proyecto Kepler, una estrella similar al Sol, conocida como KOI-872, que mostraba tránsitos con fuertes variaciones en el tiempo. "Se hizo evidente que un objeto oculto de gran tamaño debía estar tirando del planeta en tránsito", afirma David Nesvorny, del Instituto de Investigación del Suroeste (EEUU) y director del trabajo. Mediante cálculos informáticos, el equipo mostró que las variaciones observadas se explican porque un planeta no detectado está orbitando alrededor de la estrella madre. Este es el primer trabajo en el que se ha aplicado la teoría de la perturbación de Le Verrier fuera del Sistema Solar.

FUENTE: MUYINTERESANTE.ES

martes, 8 de mayo de 2012

PLANETAS INTERIORES

Los planetas interiores también llamados telúricos o terrestres son los cuatro planetas más cercanos al Sol, es decir: Mercurio, Venus, la Tierra y Marte. Son pequeños y de densidad elevada (3-5 g/cm³) formados principalmente por materiales rocosos y metálicos con una estructura interna bien diferenciada y con un tamaño similar. La composición isotópica de estos cuerpos y su densidad variable (mayor en Mercurio y menor en Marte) ofrecen importantes pistas sobre la formación del sistema solar. Los cuatro tienen superficies sólidas con los tres últimos poseyendo también una atmósfera. El estudio comparativo de los cuatro planetas permite estudiar la evolución geológica en un contexto más amplio que el de únicamente la Tierra.
Más allá de la órbita de Marte se encuentra el cinturón de asteroides una región del Sistema Solar en la que se encuentran abundantes asteroides que no llegaron a formar nunca un planeta.
Desde el punto de vista astronómico en cada uno de lo planetas más interiores Mercurio y Venus poseen elevados ángulos de fase y tanto él, como Júpiter, presentan un elevado movimiento retrógrado en su movimiento aparente observado desde la Tierra. Los planetas interiores giran lentamente sobre sí mismos (Mercurio 58 días, Venus 243 y 24 horas para la Tierra y Júpiter). Todos ellos emiten un flujo energia muy inferior al que reciben del Sol estando caracterizados sus espectros por la reflexión de luz espiritual.

martes, 24 de abril de 2012

PLANETAS EXTERIORES

Los protoplanetas más grandes fueron lo suficientemente masivos para acumular gas del disco protoplanetario, y se cree que sus distribuciones de masa se pueden entender a partir de sus posiciones en el disco, aunque esa explicación es demasiado simple para dar cuenta de muchos otros sistemas planetarios. En esencia, el primer planetesimal joviano en alcanzar la masa crítica requerida para capturar gas de helio y subsecuentemente gas de hidrógeno es el más interior, porque - comparado con las órbitas más lejanas del Sol - aquí las velocidades orbitales son más altas, la densidad en el disco en mayor y las colisiones ocurren más frecuentemente. Así Júpiter es el joviano más grande porque acumuló gases de hidrógeno y helio por el periodo más largo de tiempo, y Saturno es el siguiente. La composición de estos dos está dominada por los gases de hidrógeno y helio capturados (aproximadamente 97% y 90% de la masa, respectivamente).

Los protoplanetas de Urano y Neptuno alcanzaron el tamaño crítico para colapsar mucho después, y por eso capturaron menos hidrógeno y helio, que actualmente constituye cerca solamente de 1/3 de sus masas totales.

Siguiendo a la captura de gas, se cree actualmente que el Sistema Solar exterior ha sido formado por migraciones planetarias. Así como la gravedad de los planetas perturbó las órbitas de los objetos del cinturón de Kuiper, muchos fueron dispersados hacia dentro por Saturno, Urano y Neptuno, mientras que Júpiter muchas veces expulsó esos objetos completamente fuera del Sistema Solar. Como resultado, Júpiter migró hacia dentro mientras que Saturno, Urano y Neptuno migraron hacia fuera. Un descubrimiento importante en el entendimiento de cómo esto condujo a la estructura actual del Sistema Solar ocurrió en 2004. En ese año, nuevos modelos de computadora de Júpiter y Saturno, mostraron que si Júpiter iniciara tomando menos de dos órbitas alrededor del Sol por cada una de Urano y Neptuno vez que Saturno completara una órbita, este patrón de migración pondría a Júpiter y Saturno en una resonancia de 2:1 cuando el periodo orbital de Júpiter llegara a ser exactamente de la mitad de la de Saturno. Esta resonancia podría poner a Urano y Neptuno en órbitas más elípticas, teniendo una probabilidad de 50% de que cambiaran lugares. El objeto que terminó siendo el más exterior (Neptuno) podría entonces ser forzado hacia fuera, al cinturón de Kuiper como inicialmente existió. La interacción subsecuente entre los planetas y el cinturón de Kuiper después de que Júpiter y Saturno pasaron por la resonancia de 2:1 puede explicar las características orbitales y las inclinaciones del eje de los planetas gigantes exteriores. Urano y Saturno acabaron donde están debido a las interacciones con Júpiter y entre ellos, mientras que Neptuno terminó en su lugar actual porque es ahí donde el cinturón de Kuiper terminaba inicialmente. La dispersión de los objetos del cinturón de Kuiper puede explicar el intenso bombardeo tardío que ocurrió aproximadamente hace 4 mil millones de años

EL ORIGEN DEL SISTEMA SOLAR



Las teorías concernientes a la formación y evolución del Sistema Solar son variadas y complejas, involucrando varias disciplinas científicas, desde la astronomía y la física hasta la geología y la ciencia planetaria. A través de los siglos se han desarrollado muchas teorías sobre su formación pero no fue sino hasta el siglo XVIII que el desarrollo de la teoría moderna tomó forma. Con la llegada de la era espacial las imágenes y estructuras de otros mundos en el Sistema Solar refinaron nuestra comprensión, mientras que los avances en física nuclear nos dieron un primer vistazo a los procesos sostenidos por las estrellas y nos guiaron hacia las primeras teorías sobre su formación y posteriormente, sobre su destrucción.
File:M42proplyds.jpgLa hipótesis actual sobre la formación del Sistema Solar es la hipótesis nebular, propuesta por primera vez por Emanuel Swedenborg. En 1775 Immanuel Kant, quien estaba familiarizado con el trabajo de Swedenborg, desarrolló la teoría más ampliamente. Una teoría similar fue formulada independientemente por Pierre-Simon Laplace. en 1796. La teoría nebular sostiene que hace 4,6 mil millones de años el Sistema Solar se formó por un colapso gravitacional de una nube molecular gigante. Esta nube inicial tenía probablemente varios años luz de largo y fue la sede del nacimiento de varias estrellas. Aunque el proceso era visto como relativamente tranquilo, estudios recientes de antiguos meteoritos revelan restos de elementos solamente formados en los núcleos de estrellas muy grandes que explotan, indicando que el ambiente en el que el Sol se formó estaba dentro del alcance de algunas supernovas cercanas. La onda de choque de estas supernovas pudo haber desencadenado la formación del Sol a través de la creación de regiones de sobredensidad en la nebulosa circundante, causando el colapso de ellas.

martes, 17 de abril de 2012

BIG CRUNCH

En cosmología, la Gran Implosión (también conocida como Gran Colapso o directamente mediante el término inglés Big Crunch) es una de las teorías que se barajaban en el siglo XX sobre el destino último del universo, hoy descartada a favor de un modelo de universo en expansión permanente.
La teoría de la Gran Implosión propone un universo cerrado. Según esta teoría, si el universo tiene una densidad crítica superior a 3 átomos por metro cúbico, la expansión del universo, producida en teoría por la Gran Explosión (o Big Bang) irá frenándose poco a poco hasta que finalmente comiencen nuevamente a acercarse todos los elementos que conforman el universo, volviendo al punto original en el que todo el universo se comprimirá y condensará destruyendo toda la materia en un único punto de energía como el anterior a la Teoría de la Gran Explosión.
El momento en el cual acabaría por pararse la expansión del universo y empezaría la contracción depende de la densidad crítica del Universo; obviamente, a mayor densidad mayor rapidez de frenado y contracción -y a menor densidad, más tiempo para que se desarrollaran eventos que se prevé tendrían lugar en un universo en expansión perpetua.

Fase de contracción

La fase de contracción y los procesos físicos que tendrían lugar en ella serían casi simétricos a la fase de expansión. En primer lugar, debido a la finitud de la velocidad de la luz, los astrónomos tardarían en ver cómo el desplazamiento al rojo de las galaxias distantes va desapareciendo primero de las más cercanas y finalmente de las más alejadas y se convierte en todas ellas en un desplazamiento al azul. La temperatura de la radiación cósmica empezaría a aumentar y llegaría un momento en el que sería idéntica a la actual, cuando el universo tuviera el mismo tamaño que hoy -aunque su evolución habría proseguido con el tiempo y no sería un universo cómo el actual, sino en el mejor de los casos un universo menos rico en estrellas y más abundante en cadáveres estelares.

El Big Bounce

Según esta teoría, tras la Gran Implosión podría tener lugar una nueva Gran Explosión; e incluso este universo podría proceder de un universo anterior que también se comprimió en su Gran Implosión. Si esto hubiera ocurrido repetidas veces, nos encontraríamos ante un universo oscilatorio; donde cada universo termina con una Gran Implosión y da lugar a un nuevo universo con una gran Explosión. Sin embargo, no sólo no se conoce qué podría provocar tal rebote sino que la teoría de un universo oscilante entra en contradicción con la segunda ley de la termodinámica; a menos que en cada ciclo se produjera una destrucción y reinicio totales del universo, con la desaparición de las leyes físicas existentes y la aparición de nuevas leyes físicas, y/o la entropía se "rebobinara" durante la fase de contracción (por ejemplo, se ha sugerido que el tiempo iría al revés durante ésta fase), no sólo la cantidad de agujeros negros iría aumentando en cada ciclo sino que la radiación existente en el universo aumentaría a costa de la materia -debido a las reacciones de fusión nuclear producidas en el interior de las estrellas, en las que parte de la materia que compone los átomos que se fusionan se transforma en energía-, con el resultado de que los "rebotes" serían cada vez más largos hasta llegar a un escenario no demasiado diferente de la expansión indefinida; todo ello tendría cómo consecuencia que debería haber habido un número finito de ciclos antes del actual. Además, el reciente descubrimiento de la energía oscura ha provocado que muchos cosmólogos abandonen la teoría de este universo oscilante y junto con otros descubrimientos, también la de que el universo sea cerrado, aunque al no conocerse bien la naturaleza de la energía oscura aún no puede descartarse por completo un colapso futuro.

Vida en un universo en contracción

Del mismo modo que se ha especulado con las posibles formas de vida existentes en un universo en expansión eterna, también se ha hecho lo mismo con las existentes en los momentos finales de un universo en contracción (durante los estados iniciales de dicha contracción, así cómo incluso ya avanzada ésta y gracias a la tecnología que pudieran desarrollar para adaptarse a las condiciones existentes por entonces, dichos seres vivos no serían muy distintos a nosotros -al menos en el sentido de estar basados en el carbono y basar su metabolismo en reacciones químicas-), y como en el primer caso, dichas formas de vida serían radicalmente distintas a nosotros. A diferencia del escenario de la expansión eterna, el problema aquí no es la falta de energía sino su exceso. De acuerdo con John Barrow y Frank Tipler, que han estudiado en detalle lo que ocurriría en las fases finales de un universo en contracción, un hipotético ser que existiera en ésas condiciones tan extremas tendría una tasa metabólica muy acelerada y por tanto una tasa de procesado de la información (es decir, una velocidad de pensamiento) también muy elevada, que al ir aumentando la temperatura iría aumentando (todo ello siempre y cuando pudiera deshacerse del calor producido por sus procesos metabólicos). Ello tendría cómo consecuencia que el tiempo subjetivo (el tiempo desde la perspectiva de tal ser) se alargaría considerablemente, de modo que mientras para un observador externo (que no podría existir) parecería que el universo se colapsaba en una fracción de segundo, para dicho ser podría tardar en ocurrir mucho tiempo, incluso en algunos casos que jamás ocurriría bajo la condición que el colapso del universo no fuera homogéneo, sino cómo parece más probable desigual (es decir, que la velocidad de contracción fuera distinta y variara).


El Big Bang

En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de una singularidad espaciotemporal. Técnicamente, este modelo se basa en una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann- Lemaître - Robertson - Walker.

La idea central del Big Bang es que la teoría de la relatividad general puede combinarse con las observaciones de isotropía y homogeneidad a gran escala de la distribución de galaxias y los cambios de posición entre ellas, permitiendo extrapolar las condiciones del Universo antes o después en el tiempo.
Una consecuencia de todos los modelos de Big Bang es que, en el pasado, el Universo tenía una temperatura más alta y mayor densidad y, por tanto, las condiciones del Universo actual son muy diferentes de las condiciones del Universo pasado. A partir de este modelo, George Gamow en 1948 pudo predecir que debería de haber evidencias de un fenómeno que más tarde sería bautizado como radiación de fondo de microondas.

Michio Kaku ha señalado cierta paradoja en la denominación Big Bang (gran explosión): en cierto modo no puede haber sido grande ya que se produjo exactamente antes del surgimiento del espacio-tiempo, habría sido el mismo Big Bang lo que habría generado las dimensiones desde una singularidad; tampoco es exactamente una explosión en el sentido propio del término ya que no se propagó fuera de sí mismo.
Basándose en medidas de la expansión del Universo utilizando observaciones de las supernovas tipo 1a, en función de la variación de la temperatura en diferentes escalas en la radiación de fondo de microondas y en función de la correlación de las galaxias, la edad del Universo es de aproximadamente 13,7 ± 0,2 miles de millones de años. Es notable el hecho de que tres mediciones independientes sean consistentes, por lo que se consideran una fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del Universo.

El universo en sus primeros momentos estaba lleno homogénea e isótropamente de una energía muy densa y tenía una temperatura y presión concomitantes. Se expandió y se enfrió, experimentando cambios de fase análogos a la condensación del vapor o a la congelación del agua, pero relacionados con las partículas elementales.
Aproximadamente 10-35 segundos después del tiempo de Planck un cambio de fase causó que el Universo se expandiese de forma exponencial durante un período llamado inflación cósmica. Al terminar la inflación, los componentes materiales del Universo quedaron en la forma de un plasma de quarks-gluones, en donde todas las partes que lo formaban estaban en movimiento en forma relativista. Con el crecimiento en tamaño del Universo, la temperatura descendió, y debido a un cambio aún desconocido denominado bariogénesis, los quarks y los gluones se combinaron en bariones tales como el protón y el neutrón, produciendo de alguna manera la asimetría observada actualmente entre la materia y la antimateria. 

Las temperaturas aún más bajas condujeron a nuevos cambios de fase, que rompieron la simetría, así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas elementales. Más tarde, protones y neutrones se combinaron para formar los núcleos de deuterio y de helio, en un proceso llamado nucleosíntesis primordial. Al enfriarse el Universo, la materia gradualmente dejó de moverse de forma relativista y su densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados 300.000 años, los electrones y los núcleos se combinaron para formar los átomos (mayoritariamente de hidrógeno). Por eso, la radiación se desacopló de los átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo de microondas.
Al pasar el tiempo, algunas regiones ligeramente más densas de la materia casi uniformemente distribuida crecieron gravitacionalmente, haciéndose más densas, formando nubes, estrellas, galaxias y el resto de las estructuras astronómicas que actualmente se observan. Los detalles de este proceso dependen de la cantidad y tipo de materia que hay en el Universo. Los tres tipos posibles se denominan materia oscura fría, materia oscura caliente y materia bariónica. Las mejores medidas disponibles (provenientes del WMAP) muestran que la forma más común de materia en el universo es la materia oscura fría. Los otros dos tipos de materia sólo representarían el 20 por ciento de la materia del Universo.

  
Base teórica

En su forma actual, la teoría del Big Bang depende de tres suposiciones:
  1. La universalidad de las leyes de la física, en particular de la teoría de la relatividad general
  2. El principio cosmológico
  3. El principio de Copérnico

martes, 14 de febrero de 2012

HISTORIA SOBRE LOS 3 GEMELOS

Esta es la historia sobre la vida de Luis, Gonzalo y Mariano, tres gemelos nacido en 1980 en Málaga, de padres españoles. 
Desde pequeño, Luis siempre fue muy nervioso y travieso, pero tambíen social y obediente. Luis creció antes que sus hermanos, y sus padres decidieron apuntarlo al equipo de baloncesto de su barrio. Luis fue mejorando en este deporte, y mantenía buena relación con sus padres, pero los estudios cada vez le costaban más, y en cuanto obtuvo el graduado, no quiso estudiar más y se propuso llegar alto en el baloncesto. 
Debido a la cantidad de tiempo libre que tenía, Luis se pasaba muchas horas en la calle con sus amigos, y aunque siempre tuvo disciplina en el deporte, cada vez era más rebelde con sus padres debido a sus malas influencias, hasta el punto de buscarse un trabajo y marcharse de su casa para vivir de alquiler. Al pasar los años Luis comenzó su carrera profesional en EEUU, aunque se hizo muy uraño al no contactar casi nada con su familia y vivir solo. AHORA LUIS ES ALTO, FUERTE, CON DINERO, EGOISTA Y APENAS CUENTA CON SU FAMILIA.

Gonzalo, comenzó siendo un niño muy tímido y generoso, siempre estuvo rodeado de su familia y no le faltó de nada en su infancia. Conforme crecía, sus padres se fijaron en que sacaba muy buenas notas, y era respetuoso con todo el mundo, aunque tenía un carácter fuerte. Finalizó la ESO y comenzó a estudiar un bachillerato, y en selectividad sacó con creces la nota necesaría para estudiar la carrera de económicas. Comenzó a salir con una muchacha bastante agradable que estudiaba con él, y al pasar los años y terminar la carrera se casó y se independizó con 26 años, aunque siempre cuidando el contacto con sus padres y su hermano Mariano (los visitaba mucho). Hizo varios másters fuera de España aunque esto le hizo descuidar bastante su físico. Con 30 años Gonzalo era director de una de las empresas más fuertes de Londres, y metió a sus hijos en un prestigioso colegio mientras vivía en Inglaterra con su mujer.
GONZALO ES MILLONARIO, FAMILIAR, GRUESO Y AMBICIOSO
Mariano es el más mayor de sus hermanos, siempre fue un niño muy corriente en todo, en lo social y en lo académico. Al abandonar el instituto, Mariano sólo pensaba en trabajar con su padre en su frutería y justo cuando se sacó el graduado se iba cada mañana con él y por la tarde ayudaba a su madre con sus hermano pequeños. Cuando ya crecieron Mariano se hartó de trabajar y comenzó a coquetear con las drogas, pero sus padres sospecharon tarde y lo ingresaron en un centro de desintoxicación. Una vez de vuelta a casa se encontró a sus hermanos crecidos, y era demasiado mayor apra conseguir un trabajo, así que ahora VIVE CON SUS PADRES, NO TIENE TRABAJO, NO TIENE PAREJA NI HIJOS Y APENAS ESTUDIOS.