lunes, 28 de febrero de 2011

Materiales del futuro III: Nanofluidos como líquidos refrigerantes.

La nanotecnología ha revolucionado el mundo de la ciencia en los últimos años. En sí, la nanotecnología es la ciencia que permite estudiar la materia a nivel atómico y molecular. A un nivel tan pequeño la materia se puede manipular de formas insospechadas, creando materiales con propiedades asombrosas.. Estas tecnologías son populares en la industria farmacéutica, la cosmética, la alimentaria, la medicina, la agricultura, la aeronáutica, la automotriz...



En la medicina, por ejemplo, la nanotecnología es puntera en las investigaciones del trato de las células cancerígenas o en sistemas de transporte de medicamentos en la sangre de formas muy precisas. Para hacernos una idea de los usos más  cotidianos de las nanopartículas, las podemos encontrar en cremas solares, haciendo que estas no queden tan visibles en la piel, o en las pelotas de tenis Wilson, que llevan una capa de nanopartículas de arcilla que las hacen más resistentes y que hacen que el aire no pueda escapar de su interior tan fácilmente.

Los descubrimientos de las nanopartículas y sus propiedades no dejan de sorprender a la comunidad científica, ya que al ser una ciencia tan nueva, todavía presenta muchas dudas y curiosidades.

Nanohex: nanofluidos y ventajas térmicas


Nanohex es un proyecto que involucra a 12 organizaciones de 6 países diferentes. Entre ellos encontramos ENEA, en Casaccia, a 25 kilómetros al norte de Roma. Este centro de investigación cuenta con unas instalaciones que se extienden a lo largo de 90 hectáreas, y con más de 1.400 trabajadores.

El proyecto Nanohex, pretende desarrollar nanofluidos como líquidos refrigerantes para su aplicación industrial. Las nanopartículas han demostrado que tienen propiedades térmicas de difusión muy buenas, haciendo que los líquidos refrigerantes mejoren sus propiedades, ya que dispersan el calor más rápido, mejor y de una manera más eficiente.

El proyecto comenzó en 2009 y se prevé que se alargue hasta 2011. En el centro que ENEA tiene en Casaccia hay dos unidades involucradas: el laboratorio de espectroscopía láser en materiales funcionales y el laboratorio de termofluidodinámica aplicada a los sistemas energéticos.

Mauro Falconieri es el jefe del laboratorio de espectroscopía láser y materiales funcionales. La espectroscopía láser estudia como los materiales reaccionan cuando se produce un cambio de energía en su interior: a través de la señal que estos emiten al ser excitados con el láser se pueden estudiar múltiples características. Este es el método que escogió Mauro en su misión dentro del proyecto Nanohex.

Flaminia Rondino, estudiante de post-doctorado, también forma parte de este proyecto. Su misión es estudiar las propiedades térmicas y dispersivas de las nanopartículas de titanio, para así conseguir el nanofluido con mejores cualidades. En un futuro también tienen intención de estudiar las de silicio. En Frascatti, ENEA tiene otras instalaciones donde se encargan de producir las muestras de nanopartículas. Pero su estudio mediante la espectroscopía láser es todo un proceso, sólo para que los láseres mediante los que se hará el experimento estén perfectamente alineados se pueden necesitar semanas de preparación.

El otro departamento en Casaccia, el laboratorio de termofluidodinámica aplicada a sistemas energéticos, estudia las propiedades de estos nanofluidos comparados a tiempo real con otros refrigerantes comunes en el uso industrial como el agua. Al compararlos a tiempo real y en mismas condiciones, pueden averiguar que ventajas supone el nanofluido respecto al agua en cuanto a sus propiedades térmicas pero también en las propiedades corrosivas, otro aspecto que se tiene que tener en cuenta ya que tiene es muy importante de cara a la aplicación industrial.



Nanohex y sus propósitos

Para que un proyecto como este funcione tiene que haber industrias involucradas, que el que se implique en el consumidor final. Y éste es el caso de Nanohex, cuyos dos mayores objetivos públicos involucrados son Thermacore Europe, que es el mayor proveedor de líquidos refrigerantes para centros de datos, y Siemens, que lo quiere aplicar en la tecnología electrónica de los trenes.


Dispositivo de estudio del agua y los nanofluidos como refrigerantes a tiempo real y en las mismas condiciones.

El uso de nanofludios por parte de las empresas puede suponer muchas ventajas: los nanofluidos, al ser más eficientes tienen mejor conductividad y propiedades térmicas pueden suponer una mejora en lo que supone al ahorro energético. También hay que tener en cuenta la reducción de espacio que se gana al no tener que usar tantas cantidades de líquido, algo muy interesante para la industria aeroespacial. También hay que tener en cuenta la reducción en las emisiones de dióxido de carbono.


Fuente
tendencias21.net

mundociencia.portalmundos.com

Leandro Mesas

viernes, 25 de febrero de 2011

Tecnologías para el futuro III: simuladores cuánticos

Primero, hablaremos de lo que es la física cuántica.
Coloquialmente, la física cuántica es la rama de la física que estudia las cosas muy pequeñas, como las partículas subatómicas. De forma general, se suele decir que la física cuántica estudia las cosas muy pequeñas, la mecánica clásica las cosas "normales", y la relatividad las cosas muy grandes, del orden de estrellas, planetas y galaxias.
La física cuántica se desarrolló a principios del siglo XX, cuando la teoría electromagnética clásica se volvió del todo insuficiente para explicar las emisiones de radiación de los objetos en equilibrio (radiación térmica), lo que fue solucionado por Plank al considerar la cuantización de la energía (la energía no se puede transmitir con cualquier valor, sino sólo con múltiplos enteros de un determinado valor, el de la constante de Plank) y perfeccionado por el archiconocido Einstein en su teoría del efecto fotoeléctrico, que le valió el Premio Nobel de Física de 1921. La física cuántica se completa con la propuesta de De Broglie, que afirma que cada partícula en movimiento tiene asociada una onda (dualidad onda-corpúsculo), cuya longitud es inversamente proporcional a la masa de la partícula, y que depende de su velocidad. Erwin Schrödinger fue el que perfeccionó este principio, formulando una ecuación de movimiento para estas "ondas de materia", que fue comprobada empíricamente. También es muy importante el principio de incertidumbre de Heisenberg, que afirma que no se puede conocer con total precisión y simultáneamente la posición y el momento lineal (masa y velocidad) de una partícula. Esto es responsable de que la física cuántica trabaje con probabilidades (los conocidos orbitales atómicos, zonas con alta probabilidad de encontrar un electrón, en lugar de las órbitas electrónicas definidas contempladas en la mecánica cuántica).

Orbitales p, los segundos orbitales atómicos en cuanto a energía. Los otros orbitales son los s (menor energía), los d y los f (mayor energía)

La física cuántica es responsable de avances en campos como la electrónica (transistores, microprocesadores, ...) en la física de materiales (semiconductores y superconductores), medicina (cirugía láser, exploración radiológica, ...) y muchas otras áreas del conocimiento.
La dificultad del estudio de la cuántica radica en que las partículas que estudia son de tamaño infinitesimal, por lo que las observaciones y mediciones son enormemente complicadas de realizar. Con el fin de facilitar el estudio de las partículas subatómicas, un equipo de expertos ha desarrollado un "simulador cuántico", una máquina capaz de funcionar según las leyes de la física cuántica (recordemos que los objetos de tamaño normal se comportan según las leyes de la mecánica clásica).

Simulador cuántico

Recientemente, científicos del Instituto de Física Experimental y Física Teórica de Innsbruck, Austria, en colaboración con investigadores del Instituto de Óptica Cuántica e Información Cuántica (IQOQI) han logrado otro avance al respecto. Han desarrollado un mecanismo que servirá para crear simuladores cuánticos de sistema abierto, esto es, simuladores capaces de interactuar con el entorno. Estos simuladores aprovechan un efecto que normalmente se intenta evitar en el uso de máquinas cuánticas: las perturbaciones ambientales. Estas perturbaciones suelen causar que la información en los sistemas cuánticos se pierda, pero este equipo ha conseguido controlar las perturbaciones, consiguiendo intensificar los efectos cuánticos y, al mismo tiempo, que el sistema pueda interactuar con el entorno.
Quizás este sea el paso que nos ayude a comprender mejor nuestro Universo. Los físicos han intentado larga e infructuosamente unificar las teorías de la física cuántica y la relatividad para conseguir la "teoría del todo", desarrollando teorías como la Teoría Unificada de Campos o la Teoría M. De momento no lo han conseguido, pero un mayor dominio de la mecánica cuántica puede ayudarnos en nuestro propósito.

Fuentes:
es.wikipedia.org
www.tendencias21.net
www.ojocientifico.com

Manu Gutiérrez

martes, 22 de febrero de 2011

Tecnologías para el futuro II: nueva técnica para realizar proyecciones en lugares luminosos

Un proyector de vídeo es un aparato capaz de recibir una señal de vídeo y proyectar su imagen en una pantalla de proyección utilizando un sistema de lentes que permiten la visualización de imágenes.

Los proyectores de vídeo son mayoritariamente usados en salas de presentaciones o conferencias, en aulas, aunque también se pueden encontrar aplicaciones para cine en casa. Cuando es así, los lugares deben encontrarse a oscuras para aumentar la visibilidad de las imágenes ofrecidas por este aparato. Desafortunadamente, desde hace tiempo, el hecho de estar a oscuras empezó a presentar varias cuestiones. La más destacada por los que suelen utilizarlo frecuentemente es la incompatibilidad que presenta con sitios iluminados y que causa el agotamiento del público.

Un grupo de expertos del Instituto Fraunhofer de Circuitos Integrados presentó una alternativa de cañón que promete terminar con el agotamiento de los espectadores.

Con la ayuda de la nanotecnología los investigadores desarrollaron un cubo luminoso que proyecta imágenes tan nítidas y fuertes que serán capaces de observarse hasta en una habitación llena de sol.

El cubo luminoso es el prototipo del nuevo proyector. Crédito: Instituto Fraunhofer IOF



El cubo luminoso es el prototipo del nuevo proyector. Crédito: Instituto Fraunhofer IOF


Esta revolucionaria técnica permitirá ponerle fin al apagado de luz para cuando se realicen largas proyecciones. De esta manera, al parecer, los proyectores del futuro no serán solamente compactos, pequeños y fáciles de manipular, también contarán con colores de alta definición. Todo gracias a la microtecnología.

Lo noveodoso de esta tecnología de proyección es que la imagen ya está integrada en la microóptica. Los píxeles, que miden alrededor de cien nanómetros, se almacenan en una capa de cromo en la lente. Los microarrays tiene alrededor de 250 microlentes y debajo de cada lente hay una microimagen. Cuando todos ellos se proyectan en la pared en conjunto, se origina una imagen completa de alta calidad.

El nuevo proyector está compuesto por un sistema óptico de sólo once milímetros cuadrados y tres milímetros de espesor, a través del cual resplandece una intensa lámpara de diodos emisores de luz. Las imágenes son increíblemente fuertes y los colores sumamente brillantes. A demás de los proyectores de video, este avance también tiene el potencial suficiente como para ser incluido de manera satisfactoria en las cámaras digitales.


Fuente:

tendencias21.net
jovenclub.cu


Leandro Mesas

martes, 15 de febrero de 2011

El colisionador de partículas "Tevatron" será desactivado

Recientemente, los responsables del colisionador de partículas "Tevatron", que se encuentra en el Fermilab (Batavia, Illinois, USA) han anunciado que será desactivado en septiembre de 2011, a pesar de que los científicos recomendaron mantenerlo activo hasta 2014 (no pudo hacerse por problemas presupuestarios). El colisionador se encontraba en la carrera para encontrar al conocido "bosón de Higgs", una partícula subatómica que se supone que es la que otorga masa a la materia, en competencia con el famoso LHC, el Gran Colisionador de Hadrones del CERN, en Ginebra.

 Fermilab, el centro de investigación donde se encuentra el Tevatron

El Tevatron es un acelerador circular, que acelera protones y antiprotones hasta energías de 1 teraelectrónvoltio, de donde procede su nombre. Su circunferencia mide 6,3km, y su construcción costó 120 millones de dólares. Además ha sido sometido a actualizaciones frecuentes, como la adición del inyector principal, que costó 290 millones de dólares. Entre los mayores méritos del Tevatron se encuentran el descubrimiento del quark "cima" (1995) y del neutrino tauónico (2000). Además, en 2007 midieron la energía del quark "top" con una precisión del 1%.

Vista aérea del Tevatron. La circunferencia principal mide 6,3km

Imagen de la trayectoria de ciertas partículas tras un choque en el Tevatron

Las ventajas del LHC sobre el Tevatron se centran, principalmente, en la energía, ya que el LHC supera con creces el teraelectrónvoltio. Sin embargo, los responsables del Tevatron, entre ellos el famoso doctor Robert Brinkman, sostienen que podría encontrar por sí solo el bosón de Higgs para finales de 2012 . Sin embargo, sin obtener una ampliación del presupuesto del Fermilab, se han visto obligados a prescindir del Tevatron para beneficiar otros proyectos, como la determinación de las propiedades de los neutrinos, dejando la búsqueda del Higgs para los europeos del CERN.

Componente del Tevatron

Fuentes:
www.ojocientifico.com
es.wikipedia.org

Manu Gutiérrez

miércoles, 9 de febrero de 2011

Betelgeuse o el segundo Sol de la Tierra

Antes de nada, una breve introducción.
Las estrellas atraviesan distintas fases a lo largo de su vida, periodos muy largos a nuestros ojos (de varios millones de años), aunque no tan largos en términos astronómicos. Estas fases dependen, entre otros factores, de la masa de la estrella. Esta masa está comprendida entre 0.08 y 200 veces la masa del Sol. Por debajo de 0.08M (M = masa solar) hablaríamos de una enana marrón, mientras que no se conoce ninguna estrella por encima de 200M, debido a lo que se conoce como "límite de Eddington".
La primera fase de la vida de una estrella es la "protoestrella": en el seno de una nebulosa, la materia (principalmente hidrógeno, el elemento más ligero del universo) se agrupa por acción de la gravedad, comprimiéndose en torno a un núcleo y, por tanto, aumentando su temperatura. Cuando se alcanza una temperatura crítica, se inicia la fusión nuclear del hidrógeno (la estrella se "enciende"), formándose helio y desprendiéndose una enorme cantidad de energía. Esta sería la segunda y más larga fase de la vida de una estrella. Durante esta etapa, la fuerza gravitatoria tiende a comprimir la estrella y una fuerza resultante de la fusión nuclear equilibra la balanza, permaneciendo la estrella en equilibrio.
Cuando se agota el hidrógeno es cuando entra en juego la masa de la estrella. Las estrellas se convierten en gigantes rojas, tanto mayores cuanto mayor sea su masa. Y este es el caso de Betelgeuse, una supergigante roja, que es la que nos ocupa en esta entrada. (Algún día profundizaremos en las etapas de vida finales de una estrella, la formación de cuásares y agujeros negros, ...)

 Betelgeuse, gigante roja del brazo de Orión

Betelgeuse es una supergigante roja perteneciente a nuestra galaxia, localizada en el brazo de Orión (recordemos que la Vía Láctea es una galaxia espiral). También conocida como α Orionis o HIP 27989, tiene una temperatura superficial de unos 3000 grados Kelvin, y fue descubierta por sir John Herschel en 1836. Es una de las estrellas más brillantes de Orión, y la más brillante si nos centramos en el espectro rojo-infrarrojo. Su tamaño es tal que, si la colocásemos en la posición del Sol, su radio alcanzaría hasta Júpiter.
Las supergigantes rojas se caracterizan por fusionar elementos pesados en su núcleo. Una vez han consumido el helio resultante de su primera etapa de vida, que fusionan para formar carbono, siguen avanzando por la tabla periódica para llegar al hierro, Fe. La fusión nuclear que da lugar al hierro, a diferencia de las demás, es endotérmica, esto es, necesita más energía para producirse de la que se desprende. Por tanto, en el núcleo de la estrella se acumula hierro, que solidifica a causa de la fuerza gravitatoria. Cuando la energía resultante de la fusión nuclear no puede mantener a la estrella, las capas gaseosas externas colapsan debido a la atracción gravitatoria del núcleo de hierro, chocando violentamente contra éste, y produciéndose una explosión violentísima, en la que se generan los elementos de masa atómica superior a la del Fe. Esto es lo que se llama una supernova, y se trata del proceso más energético del universo.

Supernova


Recientemente, astrónomos de reconocida fama han afirmado que la estrella Betelgeuse está a punto de colapsar. A punto en términos astronómicos, lo que significa que en el próximo millón de años podría producirse la supernova (que tardaríamos 640 años en ver, lo que tardaría la luz en llegar hasta la Tierra). Gracias a esto, y durante algunas semanas, la Tierra tendrá dos soles, y la noche será indistinguible del día durante todo ese tiempo. No es la primera vez que esto ocurre, ya que, en el año 185 de nuestra era, astrónomos chinos observaron una supernova a 8200 años luz de la Tierra, supernova que también fue avistada por los astrónomos romanos, y que fue verificada por astrónomos modernos al localizarse los restos de la estrella.

 La supernova es el proceso más energético del Universo

De ser cierto, sería un acontecimiento extraordinario, que difícilmente podría presenciar la Tierra en otra ocasión.

Fuentes:
www.ojocientifico.com
es.wikipedia.org

Manu Gutiérrez

martes, 8 de febrero de 2011

Se descubre un sistema planetario parecido al solar

Los investigadores de la Universidad de California han descubierto, a través de la misión Kepler de la NASA, un sistema planetario compuesto por seis planetas que orbitan alrededor de una estrella parecida al Sol bautizada como "Kepler-11".


Según información de la NASA, este sistema contiene planetas de un tamaño parecido a la Tierra y entre ellos los primeros se encuentran orbitando en la denominada zona habitable, una región a una distancia de una estrella suficiente como para que pueda haber agua líquida en su superficie.

Los cinco planetas interiores del sistema Kepler-11 poseen entre 2,3 y 13,5 veces la masa de la Tierra. Sus periodos orbitales son de menos de 50 días. El sexto planeta es mayor y está más alejado, con un periodo orbital de 118 días y una masa que todavía no se conoce.

Como explicó el director del trabajo, los planetas más masivos son posiblemente como Neptuno y Urano pero los tres con menos masa son distintos a los existentes en el Sistema Solar.

El telescopio Kepler y otros similares han detectado más de 100 planetas en tránsito pero la gran mayoría de ellos son gigantes de gas similares a Júpiter y casi todos pertenecen a sistemas de un único planeta.


Antes de esto los astrónomos habían determinado tanto el tamaño como la masa de los mas pequeños que Neptuno. Ahora, un único sistema planetario ha añadido cinco más. El sexto planeta en Kepler-11 está lo suficientemente separado de los otros que el método empleado en el resto de planetas sólo puede determinar su masa. Como en el caso del Sistema Solar, todos los planetas de Kepler-11 orbitan más o menos en el mismo plano.

Este descubrimiento refuerza la idea de que los planetas se forman en discos aplanados de gas y polvo que giran alrededor de una estrella y el patrón de disco se mantiene después de que los planetas se hayan formado.

La importancia del descubrimiento viene dada porque un sistema de seis planetas permite a los investigadores realizar comparaciones entre ellos además de comparaciones con nuestro sistema.

Las densidades de los planetas proporcionan pistas sobre sus composiciones. Los seis planetas tienen densidades inferiores a la de la Tierra. "Parece que los dos más interiores podrían ser principalmente agua, con posiblemente una fina capa de gas de hidrógeno-helio en la superficie, como mini-Neptunos". Los que están más alejados tienen densidades menores a la del agua, que parecen indicar atmósferas de hidrógeno-helio. Esto sorprende a los investigadores porque un pequeño planeta caliente tendría difícil mantener una atmósfera ligera. "Estos planetas son muy calientes por sus órbitas cercanas y cuanto más caliente son más gravedad necesitan para mantener la atmósfera".


Recreación artística del sistema Kepler 11


Los planetas más interiores están tan juntos que parecen improbable que se formaran donde se encuentran ahora. "Al menos algunos debieron formarse más lejos y migrar hacia el interior. Si un planeta se integra en un disco de gas, con el tiempo las fuerzas de arrastre lo conducen hacia el interior. Por lo que la formación y migración tuvieron que suceder mucho antes".


Fuente:

Europapress.es

abc.es

Leandro Mesas