Archivo del sitio

El Gato de Schrödinger

Hoy he recibido un whatsapp preguntándome si había visto una película llamada “Coherence”. La verdad es que no la he visto, ni sabía de su existencia, algo que no es nada anormal, desde hace un tiempo tengo una gran desconexión tanto filmográfica como literaria. Lo que había llevado a la persona que me envió el mensaje a hablarme de la película era que durante algún tiempo en mi estado de Whatsapp e incluso en mi foto había alusiones al Gato de Schrödinger.

A veces tengo esta frase en mi estado simplemente porque me hace gracia.

“Schrödinger se ha deshecho de las cajas en su desván A 5 gatos les gusta su estado…”

Lo mismo me ocurre con la foto del Gato de Schrödinger enfurecido al salir de la caja (vivo)  y sobre todo para los lunes tormentosos o fin de vacaciones me viene al pelo.

gato de schodinger

El caso es que parece ser, aún no la he visto, que esa película tiene que ver con el experimento de Schrödinger.

¿Y en qué consiste el experimento de Schrödinger? Uffff, pues básicamente que en una noche sin coche, mezclando gin tonics, Jägermeister y absenta, sin esperar al día siguiente, te pones a elucubrar y aparecen imágenes de dualidad onda partícula, superposición, doble estado y alguna idea más de ese tipo que al pensarla sereno te entra un dolor de cabeza que no se va ni con ración doble de Ibuprofeno.

Negro sobre blanco, e intentando mucho resumir, aunque resumiendo es aún menos digerible, es un experimento imaginario (hay varias versiones) en el que un lindo gatito es introducido en una caja sellada. Para poner algo de emoción en la caja también introducimos una botella de veneno y un interruptor que se activa por una partícula radiactiva que tiene un 50% de probabilidades de desintegrarse en un tiempo determinado. Si la partícula se desintegra el interruptor acciona un martillo que rompe la botella y el gas venenoso se libera. Si no se desintegra el interruptor no actúa y el gas venenoso se queda dentro de su recipiente. Así en teoría hay un 50% de probabilidades de que el gato muera o sobreviva. Pero según la mecánica cuántica por la superposición de estados el gato, mientras que no abramos la caja, estará en los dos estados vivo y muerto. Sólo al abrir la caja y en ese momento interactuemos con él sabremos si está en un estado o en otro.

El gato evidentemente no es una partícula subatómica y esto suena a cuento, quizá el experimento sea tan complejo de entender por ese motivo, nuestra realidad macroscópica no se adapta en la mecánica cuántica (Higgs te necesito…). La mecánica Newtoniana se adapta más a nuestra razón, a nuestra percepción del mundo. Pero para entender el modelo estándar hay que unir más piezas del rompecabezas y no dejar engañarnos por lo que vemos, mejor nos dejamos “engañar” o “asombrar” por esos locos visionarios que son capaces de abstraerse y ver más allá de lo perceptible.

En cualquier caso he visto un vídeo que puede ayudar a entender este juego de nigromantes y que me gustaría compartir.

 

 

Anuncios

Volcanes y tráfico aéreo

La erupción de un volcán situado bajo el glaciar Eyjafjalla, al sur de Islandia, ha producido una nube de ceniza y polvo que  ha alterado el tráfico aéreo de gran parte del norte de Europa y ha obligado a cancelar miles de vuelos en todo el continente. Reino Unido, Noruega, Dinamarca y Bélgica han cerrado su espacio aéreo, Los vuelos también se encuentran afectados en Holanda, Suecia, Irlanda, Finlandia y Polonia a causa de la nube de cenizas, que continuará extendiéndose en las próximas horas y obligará al cierre de otros aeropuertos de Europa occidental y central como los del norte de Francia. En España también se han cancelado numerosos vuelos con destino norte de Europa.

En la siguiente imagen se ve la evolución de la nube de cenizas :

La noticia me ha interesado y ha hecho que recuerde ciertos conocimientos acerca de los motores de reacción, qué tiempos aquellos cuando tenía que estudiar sus componentes, realizar cálculos sobre sus características, condiciones de trabajo, geometría…. TODO ABSOLUTAMENTE OLVIDADO, COMO SI NO LO HUBIERA ESTUDIADO NUNCA. Así que he vuelto la vista atrás, en su sentido más estricto, he tomado de mi estantería uno de los libros que aún conservo de ese período (“Motores de reacción” de Martín Cuesta Álvarez), ahora también me pregunto dónde estarán mis apuntes, supongo que más que reciclados; y he intentado recordar que es un turborreactor y como funciona, así como el efecto que puede tener el polvo volcánico en las aeronaves (así las llamaban en vez de aviones o cacharros que vuelan).

Bueno a ver si soy capaz de no liarme mucho, empecemos por el origen del problema: la ceniza volcánica esta compuesta mayoritariamente por restos vítreos, las presiones y el calor a la que es sometida la roca en el volcán y durante la erupción producen cristales muy duros,  y roca pulverizada, muy abrasiva compuesta fundamentalmente por materiales silicios. La temperatura de fusión de estos materiales se encuentra en torno a los 1100 ºC. Esta temperatura está por debajo de las temperaturas de operación de los motores a reacción con empujes a valores de crucero (aprox. 1500 ºC), velocidad de vuelo normal; y está acompañada de soluciones gaseosas de dióxido de sulfuro (que por hidratación y oxidación se convierten en ácido sulfúrico) y cloro (ácido clorhídrico) con lo que también tenemos pérdida de oxígeno para la combustión.

La amenaza mas seria a los aviones de transporte a reacción es el efecto dañino que la ceniza volcánica tiene en los motores; Por otra parte esmerila los vidrios de cabina, la estructura y a las superficies de vuelo; atasca el sistema estático de la sonda de Pitot; penetra en los sistemas de aire acondicionado y de enfriamiento de equipos; contamina a las unidades de aviónica y eléctricas, y los sistemas hidráulicos, de combustible y de detección de humos de las bodegas de carga.

Los primeros dos o tres días posteriores a una erupción volcánica son especialmente críticos porque se pueden encontrar altas concentraciones de cenizas conteniendo partículas de hasta 10 micrones de diámetro aproximadamente. A partir del tercer día, se asume que si la ceniza es aun visible por el ojo o por datos de satélite todavía representa un peligro para las aeronaves.

Como dato y sin entrar en detalle, el funcionamiento básico de un turborreactor consiste en absorber aire por el orificio de entrada mediante un compresor (Los alabes que se pueden ver en las entradas de los motores a reacción) que lo comprime e impulsa hasta la cámara o cámaras de combustión donde se le inyecta el combustible en forma atomizada que da lugar a una combustión que eleva la temperatura del gas formado. Esta mezcla de aire y gas caliente pasan a través de una turbina  a la que le imprimen una rotación la cual transmite al compresor mediante un eje central. Entonces los gases calientes comienzan su expansión saliendo por la tobera dando lugar a un empuje por el principio de acción-reacción.

Hay básicamente 3 efectos que contribuyen al daño general del motor.

A.- El primero y más crítico deriva del punto de fusión de la ceniza volcánica, que puede fundirse y depositarse en las zonas calientes del motor a reacción, tales como los alabes de turbinas y vanos de alta presión de las salidas de toberas. Esto reduce drásticamente el área de garganta de entrada de la turbina de alta presión, causando el incremento de la presión estática del quemador y de la presión de descarga del compresor, que puede causar la parada del motor. El efecto puede por si solo causar una pérdida de empuje inmediata y posibles llamaradas en el motor.  Antiguamente se pedía a los pilotos que aumentasen la potencia del motor para salir de la zona de gases, hoy en día se sabe que es mejor disminuir la potencia para que la temperatura del motor caiga a  valores que impida la fusión de las partículas volcánicas, interesa tener los motores a temperatura suficiente para permitir el vuelo (empuje neutro) pero que no sobrepase los 600-800 ºC.

Si se produce la caida de potencia por que se ha acumulado ceniza volcáinica fundida en los vanos de las toberas lo mejor es apagar los motores y dejar que se enfríen los elementos depositados, que se vuelven muy quebradizos a temperatura ambiente y se desprenden fácilmente. Al reencender los motores los repentinos esfuerzos térmicos y de presión del chorro de aire durante el proceso de reencendido junto al enfriamiento depósito de ceniza cuando el motor es reducido a mínima potencia suelen quitar la mayor parte del material depositado.

B.- En segundo término, el poder abrasivo de la ceniza volcánica también erosiona las guías y extremos de alabes del rotor del compresor fundamentalmente en la etapa de alta presión, causando la perdida de la eficiencia de la turbina de alta presión y del empuje del motor.

Los principales factores que afectan a la extensión de la erosión en los alabes del compresor son la dureza de la ceniza volcánica, su concentración, el tamaño de las partículas, la velocidad de impacto, la configuración de empuje y la protección del núcleo del motor. Esto requiere más tiempo en contacto  con la nube para que pare el motor. El problema es que los daños suelen ser permanentes e irreversibles.

C.- En tercer lugar, la ceniza volcánica puede taponar parte de los sistemas de combustible y de enfriamiento, pueden incluso taponar los generadores de flujo que atomizan el combustible.

Por todo ello y con la experiencia de incidentes por estas causas en el pasado, se han tomado las medidas de seguridad que ya conocemos, cancelación de vuelos y el seguimiento estricto de los protocolos internacionales de actuación cuando se dan estás situaciones.

ACTUALIZACIÓN A 09-05-2010

Fórmula 1 y aerodinámica

Este fin de semana se ha iniciado el campeonato de Fórmula 1 2010. Cada vez los monoplazas son más sofisticados, sobretodo en el diseño, tienen unas líneas casi perfectas y una cantidad importante de elementos aerodinámicos. La explicación es que los equipos buscan la eficiencia energética, el mejorar los monoplazas mediante la aerodinámica. Una vez congelado el desarrollo de motores en la Fórmula 1, en principio hasta el 2013, la aerodinámica es la pieza clave en la efectividad de los coches de carreras actuales. No sólo es un método para poder ir más rápido en las rectas, que también, si no que es fundamental tanto en el paso por las curvas como en el frenado. Con la velocidad de los vehículos actuales es necesario aumentar la estabilidad y el agarre, con el mínimo perjuicio para la rapidez.

Para contrarrestar el problema de la sustentación, los coches de fórmula 1 están diseñados para producir sustentación negativa. Esto significa que al monoplaza se le agregan algunos dispositivos que causan que el coche presione contra el suelo y se mantenga más cerca de él. Estos dispositivos neutralizan la sustentación producida por el vehículo o crean de hecho sustentación negativa (fuerza que apunta hacia abajo).

Necesitamos conocer unos conceptos básicos de aerodinámica para entender como funciona un Fórmula 1

Se denomina aerodinámica a la ciencia del manejo de las corrientes de aire, aplicada a los coches de carreras para añadir adherencia o agarre a los mismos, con el objeto de lograr mayor velocidad y seguridad al piloto. Hay varios métodos que se utilizan para reducir la sustentación o para crear fuerza hacia abajo. Estos métodos incluyen interceptores aerodinámicos (spoilers) y efectos de tierra.

Los alerones delanteros y el trasero aumentan el apoyo aerodinámico y, por lo tanto, la velocidad en las curvas. Los mismos se ajustan a las características de cada circuito. En los circuitos rápidos, con largas rectas y pocas curvas, las alas son casi horizontales para reducir el apoyo aerodinámico y la resistencia al avance (se incrementa la velocidad máxima) en las rectas. En circuitos lentos, con pocas rectas y muchas curvas, las alas tienen mucha más inclinación, pues se sacrifica la velocidad máxima en función del agarre (y con él la velocidad) en las curvas, debido al aumento del apoyo aerodinámico

Se utilizan alas como las de un avión común y corriente en los monoplazas de Fórmula 1. Sin embargo, las alas se invierten (se colocan con la parte de arriba hacia abajo) para producir una fuerza hacia abajo en lugar de sustentación hacia arriba. Al instalar las alas cerca del suelo, se pueden producir cantidades más grandes de esta fuerza que apunta hacia abajo. Esto se debe al aumento de la velocidad del flujo entre el ala y el suelo. El aumento en la velocidad del flujo causa que la presión en la superficie inferior del ala disminuya, y que, por consiguiente, la fuerza hacia abajo aumente.

Otro de los dispositivos que se utilizan es el conocido como “strake”. Estos dispositivos se usan comúnmente en los aviones de alto rendimiento. En un avión, el “strake” produce sustentación. En un auto de carreras, la mayoría de las veces el “strake” es utilizado en combinación con una ala montada en la parte de atrás para aumentar la fuerza hacia abajo en la parte posterior del monoplaza.

Otro elemento son los canales debajo del chasis. Estos canales se extienden de la parte de enfrente a la parte de atrás. Conforme la velocidad del aire que corre a través de los canales aumenta, la presión disminuye. Si se permite que entre aire de los lados, se forma un vórtice muy fuerte. Este vórtice ayuda a estabilizar el flujo que corre por debajo de todo el vehículo. De esta forma, estos canales aumentan la fuerza hacia abajo y disminuyen la resistencia del aire del vehículo.

La fuerza hacia abajo tiene que estar bien distribuida entre la parte delantera y la parte trasera del coche. Si el monoplaza tuviera una carga más grande en la parte de enfrente que en la parte de atrás, no sería estable. Cuando la parte trasera tiene una carga más grande, el coche se estabiliza. El balance no deja de ser importante, porque si el monoplaza es demasiado estable, resulta difícil girar

Para los prototipos de carreras, el uso de un ala delantera crea diferentes problemas. El ala puede hacer que el flujo de aire se desvíe por encima del coche y se aleje de los canales de la parte de abajo del monoplaza. La fuerza hacia abajo en el eje trasero se reduce. Usando una superficie superior cóncava, los efectos de un ala delantera se pueden simular  sin tener que desviar el flujo de la parte de abajo del coche. Esto puede mejorar la distribución de la fuerza hacia abajo entre el eje delantero y el eje trasero.

Las llantas también crean resistencia aerodinámica en los coches que tienen las ruedas descubiertas. Esto se debe a la separación del flujo de aire detrás de los neumáticos. Se han utilizado varios artificios para tratar de disminuir esta resistencia. Generalmente se utiliza una simple placa para desviar el aire alrededor de la llanta, reduciendo así la separación del flujo.

Desde el punto de vista del espectador, un coche se puede considerar al menos como en  3 partes: el alerón delantero, la carrocería del coche y el alerón trasero. Cada una de las partes puede ser optimizada para la carga aerodinámica necesaria con un mínimo de resistencia. Sin embargo, cada componente tiene su influencia en el comportamiento del coche y no puede ser considerado como un componente individual. Como resultado de ello, ningún elemento se prueba individualmente, siempre se tiene un modelo a escala completa del monoplaza

Debido a que un coche de carreras completo es un sistema muy complejo, los equipos de ingenieros suelen evolucionar los coches, paso a paso. Se desarrolla  un elemento en particular y se comprueba su efecto en el monoplaza. Tal efecto total se puede calcular con la “Ley de Amdahl”. Establece que “la mejora obtenida en el rendimiento de un sistema debido a la alteración de uno de sus componentes está limitada por la fracción de tiempo que se utiliza dicho componente”.

f es la fracción de tiempo del sistema (cuando en esta fracción genera 5% de la resistencia del coche, a continuación, f es de 0,05) que pueden ser mejorados, Sf es el factor de mejora en esta fracción (división de la resistencia en Newtons y la fuerza de arrastre nueva después de la mejora de ese elemento), y la Seff es la mejora general que se logrará.

Después de verificar su mejora, la eficiencia del coche está determinada y, a continuación simulada en diferentes pistas para ver en donde es útil. Que la utilidad es siempre el resultado de una reducción de resistencia o un aumento de la carga aerodinámica.

Fuerza de rozamiento y coeficiente aerodinámico

La fuerza de  rozamiento es la fuerza aerodinámica que es opuesta a la velocidad de un objeto en movimiento a través del aire (o cualquier otro fluido). Su tamaño es proporcional a la diferencia de velocidad de entre el aire y el objeto sólido. Por lo tanto, carece de importancia si bien el aire es mueve alrededor de un objeto estático o si el objeto se mueve a una velocidad a través del aire estático.

El rozamiento viene en varias formas, siendo uno de ellos rozamiento por fricción que es el resultado de la fricción de las moléculas de sólidos en contra de las moléculas de aire en su entorno. La fricción y su resistencia dependen tanto del fluido como de las propiedades de los sólidos. Una superficie lisa del sólido, por ejemplo, produce menos fricción en la superficie frente a uno rugoso. Para el fluido, la fricción varía dependiendo  de su viscosidad y la magnitud relativa de la las fuerzas viscosas con el movimiento de la corriente, expresada como el número de Reynolds. A lo largo de una superficie sólida, el flujo de energía y la magnitud de la  fricción en la superficie depende de las condiciones de la capa límite.

Además, el rozamiento es una forma de resistencia del aire contra el sólido en movimiento. Esta forma de resistencia depende de la forma particular de un ala, tanto como de los flujos de aire alrededor de un cuerpo, la velocidad local y la presión.

El rozamiento de interferencia o la resistencia inducida por el contrario es el resultado de los vórtices que se generan por detrás del objeto sólido. Debido al cambio de dirección de aire alrededor del ala, se crea un vórtice cuando el flujo de aire encuentra sin cambios el flujo que llega recto por el otro flanco. El tamaño del vórtice, y por lo tanto su fuerza de arrastre aumenta con un ángulo de ataque cada vez mayor del ala. Como principal fuente de reducción de esta resistencia, los equipos de Fórmula Uno intentan contrarrestarla mediante la adición de placas en extremo de las alas

La cantidad de rozamiento que genera un determinado objeto en un flujo de aire se cuantifica en un coeficiente de rozamiento. Este coeficiente expresa la relación de la fuerza de rozamiento con  la fuerza producida por la presión dinámica de la zona. Por lo tanto, un Cd de 1 indica que todo el aire que fluye hacia el objeto se detuvo, mientras que un 0 teórico es corriente de aire limpio perfecta, sin rozamiento.

A velocidades relativamente altas, es decir, en el número de Reynolds (Re>1000), la fuerza de la resistencia aerodinámica se puede calcular mediante la siguiente fórmula:

Donde Fd es la fuerza de rozamiento (en Newtons), ρ la densidad del aire, v la velocidad del objeto en relación con el líquido (en m / s), A la referencia de superficie y C el coeficiente de rozamiento. El signo menos y el vector ^v  indican que la fuerza de arrastre que resulta es opuesta al movimiento del objeto.

Carga aerodinámica

El Aerofoils en el deporte del motor se denomina a menudo a los alerones, en referencia a las alas de avión. De hecho son muy similares. La evolución de la aerodinámica como es ahora se debe sobre todo al genio y a la investigación de unos pocos científicos bien conocidos. En 1686, Sir Isaac Newton presentó sus tres leyes del movimiento, uno de ellos es la conservación de la energía. Afirmó que la energía es constante en un sistema cerrado, aunque se puede convertir de un tipo a otro. Fuera de esa teoría, Daniel Bernoulli dedujo una fórmula que demostraba que la energía total en un sistema de un fluido que fluye de manera constante es también constante a lo largo de la trayectoria del flujo. Un aumento en la velocidad de fluido por lo tanto debe ir acompañada de una disminución de su presión. Sumando los tiempos de variación de la presión el área alrededor de todo el cuerpo determina la fuerza aerodinámica en el cuerpo. Para una misma altura tenemos la ecuación de Bernoulli:

Una operación de velamen se puede explicar fácilmente si se considera un ala como de flujo laminar de aire constante. Cuando el aire es un gas, sus moléculas son libres de moverse y pueden tener una velocidad diferente en distintos lugares de la corriente de aire. Para la generación de carga aerodinámica los perfiles aerodinámicos son en su mayoría diseñados con más espesor en la parte inferior, el menor flujo de aire se reduce ligeramente en la superficie, por lo tanto, se produce un aumento de la velocidad de flujo y la disminución de la presión. En la parte superior del ala, la velocidad es menor, y por lo tanto la diferencia de presión va a generar una fuerza hacia abajo sobre el ala. Además, y en línea con la tercera ley de Newton del movimiento, las alas de la carga aerodinámica no son rectas y provocan un giro nuevo de la circulación de aire. Más específicamente, la forma del ala hace que el aire tienda a ir hacia arriba y cambiar su velocidad. Tal velocidad crea una fuerza neta sobre el cuerpo.

Esto demuestra que una fuerza F provoca un cambio en la velocidad V, O también, un cambio en la velocidad genera una fuerza. Hay que tener en cuenta que la velocidad es una unidad vectorial, con una velocidad y un componente de dirección. Por lo tanto, al cambio de cualquiera de estos componentes, debe imponer una fuerza. Y si bien la velocidad o la dirección de un flujo cambian, eso genera una fuerza.

La carga aerodinámica, se explica a menudo por el “tiempo de tránsito de igualdad” o teoría del “camino más largo”, afirmando que las partículas que se separaron antes del ala se unirán detrás de ella al mismo tiempo. Eso hace que el aire en el lado más largo del ala fluya mucho más rápido, aumentando aún más el efecto de carga aerodinámica.

Si bien estas versiones simplificadas son las bases de sustentación y la generación de carga aerodinámica, la realidad no puede ser simplificada y es un estudio complejo, que requiere equipo de sistemas de alta potencia. Para un gas, tenemos que al mismo tiempo se debe conservar la masa, la inercia y la energía en el flujo. La conservación simultánea de la masa, la inercia y la energía de un fluido  se llaman Ecuaciones de Euler. Las emulaciones que se hacen vía computadora utilizan algoritmos que se basan en estas ecuaciones para hacer una aproximación de la situación real.

Debido a la complejidad, la Fórmula 1 de hoy en día los coches están diseñados con CFD (dinámica de fluidos computacional) y CAD (diseño asistido por ordenador) que permite a los ingenieros diseñar un coche e, inmediatamente, simular el flujo de aire alrededor de él, la incorporación de parámetros ambientales, como la tracción, velocidad y dirección del viento, y mucho más.

iPad

He leído la noticia de que El iPad estará por fin en el mercado estadounidense el 3 de abril, según noticias de la propia Apple, en España a final de ese mismo mes.

Apple espera vender en su país de origen 1,5 millones de estos ordenadores, aunque la consultora Gartner pronostica que las ventas en todo el mundo podrían superar los diez millones de unidades. Esto último me sorprende realmente, parece que todo lo que toca Apple o Steve Jobs se convierte en oro. La presentación del iPad en su momento fue tremendamente mediática, como todo lo que hace esa compañía. Parece que cada vez que presenta un nuevo artilugio media humanidad cree que va a ser la presentación de alguna nueva vacuna, algún medio de acabar contra el hambre, contra el cambio climático o que va a ser la panacea para acabar con todas las guerras, Steve Jobs no va a presentar nunca el Santo Gríal. Pero, he aquí que leo la noticia de que el nuevo Gadget de Apple va asalir al mercado en unos días y estoy escribiendo sobre la noticia y sobre el aparatejo en cuestión. La noticia al margen de fechas decía lo siguiente:

En la nota oficial de la compañía no se informa de cambios en el aparato anunciado por Steve Jobs en enero. Desde entonces se había especulado con que el iPad incluyera una cámara, dispositivo que se echaba en falta. Sí ha anunciado que la tableta será compatible con “casi todas” las aplicaciones del teléfono iPhone y del reproductor multimedia iPod (más de 140.000).
En palabras de Jobs, el iPad, está “a medio camino entre el teléfono y el portátil”. Es un navegador de Internet, un reproductor multimedia para escuchar música o ver vídeos y películas; una consola de videojuegos y un lector de libros electrónicos con pantalla a color. Por supuesto, táctil y en pantalla de 10 pulgadas (25,4 centímetros).
La presentación en enero tuvo disparidad de críticas. Las más escépticas vinieron del lado de la competencia, como Bill Gates (Microsoft) o Satoru Iwata (Nintendo). Ninguno de los dos mostró asombro o preocupación por el nuevo aparato. Sin embargo, los analistas prevén que la salida del iPad tendrá una inmediata repercusión en la bajada de precios de aparatos de su gama, no sólo en los libros electrónicos, sino también en los netbooks, los miniportátiles que han animado el mercado en los últimos años y que cuestan unos 250 euros.

Ahora mis reflexiones se centran en el cacharro en sí y qué va a aportar al universo tecnológico en el que estamos imbuidos. De momento es extraño pensar en cómo cambiamos un aparato pequeño y que funciona bien, como el iPod Touch por uno grande y que tiene carencias, es como cambiar los nuevos portátiles por la antiguas salas de ordenadores, inmensas, con la misma o menor capacidad de computación.

Evidentemente no tengo un iPad, creo que tampoco lo voy a tener, por lo que he podido leer no va cubrir ninguna de las posibles “necesidades” tecnológicas que me puedan surgir. Los dispositivos electrónicos al fin y al cabo, a parte de caprichitos, son herramientas que deben hacer nuestra vida un poco más sencilla, cómoda o, al menos, más divertida. No entiendo de activistas en pro o en contra de una determinada marca, seguidores fieles de una línea de trabajo o de la mercadotecnia de una compañía que sólo debería dar servicio tecnológico, no entiendo a los hooligans, ni en los deportes como el futbol ni en tecnología, que también los hay. Los seguidores de los gurús al final son los más manejables, maleables y manipulables.

Qué nos ofrece el iPad y por qué no tengo intención de comprarlo, pues según el artículo y las presentaciones de Steve Jobs, es un todo en uno. Pero realmente es un todo en uno válido? Yo creo que no, y eso es lo que me gustaría indicar.

El  iPad no me ofrece absolutamente nada nuevo que necesite y tampoco resulta un reemplazo para ninguno de los aparatos que ya tengo. El iPad no es un ordenador, ni siquiera un tablet a pesar de lo que se diga no es una herramienta adecuada para correr programas pesados, no es un eReader, aunque quiera sustituirlo ya que no tiene tecnología adecuada en la pantalla y al cabo de unos minutos acabaríamos con los ojos rojos (hasta mi Sony Prs-505 me da mejores prestaciones), no tiene teléfono, ni cámara, el básico no tiene ni acceso a Internet por 3G, es un dispositivo muy grande para llevarlo por la calle simplemente para ver películas y fotos. Además hablamos de películas y vemos que aunque es capaz de reproducir HD con la capacidad de almacenamiento que tiene, 16-64 Gb,  no permite tener almacenadas más que unas pocas películas en ese formato. Apenas dispone de puertos de conexión, ni siquiera HDMI.

Da la sensación de que en vez de un avance tecnológico es un retroceso, hace básicamente lo mismo que un iPod Touch, pero es más voluminoso. Definitivamente, a pesar de que miles de seguidores de Apple harán colas para conseguir los primeros dispositivos, iPad no estará en la lista de cacharros que pulularan por mi casa.

Reinicio actividades LHC 28-02-2010

Según ha comunicado de forma escueta el CERN en su Web y en Twitter, tras la parada técnica en la que se encontraba el LHC desde el pasado diciembre, el sábado 28 de Febrero a las 04:10 volvió a circular el primer haz de partículas de 2010 por el gran colisionador.

El haz ha circulado en ambos sentidos por el enorme anillo de 27 kilómetros del LHC, aunque de momento a baja potencia, poco después han tenido que hacer una nueva parada para ajustar algunos aspectos del enfriamiento de los imanes antes de seguir con la aceleración de las partículas.

El LHC se puso en “stand by” el 16 diciembre de 2009, después de un más que prometedor reinicio de sus actividades a finales de ese mismo año, y desde entonces esta parada técnica ha servido para preparar las colisiones de alta energía y el programa de investigación que se seguirá en 2010, hacer las reparaciones y comprobaciones necesarias para el perfecto funcionamiento a más altas energías. Como ya indiqué en la entrada dedicada a la parada técnica del LHC los responsables habían anunciado el reinicio de la actividad en febrero de este año, y el último día del mes se han cumplido las previsiones.

A partir de ahora, se irá aumentando la energía de colisión del LHC hasta los 7 TeV (3,5 TeV por haz) y así se operarán los experimentos a lo largo de entre 18 y 24 meses. Este periodo supondrá la fase más larga de operación del acelerador en la historia del CERN, y llevará hasta el verano u otoño de 2011.

Después se realizará una larga parada para desarrollar todos los trabajos necesarios que permitan alcanzar la energía de colisión prevista de 14 TeV en el siguiente período de funcionamiento del gran colisionador y evidentemente para analizar los datos registrados en esos meses de intenso trabajo

El detector AMS

Hace unos días leí la noticia de que el detector AMS (Espectrómetro Magnético Alfa) abandonó la sede del CERN en Ginebra camino de su destino final, la Estación Espacial Internacional (ISS).

Ahora mismo debe estar en el ESTEC, el centro de investigación y tecnología de la Agencia Espacial Europea (ESA) en Nordwijk, Países Bajos, en donde se estarán haciendo pruebas para comprobar su capacidad para soportar un despegue del transbordador espacial y su funcionamiento en el espacio.

En el ESTEC, el AMS se colocará en la cámara de termo-vacío de la ESA, que simula el vacío espacial, para hacer pruebas sobre la capacidad del detector de intercambiar calor, manteniendo su equilibrio térmico, esencial para el funcionamiento de la electrónica del detector y especialmente de su singular imán superconductor, el primero de su especie que se lanza al espacio.Será la primera vez que se va a probar en vacío. Después del test, puede que el AMS vuelva al CERN para una comprobación final y después saldrá hacia el Centro Espacial Kennedy para su lanzamiento. El despegue a bordo del transbordador espacial Discovery está previsto para julio de 2010.

La pregunta es qué es el AMS y para qué lo van a enviar a la ISS.

El AMS es un detector de rayos cósmicos valorado en más de mil millones de Euros, y será llevado hasta la ISS por el transbordador espacial, su misión será detectar galaxias lejanas formadas completamente por antimateria. El AMS también buscará positrones y electrones en el espacio, como posibles marcadores de materia oscura, poniendo a prueba las teorías más aceptadas sobre dicha materia. Asimismo, buscará strangelets, una forma de materia, aún teórica, que es ultra-masiva porque contiene los famosos quarks extraños. Un mejor entendimiento de los strangelets ayudará a los científicos a estudiar los microquásares y también los diminutos agujeros negros primordiales, a medida que se evaporan, lo que probaría la existencia de estos diminutos agujeros negros.

Todos estos fenómenos exóticos pueden hacerse notar por los rayos cósmicos que emiten  ultra-alta energía, que es el tipo de partículas que constituyen la especialidad del AMS.

El AMS se puede comparar con los aceleradores de partículas de elevada potencia, como el LHC.  Más que detectar rayos cósmicos de alta velocidad que provienen de todas partes de la galaxia, estos aceleradores crean sus propias partículas, usando enormes cantidades de energía. Para estudiar dichas partículas, la CERN y el AMS usan el mismo truco: ambos utilizan poderosos campos magnéticos para desviar las trayectorias de las partículas, y con detectores hechos con placas de silicio y otros sensores colocados en el interior de los detectores, trazan las trayectorias curvas de las partículas.

Los sensores generan muchos terabits de datos y las supercomputadoras se encargarán de reducir todos esos datos para de ellos inferir la masa de cada partícula, su energía y su carga eléctrica. La supercomputadora es, en parte, la razón principal por la cual el AMS debe montarse en la ISS en vez de ser un satélite independiente. El AMS produce datos en cantidades tan grandes que no pueden ser enviados a la Tierra desde el espacio, así que se deberá llevar a bordo una supercomputadora para hacer la reducción de los datos en órbita.

Sin embargo, hay dos diferencias importantes entre el AMS y los aceleradores como el LHC. En primer lugar, el AMS detectará partículas tales como núcleos pesados que poseen muchísima más energía que la que los aceleradores de partículas pueden reunir. Los rayos cósmicos pueden tener energías de 100 millones de TeV o más, contra los cerca de 7 TeV que se pueden obtener en el LHC. La otra diferencia importante es que los aceleradores pueden hacer chocar las partículas unas contra otras para aprender algo sobre las partículas mismas, mientras que el AMS tomará muestras de partículas de alta energía que provienen del espacio profundo con el fin de conocer algo más sobre el cosmos.

Los trabajos en los que se va a utilizar el AMS será, por ejemplo, en resolver uno de los  misterios más intrigantes de la cosmología, como es el caso de la antimateria perdida. Como ya traté en la entrada Quarks, gluones y antimateria existe unas grandes incógnitas acerca del misterio de la antimateria-materia producida después del Big Bang. Puede ser que algunas galaxias lejanas estén hechas enteramente de antimateria en vez de materia. Debido a que la antimateria no es nada diferente de la materia común, los astrónomos no podrían distinguir si una galaxia lejana está hecha de materia o de antimateria sólo observándola. Sin embargo, el AMS hallaría fuertes evidencias de las galaxias de antimateria si detectara tan sólo un núcleo de anti-helio o de algún elemento de antimateria más pesado. El AMS posee alrededor de 200 veces más poder de recolección de partículas que ningún otro detector que se haya enviado antes al espacio. Si el AMS no detecta núcleos de anti-helio, se supone que los científicos sabrán que no hay galaxias de antimateria en aproximadamente la frontera del universo observable.

Se cree que el AMS también ayudará a resolver la naturaleza de la materia oscura. Los científicos saben que la gran mayoría del universo esta compuesta por una materia oscura que aún no ha podido ser vista directamente. No se sabe que es realmente, hay una teoría que dice que está formada por una partícula llamada neutralino. Las colisiones entre éstos deberían de producir una gran cantidad de positrones de alta energía, de modo que el AMS, buscando entre el exceso de esos positrones podría probar que la materia oscura está hecha de ellos.

Estos experimentos son complementarios de los que se realizarán en el LHC y con ellos se pretende tanto entender el origen del universo, como su funcionamiento.

“HACK” Nokia 5800 XpressMusic RM-356 V40

Antes de explicar como hackear la versión de firmware V40 del Nokia 5800 creo que es conveniente aclarar algunos conceptos.

“Hackear” no significa que tengas liberado el móvil para utilizarlo en la compañía que quieras, ni usar una tarjeta SIM sin conocer la clave. En este caso lo que importa del “hackeo” es poder instalar aplicaciones sin tener que firmarlas y poder entrar en la memoria del teléfono para poder modificar o ver archivos que nos interesen.

Por qué hay que firmar muchos de los archivos antes de instalarlos? Bueno eso requiere un poco de historia del sistema de Nokia Symbian.

Hemos de remontarnos a las primeras versiones de Symbian, S60V2 (6.0, 7.0, 8.0 y 8.1) y para recordar que cualquier aplicación podía ser instalada en cualquier terminal perteneciente a cualquiera de las versiones anteriores sin apenas problemas, salvo incompatibilidad. Las instalaciones eran sencillas y eso hacía que podían estar contaminadas por virus, es más se podían hacer enviando el archivo por bluetooth. Tenían un agujero bastante importante de seguridad.

Para corregir dicho agujero se implantó un certificado de seguridad a partir de la plataforma Symbian S60V3 (correspondiente a  Symbian 9.1, 9.2 y 9.3).

Esto requiere que las aplicaciones estén firmadas (signed), con un certificado de seguridad, bien implementado por el desarrollador, o creado por el usuario final para después ser firmado. El certificado es un conjunto de datos incluido en el programa.

Las aplicaciones firmadas (signed), lo son como digo porque bien estén firmadas, es decir con el certificado implementado por el desarrollador, o por el propio usuario final.

Las aplicaciones no firmadas (unsigned), no llevan el certificado implementado, y han de ser firmadas para poder instalarlas y normalmente están asociadas las firmas o certificados al  IMEI del teléfono. Por tanto, si intentamos instalar una aplicación no firmada (unsigned), es decir que no lleva implementado el certificado, el terminal nos responderá con un mensaje de error: Error de certificado.

Errores típicos al intentar instalar una aplicación.

  • Error de certificado . Esto nos sale cuando la aplicación está sin firmar o el gestor de aplicaciones no está bien configurado para que instale “TODO”
  • Restringido por el certificado . Aplicación está firmada para otro IMEI
  • Certificado caducado . Cerificado fuera de fecha, podemos instalarlo engañando el terminal con una fecha distinta.
  • Certificado aún no válido, o fecha incorrecta . Cuando tras encontrarnos el mensaje Certificado Caducado hemos atrasado demasiado la fecha.
  • Imposible instalar una aplicación protegida de un proveedor no seguro . Cuando instalamos una aplicación firmada con un certificado que no ha sido creado en las centrales autorizadas SymbianSigned u OPDA.
  • Acceso necesario a la aplicación, no concedido . Cuando instalamos una aplicación, firmada con un certififcado que no tiene todas las capacidades. Generalmente, usando certificados genéricos.

Podemos firmar las aplicaciones que necesiten ser firmadas una a una con un certificado ligado a nuestro IMEI, el Certificado y Key se pueden conseguir en distintas páginas, por ejemplo http://www.s60certkey.com/ , uan vez obtenido el Certificado y la Key la podemos firmar en el móvil o en el PC con los programas adecuados ( Usar el todopoderoso Google para encontrar dichos programas si lo necesitáis, por ejemplo Signsis)

Pero para evitar esto y que el proceso sea más cómodo  “Hackeamos “ el terminal.  La manera de hacerlo depende del modelo y de la versión de firmware, en muchos casos tenemos aplicaciones que nos ayudan y lo hacen de manera automática como el Hellox2. En el caso que nos ocupa el proceso es un poco más farragoso, necesitamos instalar de nuevo el firmware v40 para el RM-356 con un archivo modificado que nos añade al teléfono el “ROMPATCHER”, que es un programita que nos permite instalar programas unsigned sin necesidad de tener certificado.

Antes de nada hay que decir que lo que realicéis es por vuestro propio riesgo, un mal paso puede dañar el teléfono, no obstante a mi se me quedó bloqueado y hay maneras de solucionarlo.

Primero tienes que descargar tus archivos del firmware ( en este caso la V40 del Nokia 5800 RM-356) con el programa “NAVIFIRM” a continuación, copia todos los archivos a:
“” C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \ ”

(aquí tienes la guía del “NAVIFIRM” por si hace falta aquí )

Después descarga el archivo RM356_40.0.005_023_xxx_U01.uda.fpsx , y lo copias a:

” C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \ ” machacas el que te habías bajado con el “NAVIFIRM”, si el que te has bajado con “NAVIFIRM” tiene otro nombre renombras este último y machacas el anterior.

Ahora utilizamos el programa “JAF” para utilizarlo deberás tener el “JAF pkey emulator” si no te pedirá la caja. Marca las opciones tal y como están en la foto:

Y seleccione el teléfono:

JAF cargará los archivos copiados a “C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \” (en la foto es RM-504, pero tiene que ser RM-356)

Ahora apaga el teléfono y, a continuación, pica en el botón de Flash. Te hace una pregunta aceptas y presionas suavemente el botón del encendido del móvil. JAF comenzará a parpadear e inicia el flash con una barra verde.  Cuando el flash termina pone en al ventana del programa “done” y el móvil se queda con una pantalla blanca con un mensaje, cierras el JAF, quitas la batería, la vuelves a insertar y enciendes el móvil. Ahora sólo queda bajar y copiar los archivos de Patches.zip a “E: \ Patches” del móvil y ejecutar “ROMPATCHER” desde tu móvil, selecciona activar “servidor RP +” y “Open4All RP +” añadir a auto y el teléfono está “HACKED”, a partir de aquí se pueden instalar archivos unsigned, utilizar un explorador como x-explorer para ver archivos del sistema…..

Después del proceso no hacer “hard reset” porque se perdería el ROMPATCHER y el hackeo.


Primero tienes que descargar tus archivos de firmware utilizando navifirm continuación, copie todos los archivos a:
“” C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \ ”

(Giude navifirm aquí )

Entonces usted tiene que descargar RM356_40.0.005_023_xxx_U01.uda.fpsx , con copia a:
“” C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \ ”
y sobrescribir.
Si su archivo tiene otro nombre, como “RM356_40.0.005_003_U302.uda.fpsx” a continuación, cambiar el nombre de “RM356_40.0.005_023_xxx_U01.uda.fpsx” para “RM356_40.0.005_003_U302.uda.fpsx” y sobrescribir.

Ahora el lanzamiento JAF y configure las opciones como en la imagen de abajo:
(Guía de JAF aquí )

Y seleccione el teléfono:

JAF se cargarán los archivos copiados a “C: \ Archivos de programa \ Archivos comunes \ Nokia \ DataPackage \ Products \ RM-356 \” (en la foto es RM-504, pero tiene que ser RM-356)

Ahora apague el teléfono! y, a continuación, haga clic en el botón de Flash después de que el botón de encendido (no mantenerla) en el teléfono y JAF comenzará a parpadear.
Cuando flash terminará reiniciar el teléfono y copiar los archivos de Patches.zip a “E: \ Patches” y ejecutar RP +, seleccione “Instalar servidor RP +” y “Open4All RP +” añadir a auto y su teléfono está HACKED !!!!!!!!

Esta es nuestra primera versión por lo que tiene errores Sad después de Hard Reset RP + desaparecerá y tendrás que flashear el telefono de nuevo Sad

Necesitamos beta testers con los teléfonos N97 y N97 mini si vamos a encontrar algunos beta testers crearemos hack para N97 y N97 mini

Si Aceptar el no trabajo para ustedes son enlaces directos:

PARADA TÉCNICA LHC

Hace mucho que no toco el tema del LHC, la razón principal, al margen de que apenas he escrito en el Blog, es que el Acelerador está parado desde el 16 de Diciembre. Es una parada programada hasta el 14 de Febrero.

Durante este tiempo los científicos están estudiando los resultados de los primeros experimentos a energías no muy elevadas, verificando que las partículas que han aparecido son las que debían ser, esto es posible puesto que en el rango de energías que han trabajado las partículas que debían interactuar o aparecer en los distintos detectores son todas conocidas y previsibles. Es una parada técnica que servirá, al margen de lo citado anteriormente, para verificar que todos los elementos están bien, que todo está en orden. Servirá también para reparar los elementos que hayan sufrido daño y para hacer test de los distintos componentes del complejo, sobretodo del nuevo sistema de protección por enfriamiento para llevarlo a su total funcionalidad. Así mismo se está preparando el LHC para reiniciarlo a energías mayores en torno a 3.5 TeV, sustituyendo cerca de 4000 conectores en el sistema de enfriamiento. También se está haciendo un mantenimiento del detector CMS, sustituyendo partes que estaban causando que las líneas de refrigeración del detector de agua fallaran.

Los imanes superconductores del LHC se mantienen a una temperatura muy baja, cercana al cero absoluto, de 1,9 K ( cercano a los -273 ºC), para poder alcanzar las altas corrientes necesarias con el fin de actuar sobre la trayectoria de las partículas. El haz fluirá a una energía de 3,5 TeV y será necesaria una corriente de 6000 amperios a través de los imanes de flexión principales del LHC, los dipolos. El enfriamiento se produce cuando parte del cable superconductor dentro de un imán se calienta y ya no puede conducir la electricidad sin resistencia, necesitan que no haya nada de resistencia para alcanzar esas energías. La primera línea de actuación para conseguir los objetivos de enfriamiento y superconductividad es la detección de temperatura mediante un complejo sistema electrónico que monitorea los imanes.

Una de las tareas principales de la parada técnica es la sustitución de algunos conectores en los 250 km de cable de alto voltaje del nuevo sistema de detección de enfriamiento. Los conectores, inicialmente instalados en 2009, están siendo reemplazados después que se descubrió que se dañan fácilmente si los cables están doblados.

Una vez que se detecta un enfriamiento, la energía almacenada debe ser canalizada de manera segura lejos del imán. El nuevo sistema de protección de enfriamiento, instalado en noviembre, incluye cerca de 10.000 nuevos cables diseñados para desconectar la corriente en sectores específicos del LHC. El sistema de actualización también incorpora una mejor programación y la electrónica necesaria para detectar desconexiones. Se está probando durante esta parada técnica el software y los distintos equipos para este sistema, con el fin de asegurar que todo funciona correctamente para alcanzar las máximas energías con que se trabajará este año.

Se espera el regreso del haz en el LHC poco después de que vuelva a funcionar, y acto seguido comenzarán las colisiones y los nuevos experimentos.

Quarks, Gluones y Antimateria

Hoy toca continuar acercándonos a los distintos experimentos del LHC y a las cuestiones que se pretenden esclarecer mediante distintos experimentos. En concreto voy a tratar de los dos experimentos de los detectores de  tamaño medio ALICE y LHCb ,que se han especializado en el análisis de las colisiones del LHC en relación con fenómenos específicos.

  • El experimento ALICE utilizará las colisiones de iones de plomo para estudiar el plasma de quarks y gluones, la sopa cósmica primordial que se cree que ha existido poco después del Big Bang.
  • El experimento LHCb investigará las pequeñas diferencias entre materia y antimateria con el fin de ayudar a los científicos comprender por qué el universo parece estar compuesto casi en su totalidad de la materia. En los experimentos anteriores ya se ha observado una diferencia de comportamiento muy pequeño, pero lo que se ha visto hasta ahora no es lo suficiente para explicar el aparente desequilibrio materia-antimateria en el Universo. Además, los datos de los cuatro grandes experimentos del LHC serán analizados cuidadosamente para buscar signos de nuevas dimensiones del espacio, ya que estas dimensiones extra pueden ser detectables a muy altas energías.

Para entender que se pretende investigar hay que aportar una serie de datos sobre las cuestiones a estudio.

Plasma de quarks y gluones

La teoría de las interacciones nucleares fuertes o Cromodinámica Cuántica, QCD por sus siglas en inglés, presenta la todavía misteriosa propiedad de confinamiento: las partículas constituyentes de los hadrones (partículas que forman los átomos), denominados quarks y gluones, no aparecen como partículas libres en la naturaleza sino como estados ligados, en bariones y mesones (conjunto de diferentes tipos de hadrones). Cada quark o bien se empareja con un anti-quark para formar un mesón o se une con otros dos quarks para formar un barión (tal como el protón y el neutrón). Sin embargo, existe la posibilidad de que los quarks y gluones entren en una fase de deconfinamiento donde se comporten como partículas libres. Esto ocurre a temperaturas muy altas, alrededor del billón de grados centígrados. Este estado se denomina plasma de quarks y gluones (QGP) y se cree que estuvo presente en los diez primeros microsegundos después del Big Bang.

El QGP puede ser creado calentando la materia hasta una temperatura de 175 MeV, correspondiendo a una densidad de energía de un poco menos de 1 GeV/fm³ (fm = fentometro 1*10-5 m). Para la materia relativista, la presión y la temperatura no son variables independientes, así que la ecuación de estado es una relación entre la densidad de energía y la presión. Esto ha sido encontrado por cómputos de retículos, y comparado con la teoría perturbacional y la teoría de cuerdas.  Esto se puede hacer en el laboratorio haciendo chocar dos núcleos grandes con alta energía. Plomo y oro han sido utilizados para hacer esto en el CERN SPS (Super Proton Synchrotron del CERN) y en el RHIC (Relativistic Heavy Icon Collider del Laboratorio Nacional de Brookhaven, EEUU), respectivamente. Los núcleos son acelerados a velocidades cercanas a la velocidad de la luz y se estrellan uno contra el otro cuando se contraen. En gran parte se atraviesan el uno al otro, pero se crea un volumen caliente después del choque llamado bola de fuego. Una vez creada, esta bola de fuego se ensancha debido a su propia presión, y se enfría al ensancharse. Mediante el estudio de este flujo, los científicos esperan poder probar la teoría.

Los experimentos realizados en el RHIC con colisiones de iones de oro han comprobado que  realmente se ha creado la fase de plasma. Existe ya cierto consenso científico sobre la creación de un nuevo estado de la materia nuclear en estas colisiones de iones de oro que presenta muchas de las propiedades esperadas del plasma de quarks y gluones. Es más, los datos contienen también sorpresas: el plasma no se comporta como un gas (como se esperaba) sino como un líquido, y no uno cualquiera, sino el líquido más perfecto observado en la Naturaleza. La propiedad determinante de un líquido es su viscosidad y el plasma de quarks y gluones supuestamente creado en RHIC es el de viscosidad más baja nunca vista.

Sorprendentemente, esta característica del plasma de quarks y gluones puede modelizarse (realizar modelos teóricos) en teorías avanzadas basadas en la teoría de cuerdas. La llamada correspondencia de Maldacena (científico argentino de la Universidad de Princeton) permite modelizar este estado (plasma) como un agujero negro (gran cantidad de masa en un espacio infinitamente pequeño) en cinco dimensiones en un espacio curvo (anti-deSitter), donde el plasma se encuentra en su frontera. Como si de un holograma se tratase, al igual que la información sobre una imagen tridimensional se puede guardar en sólo dos dimensiones, la teoría de cuerdas en cinco dimensiones contiene la información sobre el plasma en las cuatro dimensiones espacio-temporales. Por tanto el modelo se llama el plasma holográfico.

En este sentido con energías muchísimo más elevadas se harán experimentos en el LHC con el fin de crear situaciones tendentes a emular los instantes inmediatamente posteriores al Big Bang y comprobar si los quarks y gluones se decofinan formando dicho plasma como origen primigenio del universo.

Antimateria

¿Qué es la antimateria? Es la materia hecha de antipartículas, la siguiente cuestión es si hay partículas y antiparticulas, por qué no se anulan y, es más,  en vez de eso tenemos materia y no hay antimateria.

Tal y como lo conocemos ahora, todo empezó en el Big Bang, en una concentración de temperatura y densidad infinita. Al principio todo era energía concentrada en un punto. Luego cuando el Universo empezó a expandirse se fue enfriando, y por E=mc2 cierta energía comenzó a transformarse en materia. Pero en teoría se formaron tanto partículas como antipartículas. Cuando una partícula se encuentra con su antipartícula, ambas se aniquilan y forman energía.

Si en el Big Bang todo hubiera sido absolutamente simétrico, la energía hubiera generado partículas y antipartículas por igual, que luego se hubieran destruido formando más energía hasta llegar a un cierto equilibrio térmico, en el que nada existiría. Entonces, el hecho que el universo se componga sólo de materia nos dice que en el origen del Universo hubo algún tipo de asimetría entre materia y antimateria. Es decir, las leyes de la naturaleza contienen alguna asimetría que favoreció a la materia frente a la antimateria. Lo que sabemos ahora es que por cada mil millones de antipartículas se formaron mil millones más una partículas. Estos miles de millones se aniquilaron entre ellos, y las partículas “sueltas” de materia, las desapareadas, son las que empezaron a formar átomos, galaxias y el mundo tal y como lo conocemos.

Es lo que se hará en el LHC.  Hoy en día, si juntas suficiente energía en un punto puedes crear materia por la E=mc2 y por supuesto antimateria. En cada colisión del LHC se formarán partículas y antipartículas. Las antipartículas se destruyen enseguida cuando chocan con las paredes del detector, pero da tiempo de registrarlas para estudiarlas y eso es lo que sea hará

<!–[if !mso]> <! st1\:*{behavior:url(#ieooui) } –>

Los dos experimentos de los detectores de mediano tamaño ALICE y LHCb se han especializado en el análisis de las colisiones del LHC en relación con fenómenos específicos. El experimento ALICE utilizará las colisiones de iones de plomo para estudiar el plasma de quarks y gluones, la sopa cósmica primordial que se cree que ha existido poco después del Big Bang. El experimento LHCb investigará las pequeñas diferencias entre materia y antimateria con el fin de ayudar a los científicos comprender por qué el universo parece estar compuesto casi en su totalidad de la materia. En los experimentos anteriores ya se ha observado una diferencia de comportamiento muy pequeño, pero lo que se ha visto hasta ahora no es lo suficiente para explicar el aparente desequilibrio materia-antimateria en el Universo. Además, los datos de los cuatro grandes experimentos del LHC serán analizados cuidadosamente para buscar signos de nuevas dimensiones del espacio, ya que estas dimensiones extra pueden ser detectables a muy altas energías.

Plasma de quarks y gluones

La teoría de las interacciones nucleares fuertes o Cromodinámica Cuántica, QCD por sus siglas en inglés, presenta la todavía misteriosa propiedad de confinamiento: las partículas constituyentes de los hadrones (partículas que forman los átomos), denominados quarks y gluones, no aparecen como partículas libres en la naturaleza sino como estados ligados, en bariones y mesones (conjunto de diferentes tipos de hadrones). Cada quark o bien se empareja con un anti-quark para formar un mesón o se une con otros dos quarks para formar un barión (tal como el protón y el neutrón). Sin embargo, existe la posibilidad de que los quarks y gluones entren en una fase de deconfinamiento donde se comporten como partículas libres. Esto ocurre a temperaturas muy altas, alrededor del billón de grados centígrados. Este estado se denomina plasma de quarks y gluones (QGP) y se cree que estuvo presente en los diez primeros microsegundos después del Big Bang.

El QGP puede ser creado calentando la materia hasta una temperatura de 175 MeV, correspondiendo a una densidad de energía de un poco menos de 1 GeV/fm³ (fm = fentometro 1*10-5 m). Para la materia relativista, la presión y la temperatura no son variables independientes, así que la ecuación de estado es una relación entre la densidad de energía y la presión. Esto ha sido encontrado por cómputos de retículos, y comparado con la teoría perturbacional y la teoría de cuerdas Esto se puede hacer en el laboratorio haciendo chocar dos núcleos grandes con alta energía. Plomo y oro han sido utilizados para hacer esto en el CERN SPS (Super Proton Synchrotron del CERN) y en el RHIC (Relativistic Heavy Icon Collider del Laboratorio Nacional de Brookhaven, EEUU), respectivamente. Los núcleos son acelerados a velocidades cercanas a la velocidad de la luz y se estrellan uno contra el otro cuando se contraen. En gran parte se atraviesan el uno al otro, pero se crea un volumen caliente después del choque llamado bola de fuego. Una vez creado, esta bola de fuego se ensancha debido a su propia presión, y se enfría al ensancharse. Mediante el estudio de este flujo, los científicos esperan poder probar la teoría.

Los experimentos realizados en el RHIC con colisiones de iones de oro han comprobado que  realmente se ha creado la fase de plasma. Existe ya cierto consenso científico sobre la creación de un nuevo estado de la materia nuclear en estas colisiones de iones de oro que presenta muchas de las propiedades esperadas del plasma de quarks y gluones. Es más, los datos contienen también sorpresas: el plasma no se comporta como un gas (como se esperaba) sino como un líquido, y no uno cualquiera, sino el líquido más perfecto observado en la Naturaleza. La propiedad determinante de un líquido es su viscosidad y el plasma de quarks y gluones supuestamente creado en RHIC es el de viscosidad más baja nunca vista.

Sorprendentemente, esta característica del plasma de quarks y gluones puede modelizarse (realizar modelos teóricos) en teorías avanzadas basadas en la teoría de cuerdas. La llamada correspondencia de Maldacena (científico argentino de la Universidad de Princeton) permite modelizar este estado (plasma) como un agujero negro (gran cantidad de masa en un espacio infinitamente pequeño) en cinco dimensiones en un espacio curvo (anti-deSitter), donde el plasma se encuentra en su frontera. Como si de un holograma se tratase, al igual que la información sobre una imagen tridimensional se puede guardar en sólo dos dimensiones, la teoría de cuerdas en cinco dimensiones contiene la información sobre el plasma en las cuatro dimensiones espacio-temporales. Por tanto el modelo se llama el plasma holográfico.

En este sentido con energías muchísimo más elevadas se harán experimentos en el LHC con el fin de crear situaciones tendentes a emular los instantes inmediatamente posteriores al Big Bang y comprobar si los quarks y gluones se decofinan formando dicho plasma como origen primigenio del universo.

Antimateria

¿Qué es la antimateria? Es la materia hecha de antipartículas la siguiente cuestión es si hay partículas y antiparticulas, por qué no se anulan y, es más,  en vez de eso tenemos materia y no hay antimateria.

Tal y como lo conocemos ahora, todo empezó en el Big Bang, en una concentración de temperatura y densidad infinita. Al principio todo era energía concentrada en un punto. Luego cuando el Universo empezó a expandirse se fue enfriando, y por E=mc2 cierta energía comenzó a transformarse en materia. Pero en teoría se formaron tanto partículas como antipartículas.Cuando una partícula se encuentra con su antipartícula, ambas se aniquilan y forman energía.

Si en el Big Bang todo hubiera sido absolutamente simétrico, la energía hubiera generado partículas y antipartículas por igual, que luego se hubieran destruido formando más energía hasta llegar a un cierto equilibrio térmico, en el que nada existiría. Entonces, el hecho que el universo se componga sólo de materia nos dice que en el origen del Universo hubo algún tipo de asimetría entre materia y antimateria. Es decir, las leyes de la naturaleza contienen alguna asimetría que favoreció a la materia frente a la antimateria. Lo que sabemos ahora es que por cada mil millones de antipartículas se formaron mil millones más una partículas. Estos miles de millones se aniquilaron entre ellos, y las partículas “sueltas” de materia, las desapareadas, son las que empezaron a formar átomos, galaxias y el mundo tal y como lo conocemos.

Es lo que se hará en el LHC, o en otros laboratorios de partículas. Hoy en día, si juntas suficiente energía en un punto puedes crear materia por la E=mc2 y por supuesto antimateria. En cada colisión del LHC se formarán partículas y antipartículas. Las antipartículas se destruyen enseguida cuando chocan con las paredes del detector, pero da tiempo de registrarlas para estudiarlas y eso es lo que sea hará

Materia Oscura

Hace un par de días se batió en el LHC el record de energía alcanzado en un acelerador de partículas.  El haber alcanzado una energía de 1,8 TeV (Teraelectrón-Voltio), superando así el record del Tevatrón del laboratorio Fermi de los Estados Unidos es un logro tremendo. Pero no hay que olvidar que el objetivo del LHC es que por cada haz del colisionador circule una energía de 3,5 TeV a finales de 2010. Así pues, se espera que circule una energía del 7 TeV (3,5 TeV x 2) , siete veces más energía que en el laboratorio Americano. Aprovechando este hito me gustaría seguir aproximándome al conocimiento del universo que nos rodea, en concreto a una parte de la masa/energía tan escurridiza casi como el ya famoso Bosón de Higgs; la llamada Materia Oscura.

En instantes inmediatamente posteriores al Big Bang el universo era liso, sin rasgos. Según fue pasando el tiempo se organizó hasta el punto que lo conocemos hoy. Sabemos que nuestro sistema solar está organizado y los planetas (incluida la tierra) giran en órbitas alrededor del Sol. En una escala mucho mayor que el sistema solar (alrededor de 100 millones de veces más grande) las estrellas se organizan en galaxias. Nuestro Sol es una estrella media en una galaxia media llamada La Vía Láctea. La Vía Láctea contiene cerca de 100 mil millones de estrellas. Sí, eso es 100000000000 estrellas. En las escalas aún más grandes, las galaxias individuales son concentrada en grupos, o lo que los astrónomos llaman grupos de galaxias.

El grupo incluye las galaxias y todo el material que está en el espacio entre las galaxias. La fuerza que tiene el grupo en conjunto es la gravedad – la atracción mutua de todo en el Universo con respecto a todo lo demás. El espacio entre las galaxias en los cúmulos se llena con un gas caliente. De hecho, el gas es tan caliente (decenas de millones de grados) que brilla. Mediante el estudio de la distribución y la temperatura del gas caliente que podemos medir, permite a los científicos determinar la cantidad total de materiales que hay en esa parte del espacio.

Sorprendentemente, resulta que hay cinco veces más material en los grupos de las galaxias del que podemos esperar de las propias galaxias y gas caliente. La mayoría de la materia en los cúmulos de galaxias es invisible y, puesto que estos son las estructuras más grandes del Universo se mantienen unidas por la gravedad, los científicos han llegado a la conclusión de que la mayoría de lo que existe en todo el Universo es invisible. Estas cosas invisibles se denominan Materia Oscura. En la actualidad los científicos están  tratando de descubrir exactamente que es esa Materia Oscura y cuánta hay, amén de qué efecto puede tener sobre el futuro del Universo.

La Materia Oscura representa alrededor del 26% del Universo. El primer indicio de su existencia llegó en 1933, cuando las observaciones astronómicas y cálculos de los efectos gravitacionales revelaron que debe haber más ‘cosas’ en el universo que los telescopios pueden ver.

Los investigadores ahora creen que el efecto gravitacional de la Materia Oscura hace que las galaxias giren más rápido de lo esperado, y que su campo gravitacional desvíe la luz de los objetos que hay detrás. Las mediciones de estos efectos muestran que la Materia Oscura existe, y pueden ser utilizados para estimar la densidad de la Materia Oscura a pesar de que no se puede observar directamente.

La cuestión es qué es la Materia Oscura. Una idea es que podría contener “partículas supersimétricas”,  hipótesis de partículas que son asociadas a las ya conocidas en el Modelo Estándar. Los científicos esperan que en los experimentos ligados al detector ATLAS del LCH se puedan detectar los rastros de la misteriosa Materia Oscura.