viernes, 25 de abril de 2008

Desvelan las características de los chorros de partículas procedentes de los agujeros negros

El fenómeno se observa en el centro rotacional de la mayoría de las galaxias y contrarresta la emisión de grandes cantidades de luz a medida que aumenta por la agregación de gas y polvo.

El sistema, identificado como «3C321», contiene dos galaxias y los datos proporcionados por el observatorio espacial muestran que en el núcleo de cada una de ellas hay un agujero negro.

Investigadores de la Universidad de Boston en Estados Unidos desvelan esta semana en la revista Nature algunas características de los chorros de partículas o jets que proyectan los agujeros negros.

Según los investigadores, los agujeros negros supermasivos se encuentran en el centro rotacional de la mayoría de las galaxias y que de alguna manera contrarrestan la emisión de grandes cantidades de luz a medida que aumentan por la agregación de gas y polvo de sus alrededores.

Los investigadores revelan por primera vez las estructuras del interior de un jet o chorro de plasma que emana de un agujero negro supermasivo o «núcleo galáctico activo» y resuelven el misterio de cómo se forman estos jets de partículas.

Según los investigadores, un blazar es un tipo particular de núcleo galáctico activo, que posee un par de jets de plasma que fluyen del agujero negro a velocidades cercanas a la luz. Los científicos han realizado modelos de estos chorros pero hasta ahora no han sido capaces de localizar su origen preciso u obtener una idea concreta de cómo se forman.

Los científicos, dirigidos por Alan P. Marscher, informan sobre secuencias de imágenes de radio de alta resolución y medidas de polarización óptica del blazar conocido como BL Lacertae. Los datos revelan un aspecto brillante en el jet que causa un doble destello de radiación a diferentes longitudes de onda.

Los autores han podido verificar que el jet comienza en una región con un campo magnético helicoidal enroscado y localizan la actividad inicial dentro de la zona en la que el jet se acelera y se orienta.

Ya ni un kilo es un kilo

Desde Arquímedes ha rondado la duda de si un kilogramo de paja pesa como dicen lo que un kilo de hierro. Dudas acendradas luego mediante la cotidiana recogida de pruebas de campo en el almacén o la carnicería, ante el fiel de una balanza, al pagar o ante la sertén al freír, sugieren que ni el kilo ni el metro son ya lo que parecen.

El relativismo ha alcanzado a las medidas universales según un equipo de la Universidad de Braunschweig, que se enfrenta a la pérdida de peso del famoso kilo de platino iridiado (90/10) de Sèvres. Investigadores del Instituto de Metrología de esa institución están a punto de proponer un modelo que defienda la certidumbre del kilo de mil gramos, contando sus átomos.

El peso y la masa

Como obsesos de la báscula saben de antemano, lo que importa no es realmente el peso, sino la masa. De hecho, la refutación sobre el peso de la paja es porque no es lo mismo el peso teórico (fuerza igual a masa por gravedad) que el real, o fuerza que ejerce el objeto sobre la balanza, y que resta al peso teórico el empuje del aire sobre la densidad.

Efectivamente, la masa es propiedad independiente del lugar donde se mida, como no importa que en la báscula del gimnasio todo el mundo pese menos: un kilo de masa pesa en la Tierra unos 9´8 Newton y, en la Luna, una sexta parte, aunque por obviedad se habla de un kilogramo como lo que pesa en la Tierra.

Los revolucionarios, que tienen su propia pasión reguladora, establecieron en 1795, en Francia, la tríada longitud-peso-volumen, por la que el gramo sería «el peso absoluto del volumen de agua igual al cubo de un centésima parte de un metro a la temperatura en que se funde el hielo». Lavoisier, que estableció el estandar, fue guillotinado incluso antes de saberse que la medida perdería microgramos hasta quedar en cuestión.

Número de átomos

El kilogramo sigue siendo base del sistema internacional de unidades (SI), igual a la masa de «Le Grand K», el cilindro de aleación de 39x39 mm cuyo peso es casi exactamente el de un litro de agua. El kilo es así la única unidad relacionada aún con un objeto y no con una propiedad física; siendo base para la definición de otras unidades el propio Comité Internacional de Pesos y Medidas (BIPM) solicitó ya en 2005 una redifinición.

EE.UU. y Suiza están intentando una definición por medidas electromagnéticas, Josephson y von Klitzing lo han relacionado con el amperio y también se intenta una medición por la constante de Planck con una balanza de watios.

Una esfera perfecta

Pero en Braunschweig están ultimando una esfera de 93,7 mms de diámetro, lograda en Rusia a partir de silicio 28 (al 99,99%) y estabilizada en Australia y Alemania, en la que el estándar sea el peso de un número concreto de sus átomos. La bola difiere sólo en una treintamillonésima de la perfección y ha costado dos millones de euros.

Cientos de radiografías buscan ahora «fijar una estructura que permita inferir el número de átomos, ya que no podemos contar todos», aduce el ingeniero jefe Peter Becker. El objetivo es definir el kilo a partir del peso de un átomo de silicio 28 con ocho decimales.

Las mediciones se prolongarán hasta 2010 y, una vez conocido el número en un kilo, éste podrá ser reproducido en cualquier lugar y toda variación sería mínima y sólo de interés científico.

El día maldito (Algoritmo Doomsday)

En cualquier año, los días 4/4, 6/6, 8/8, 10/10 y 12/12 (es decir: 4 de abril, 6 de junio, 8 de agosto, etcétera) siempre caen en el mismo día de la semana. Es una curiosa coincidencia que utiliza el algoritmo Doomsday, inventado por John Horton Conway, para permitir calcular mentalmente el día de la semana de cualquier día de cualquier año, a modo de «calendario perpétuo».

Para mas información: Algoritmo Doomsday

jueves, 24 de abril de 2008

Caos determinista en microprocesadores


El comportamiento de los microprocesadores puede llegar a ser impredecible en algunos aspectos. De hecho puede asemejarse al tiempo atmosférico, pudiéndose estudiar con las herramientas matemáticas del caos determinista.

Estos complejos sistemas tienen cientos de millones de componentes, y la ejecución de un programa cualquiera en uno de estos microprocesadores puede ser altamente variable y presentar oscilaciones aperiódicas, siendo en algunos aspectos impredecible.

Berry, Daniel Perez y Olivier Temam afirman haber aplicado técnicas de análisis basadas en series no lineales para estudiar el comportamiento de estos modernos dispositivos cuando ejecutan un programa prototípico.

Afirman tener fuertes evidencias que les permiten afirmar que su dinámica de comportamiento al ejecutar programas exhibe sensibilidad a las condiciones iniciales. Ésta es la firma inequívoca del caos determinista que, por ejemplo, regula el tiempo atmosférico (el famoso efecto mariposa). El estado final del sistema depende fuertemente del estado inicial.

Aplicado esto a este caso significa que el curso preciso de una computación, incluyendo el tiempo total requerido para realizarla, es sensible al estado del microprocesador en el momento de iniciar el cálculo. Así el tiempo necesario para la ejecución de un mismo programa para que realice la misma tarea estándar varía de una vez para otra.

Por tanto, las ejecuciones de programas sobre los modernos microprocesadores pueden ser consideradas como sistemas complejos y la arquitectura de su construcción se podría beneficiar de las modernas herramientas matemáticas del análisis no lineal y ciencias de la complejidad.

Factorización de número grande acota la seguridad del cifrado

Han conseguido factorizar un número de 307 cifras lo que constituye una marca mundial en factorización y acota el tamaño de los números por defecto que usan los sistemas de cifrado.

Desde los tiempos de Julio Cesar, que usaba una sistema de cifrado para mandar mensajes secretos a sus tropas, a la segunda guerra mundial, cuando los alemanes usaban la famosa máquina Enigma, la humanidad ha necesitado de comunicaciones seguras.

Ahora cuando usted se conecta con su banco a través de una web usa un protocolo especial: https. Éste es diferente del habitual http, la “s” extra nos garantiza que la comunicación con el banco es segura y que ningún ladrón va a transferir nuestros fondos a otro sitio.

Las compras en Internet o la conexión a una terminal remota mediante la shell ssh también están cifradas para mantener a terceros lejos de nuestra tarjeta de crédito o lejos de nuestra cuenta en un servidor Linux.

Todos esos sistemas usan un sistema de cifrado desarrollado a partir de un algoritmo de finales de los años setenta denominado RSA (por R. Rivest, A. Shamir y L. Adelman que lo desarrollaron) y basado en el uso de números grandes.

El RSA, sistema increíblemente elegante y bello, está basado en una clave numérica pública y otra privada. Supongamos que una tal Cleopatra adoptase este sistema. Entonces podría publicar su clave pública compuesta por un número m y otro e en los papiros amarillos del Nilo. De este modo cualquiera podría mandarle un mensaje secreto traduciendo a números las letras del mensaje, pero sólo ella podría descifrarlo usando su clave secreta d que es un número apropiado y relacionado matemáticamente con m y e. En RSA no se necesita mandar clave secreta a nadie y todo el sistema es “abierto”.

Cleopatra también podría usar su clave privada d para cifrar un mensaje suyo y que cualquiera pueda descifrarlo con la clave pública que está en los papiros amarillos del Nilo.

Este sistema es tan elegante que incluso permite la firma electrónica. Si Marco Antonio quiere mandar un mensaje secreto a Cleopatra pero quiere convencerla de que ha sido él quien lo ha mandado puede hacer lo siguiente:

- Cifrar el mensaje con la clave privada de Marco Antonio y añadir su firma.
- Cifrar el conjunto con la clave pública de Cleopatra.

Cleopatra sólo necesita descifrar el mensaje recibido con su clave privada, eliminar la firma de Marco Antonio y descifrar el resto con la clave pública de Marco Antonio.
Sustitúyase a Cleopatra y a Marco Antonio por dos computadoras y ya tendremos el comercio electrónico funcionando.

Toda la seguridad del sistema RSA se basa en que el número m en cada caso (cada usuario tiene uno) es el producto de dos números primos aleatorios muy grandes p y q que se mantienen en secreto y que permiten el cálculo del descifrado sin mucha dificultad.

Aunque es relativamente fácil identificar números primos muy grandes, es muy difícil factorizar (descomponer en factores primos) un número compuesto en sus factores primos. No hay algoritmos eficientes que lo hagan o nadie los conoce aún. Aunque todo el mundo sepa el valor de m, si es muy grande no hay manera de calcular p y q de tal modo que p × q = m.

Bueno, sí hay manera si el número es lo suficientemente pequeño y disponemos de suficientes ordenadores potentes, entonces sí es posible.

La compañía RSA Laboratories publicó una lista con números muy grandes y desafió a la comunidad internacional a factorizarlos ofreciendo premios que van de 10.000 a 200.000 dólares. El desafío se ha convertido en una especie de juego o deporte entre algunos matemáticos y algunos han ganado un dinero con él.

En 2003 fueron capaces de factorizar RSA-576. En noviembre de 2005 y después de 18 meses de cálculos consiguieron factorizar el número RSA-640, un número de 200 cifras.

Ahora Thorsten Kleinjung de la Universidad de Bonn y sus colaboradores de la compañía japonesa NTT y de la Ecoles Polytechniques Fédérale de Lausannes (EPFL) ha conseguido factorizar un número específico no aleatorio de 307 cifras que en binario tiene 1017 bits, y que por cierto no está en la lista mencionada.

El sistema por defecto de RSA está basado ahora en números de 1024 bits. Ya en 1999 se aconsejó pasar del sistema de 512 bits al de 1024, y es de esperar que a partir de este momento se pase a un sistema de 2048, aunque quizás queden muchos años hasta que se rompa el sistema de 1024 bits. De hecho ya se aconseja el sistema de 2048 y algunos protocolos como el ssh usan claves públicas de ese tamaño desde hace tiempo.

Para factorizar el número que tratamos aquí usaron una criba de números especiales (GNFS o General Number Field Sieve) desarrollada en los ochenta por Arjen Lenstra (entonces en Bellcore), su hermano Hendrik (UC Berkeley), John Pollard y Mark Manasse (DEC) y un truco denominada “paso de matriz” que además han conseguido distribuir ahora en un conjunto de computadoras emplazadas en diferentes ubicaciones. La idea era buscar un sistema para poder distribuir un algoritmo sobre una arquitectura dada y sacar ventaja del comportamiento de la caché.

Necesitaron 11 meses de tiempo real y mucho tiempo de CPU (tiempo de computación) para factorizar este número. Los pasos efectuados y los tiempos empleados fueron los siguientes:

- Búsqueda de candidatos (tiempo de CPU: 125.7 años de Opteron-248).
- Criba (tiempo de CPU: 5 años de Pentium-D).
- Álgebra lineal (tiempo de CPU: dos meses en dos clusters de NTT con 146 PC).
- Cálculo de raíz (tiempo de CPU: varias horas en el cluster de la Universidad de Bonn).

Fueron capaces de factorizar este número un tanto especial porque al estar relacionado con un número de Mersenne su estructura permitió calcular su factorización fácilmente. Hacer lo mismo con números de tamaño equivalente pero aleatorios es casi imposible de momento.
Este equipo de investigadores pretende mejorar sus algoritmos en el futuro y afrontar el desafío RSA-704 en algún momento. Pero probablemente se tardarán muchos años antes de que se pueda romper el RSA-1024.
Para aquellos que quieran ganar el dinero del premio pueden consultar los desafíos RSA e intentarlo si saben suficiente informática y teoría de números.

Aunque algunos han propuesto que quizás ciertos individuos puedan esclavizar con un virus decenas de miles de videoconsolas en red tipo Play Station 3 (optimizadas para cálculos con números) para así romper los códigos aleatorios RSA y efectuar fraudes, la posibilidad es reducida, sobre todo si los demás les sacamos ventaja con claves más grandes.
Ordenadores más potentes permiten romper más fácilmente los códigos, pero también nos permiten a los demás cifrar mensajes con números más grandes.
Las matemáticas tienen a veces rentabilidad económica inmediata. El algoritmo RSA fue patentado (la patente expiró hace pocos años) y hay una empresa que explota la idea. Sin RSA el comercio electrónico sería imposible.
Por cierto, el número de 307 cifras en cuestión y su factorización son:


1 1 5 9 4 2 0 5 7 4 0 7 2 5 7 3 0 6 4 3 6 9 8 0 7 1 4 8 8 7 6 8 9 4 6 4 0 7 5 3 8 9 9 7 9 1 7 0 2 0 1 7 7 2 4 9 8 6 8 6 8 3 5 3 5 3 8 8 2 2 4 8 3 8 5 9 9 6 6 7 5 6 6 0 8 0 0 0 6 0 9 5 4 0 8 0 0 5 1 7 9 4 7 2 0 5 3 9 9 3 2 6 1 2 3 0 2 0 4 8 7 4 4 0 2 8 6 0 4 3 5 3 0 2 8 6 1 9 1 4 1 0 1 4 4 0 9 3 4 5 3 5 1 2 3 3 4 7 1 2 7 3 9 6 7 9 8 8 8 5 0 2 2 6 3 0 7 5 7 5 2 8 0 9 3 7 9 1 6 6 0 2 8 5 5 5 1 0 5 5 0 0 4 2 5 8 1 0 7 7 1 1 7 6 1 7 7 6 1 0 0 9 4 1 3 7 9 7 0 7 8 7 9 7 3 8 0 6 1 8 7 0 0 8 4 3 7 7 7 7 1 8 6 8 2 8 6 8 0 8 8 9 8 4 4 7 1 2 8 2 2 0 0 2 9 3 5 2 0 1 8 0 6 0 7 4 7 5 5 4 5 1 54 1 3 7 0 7 1 1 0 2 3 8 1 7 =

5 5 8 5 3 6 6 6 6 1 9 9 3 6 2 9 1 2 6 0 7 4 9 2 0 4 6 5 8 3 1 5 9 4 4 9 6 8 6 4 6 5 2 7 0 1 8 4 8 8 6 3 7 6 4 8 0 1 0 0 5 2 3 4 6 3 1 9 8 5 3 2 8 8 3 7 4 7 5 3
×
2 0 7 5 8 1 8 1 9 4 6 4 4 2 3 8 2 7 6 4 5 7 0 4 8 1 3 7 0 3 5 9 4 6 9 5 1 6 2 9 3 9 7 0 8 0 0 7 3 9 5 2 0 9 8 8 1 2 0 8 3 8 7 0 3 7 9 2 7 2 9 0 9 0 3 2 4 6 7 9 3 8 2 3 4 3 1 4 3 8 8 4 1 4 4 8 3 4 8 8 2 5 3 4 0 5 3 3 4 4 7 6 9 1 1 2 2 2 3 0 2 8 1 5 8 3 2 7 6 9 6 5 2 5 3 7 6 0 9 1 4 1 0 1 8 9 1 0 5 2 4 1 9 9 3 8 9 9 3 3 4 1 0 9 7 1 1 6 2 4 3 5 8 9 6 2 0 6 5 9 7 2 1 6 7 4 8 1 1 6 1 7 4 9 0 0 4 8 0 3 6 5 9 7 3 5 5 7 3 4 0 9 2 5 3 2 0 5 4 2 5 5 2 3 6 8 9

Referencias:
Heise.

Nuevas tecnologías en iluminación

Las mejoras en tecnología LED y de plasma podrían jubilar pronto a las bombillas incandescentes y de fluorescentes.

Foto


Las tradicionales bombillas incandescentes son muy poco efectivas, gran parte de la energía introducida en el sistema no es convertida en luz. Aunque últimamente se esta incrementando el uso de bombillas de bajo consumo, que son tubos fluorescentes enrollados sobre sí mismos. Éstos son más efectivos que las bombillas incandescentes y su uso ayuda a reducir el consumo de energía eléctrica y por tanto a disminuir el efecto invernadero al arrojarse menos dióxido de carbono a la atmósfera.

Lamentablemente no hay nada perfecto en este mundo y el aura ecológica de estas bombillas fluorescentes desaparece en el momento en que nos damos cuenta de que están rellenas de vapor de mercurio, un metal pesado muy tóxico. Si su uso se generalizara habría que implementar una cadena de reciclado para su recuperación. Millones de personas usando este tipo de bombillas y arrojándolas una vez usadas a la basura es un lujo que no nos podemos permitir.

Un sistema tan efectivo o más que estos tubos fluorescentes son las bombillas de sodio a baja presión que, aunque dan una luz monocroma, pueden utilizarse en la vía pública o en las carreteras. Rinden hasta 140 lumens o más por vatio. Además minimizan la contaminación luminosa. Aunque no las podamos utilizar dentro de las casas, es una pena que las administraciones se hayan olvidado de ellas en exteriores.

Sin embargo, hay esperanzas de poder conseguir un sistema de iluminación perfecto dentro de poco. La primera solución sería el uso de diodos emisores de luz o LED. Ya se utilizan en los semáforos o en los automóviles. Son sistemas muy efectivos, pero los mejores en cuestión de eficiencia son LED que dan luz de un sólo color. Incluso los LED blancos existentes proporcionan una luz de tono azulado que es desagradable para la gente y son poco efectivos.

Esto podría cambiar gracias a un desarrollo reciente. Un grupo de investigadores turcos ha experimentado con nanocristales dispuestos en dos capas alrededor de un LED azul. La primera capa es de seleniuro de cadmio y la segunda de sulfuro de zinc.

Los nanocristales absorben parte de la luz azul y emiten luz roja y verde que en combinación con parte de la luz original proporciona una suave luz blanca neutra. La combinación de distinta cantidad de nanocristales de diversos tipos proporcionaría además un espectro a la carta para así ajustarse a los gustos de los consumidores.

El dispositivo final produce unos 300 lúmenes de luz por vatio consumido que en comparación con los 30 ó 60 de los LED blancos actuales es una sensible mejora. Este LED es de momento experimental y no será fácil desarrollar la tecnología para hacer los recubrimientos con nanocristales, pero es de imaginar que se consiga en un futuro cercano.

La otra tecnología que quizás se imponga es la de plasma. La empresa californiana Luxim afirma haber logrado un sistema que proporciona un espectro igual al del Sol con una eficiencia muy alta. Según los datos de la empresa su sistema es 10 veces más efectivo que las bombillas tradicionales y el doble mejor que los LED comerciales, proporcionando 140 lúmenes por vatio.

Foto


La ampolla, de tamaño minúsculo, en el que está basado este sistema tiene una vida de 20.000 horas y suministra más de 30.000 lúmenes (ver vídeo) de potencia luminosa (¡sólo una de ellas!), algo que un LED, comercial o experimental, es incapaz de proporcionar.

El nuevo sistema, que está listo para su comercialización, se basa en una ampolla de vidrio rellena de argón y otra sustancia que llaman “puck” y que parecer ser una halogenuro metálico. Una señal de radiofrecuencia excita, sin necesidad de electrodos o conectores eléctricos de ningún tipo, el contenido de la ampolla que se trasforma, según la empresa, en una plasma a 6000 grados kelvin (la misma temperatura que la superficie del Sol) que genera una intensa luz blanca.
La empresa desarrolló en principio este sistema para iluminar sistemas de proyección, pero ya está pensando en comercializarlo para luces en la vía pública y quizás para otros usos.

Fuentes y referencias:
Applied Physics Letters (DOI:10.1063/1.2833693)
Luxim.

En busca de la segunda isla de estabilidad

Los modernos científicos nucleares han descubierto recientemente una isla de estabilidad en los mares de la tabla periódica donde habitan elementos superpesados. Ya especulan sobre una segunda.

Foto

En el congreso número 235 de la American Chemical Society uno de estos científicos asistentes ha descrito cómo los investigadores están buscando esa nueva isla a mayor distancia.

Según Yuri Oganessian, del instituto de investigación nuclear de Dubna (Rusia), ahora que se ha demostrado la existencia de la isla de estabilidad de elementos superpesados sería interesante comprobar la posición de otras islas predichas teóricamente.

El descubrimiento de elementos superpesados a principios de este siglo por parte del grupo de este investigador confirmó la existencia de la isla de estabilidad, una región de la tabla periódica con elementos estables de alto número atómico. La metáfora de la isla surge porque los elementos colindantes son tan inestables y de vidas tan cortas que se puede decir que tales elementos (o sus isótopos) no existen, mientras que los elementos superpesados de la isla son mucho más estables (aunque terminan por desintegrarse al poco tiempo de ser creados de todos modos).

El grupo de Oganessian y el Lawrence Livermore Laboratory (California) consiguieron sintetizar (¿descubrir?) en los pasados seis años los elementos 113, 114, 115, 116 y 118. Estos elementos no existen en la Naturaleza y sólo se pueden obtener mediante colisionadores de iones pesados.

La tabla periódica de los elementos es un listado ordenado que, atendiendo a diversos criterios, distribuye los distintos elementos químicos conforme a ciertas características. Estos elementos se combinan químicamente entre sí para formar las sustancias que forman todo el Universo o el cuerpo humano.

Los elementos más ligeros como el hidrógeno, helio o litio surgieron en el Big Bang, mientras que los elementos un poco más pesados se sintetizan en el interior de las estrellas gracias a reacciones nuclear de fusión. Los más pesados que el hierro se originan en las propias explosiones de supernovas. Los elementos inestables que se pudieran sintetizar en este último proceso terminan por desintegrarse, por eso no se encuentran elementos más pesados que el uranio (elemento número 92) en la Naturaleza. El resto se tienen que sintetizar en los laboratorios de Física Nuclear. En estos lugares se aceleran átomos ionizados y se los hace chocar contra otros a un décimo de la velocidad de la luz para forzar su fusión.

Las características químicas de los elementos dependen de los electrones. Éstos “órbitan” alrededor del núcleo por “capas” que se van llenando. Que la última capa esté más o menos llena produce las características químicas particulares del elemento. Por eso los elementos se distribuyen por grupos (columnas) en la tabla periódica, porque los elementos de una misma columna tienen propiedades similares al tener sus últimas capas rellenas de electrones de forma similar. Como el número de electrones depende del número de protones del núcleo, que es igual al número atómico, según aumenta éste se van llenando las distintas filas (periodos) de la tabla periódica de manera cíclica.

Foto
Número de neutrones (horizontal) frente a al número atómico (número de protones) para elementos superpesados. El color indicaría la vida media de los elementos. Foto: Yuri Organessian.

En la isla de estabilidad ha surgido la polémica. El elemento 114, que según su posición en la tabla periódica debería de comportarse químicamente como el plomo, según el grupo de Dubna parece que se comporta más bien como un gas noble. Achacan este supuesto comportamiento a un efecto relativista de los electrones más externos de los átomos de este elemento, que se moverían a una velocidad en la que los efectos relativistas se deberían de notar más.

Los efectos relativistas se observan en otros elementos que no son necesariamente exóticos, y no plantean problemas. Pero, según los teóricos, efectos tan dramáticos como los supuestamente observados en el elemento 114 sólo se darían en elementos muy muy pesados, del orden del 160 ó 170 de número atómico.

Quizás estos problemas son una consecuencia de que este elemento decaiga al cabo de unos segundos y no se puedan medir bien sus características químicas. Este elemento es producido fusionando núcleos de calcio y plutonio. El átomo resultante consigue su neutralidad eléctrica tomando electrones de la atmósfera de argón ultrafrío que es preparada dentro de un tubo recubierto interiormente de oro. Para medir sus características químicas lo más rápidamente posible los investigadores colocan este tubo en la zona de síntesis. Los átomos metálicos similares químicamente al plomo tenderían a fijarse a esa superficie de oro, recorriendo poca distancia desde su síntesis, pero un gas noble recorrería más distancia al no interaccionar químicamente con nada, y menos con el oro. Ésto es precisamente lo que observan estos investigadores para el elemento 114.

El grupo de Oganessian está ahora intentando sintetizar el elemento 120 y otros en la isla de estabilidad. Este investigador cree que a mayor distancia debe de haber otra u otras islas de estabilidad que deberían de ser exploradas en un futuro.
Cree que esta nueva isla, según las predicciones de los cálculos teóricos, debe de estar muy lejos de la primera, alrededor del número atómico 164. Es difícil llegar a esta isla y los físicos necesitarán aumentar la intensidad del haz de iones y probablemente construir nuevos aceleradores para esta meta.

Sobre las posibles aplicaciones de este tipo de investigaciones se podría citar como ejemplo el americio, elemento número 95 que fue descubierto en 1944, que se usa en detectores de humo y en medicina, así como en algunos procesos industriales. Aunque para los elementos superpesados cuesta imaginar aplicaciones, sobre todo por la poca cantidad que se puede sintetizar y lo rápido que desaparece.

Estos investigadores se mueven en el mar de isótopos a bordo de potentes maquinas, guiándose por cartas marinas (en parte teóricas) cuyas latitud y longitud son el número de protones y neutrones. Esperan llegar a una nueva isla sin que el “escorbuto” o el hambre les alcance. En cuanto a lo que haya en esas otras islas de estabilidad sólo lo sabremos cuando lleguen allí. Quizás les espere un El Dorado sólo para físicos, lleno de los elementos de comportamiento extraño.

Fuentes y referencias:
Nota en Eureka Alert.

La memoria del Universo

Según un modelo el Universo podría contener huellas del universo anterior a partir del cual habría rebotado en un proceso que ahora llamamos Big Bang.


Foto
La típica pregunta que todo inexperto realiza en una conferencia sobre Cosmología es esa de: ¿y qué había antes del Big Bang? Esta cuestión se solía solventar con el típico: “no hubo un antes, el tiempo se creó en el propio Big Bang”. La Relatividad General, que es la teoría que generalmente se usa para estudiar el origen y evolución del Universo, no proporciona respuestas a esta pregunta, pues deja de funcionar en ese régimen de altísima densidad de materia y energía que se dio al comienzo del Universo. Sus versiones cuantizadas (como la teoría cuántica de lazos) proporcionan algunas pistas sobre lo que ocurrió en ese instante o incluso antes. La ciencia avanza (es más bien un proceso que un listado de verdades absolutas) y los físicos ya se atreven a decir que quizás sí hubo un antes y a hablar de él. En esta misma web ya divulgamos algunos resultados previos al respecto.

Ahora se va a publicar en Physical Review Letters un resultado similar en este sentido. Según este nuevo trabajo teórico, el estado anterior al Big Bang sería un universo similar al nuestro con sus mismas leyes físicas, aunque no sería un gemelo de él.

Debate sobre “Una verdad incómoda

Unos científicos opinando sobre el documental “Una verdad incómoda” dicen que éste sirve para concienciar a la gente aunque contenga inexactitudes y exageraciones.

Foto
Carátula de la película de Al Gore “Una verdad incómoda”. Foto: Climate Crisis.
No hay duda de que el documental de Al Gore es un poderoso ejemplo de cómo el conocimiento científico puede ser difundido a una audiencia profana. Lo que se debate es si presenta adecuadamente los argumentos científicos que avalan que el calentamiento global está causado por la actividad humana. Los expertos en cambio climático expresan su opinión sobre la validez científica del documental en una serie de artículos publicados online por la revista GeoJournal que edita Springer.
La película versa sobre una campaña de Al Gore emprendida para educar a ciudadanos de todo el mundo sobre el calentamiento global e inspirarlos para que tomen medidas. Los artículos de GeoJournal están de acuerdo en que se hace una excelente labor sobre la concienciación del público, sobre el calentamiento global como producto humano y de cómo el aumento del dióxido de carbono lo produce a través del efecto invernadero.

Quizás no haya extraterrestres

Un modelo matemático sugiere que las posibilidades de encontrar formas de vida similares a las terrestres en planetas como la Tierra son bajas.


Foto
¿Hay alguien ahí afuera? Según un científico de University of East Anglia probablemente no.
Un modelo matemático de Andrew Watson sugiere que las posibilidades de encontrar formas de vida similares a las terrestres en planetas como la Tierra son bajas. Esto se debería al tiempo necesario para que surjan por evolución seres vivos similares a los humanos y a que su especie permanezca viva durante el tiempo suficiente.
La vida estructuralmente compleja y la inteligencia evolucionaron tarde en la historia de la vida en la Tierra. Además se ha sugerido que este proceso quizás esté dirigido por un número de pasos evolutivos pequeños pero muy improbables.
Watson tomó esta idea y la desarrolló basándose en la probabilidad de que cada uno de estos pasos críticos ocurriera en relación a la duración de la vida sobre el planeta. Como resultado obtuvo un modelo matemático para evolución de la vida inteligente.

sábado, 19 de abril de 2008

Sincronizan los movimientos de un péndulo real y un péndulo virtual

Científicos norteamericanos han conseguido por vez primera sincronizar los movimientos de un péndulo real y un péndulo virtual, valiéndose de los grandes avances de la tecnología computacional. Los investigadores introdujeron datos sobre el péndulo real en el virtual, y enviaron información sobre el virtual a un motor que regía el movimiento del péndulo real. Ambos péndulos se percibían el uno al otro, consiguiendo así que los dos sistemas se movieran sincronizadamente como si fueran un único péndulo. Las aplicaciones posibles van desde conocer mejor la realidad a partir de los mundos virtuales hasta aprender a pilotar un avión.



Fuente: Universidad de Illinois. Un equipo de científicos de la Universidad de Illinois, en Estados Unidos, ha creado el primer estado de realidad combinada en un sistema físico. Utilizando un péndulo virtual y otro real, que fueron ajustados el uno al otro mediante un acoplamiento bidireccional instantáneo, cada uno de ellos pudo “sentir” al otro.

Los movimientos de los dos péndulos se sincronizaron entre sí, y ambos comenzaron a balancearse como si fueran uno solo, informa dicha universidad en un comunicado.

Alfred Hubler, profesor del Departamento de Física, declaró que en un estado de realidad combinada no existe una frontera clara entre el sistema real y el sistema virtual. “La línea entre lo que es real y lo que no lo es se difumina”, añadió.

Sincronización del movimiento

En el experimento, Hubler y el estudiante Vadas Gintautas, conectaron el péndulo mecánico al virtual, que se movía según determinadas ecuaciones de movimiento. Los investigadores introdujeron datos sobre el péndulo real en el virtual, y enviaron información sobre el virtual a un motor que regía el movimiento del péndulo real.

En otras palabras, se introdujeron parámetros en el péndulo virtual y se produjo una retroalimentación de la información (que llegó al péndulo mecánico), consiguiendo así que los dos sistemas se movieran sincronizadamente. En este estado de realidad combinada, el péndulo real y el virtual se balancearon como si fueran uno.

Cuando las distancias de los dos péndulos eran diferentes, ambos se mantenían en un estado de realidad dual, manteniendo movimientos no sincronizados. Sin embargo, cuando la distancia era similar, ambos péndulos “de pronto, se percibían el uno al otro, sincronizando sus movimientos y danzando juntos indefinidamente”, afirmó Hubler.

Control del mundo físico

Aunque anteriormente ya se habían acoplado péndulos mecánicos para generar movimientos sincronizados, ésta es la primera vez que se acopla un sistema mecánico a un sistema virtual. El estado de realidad combinada resultante ha sido posible gracias a la velocidad informática de la tecnología computacional actual.

Según Hubler, los ordenadores son ahora lo suficientemente rápidos como para detectar la posición de un péndulo real, calcular la dinámica del péndulo virtual, y computar una información de vuelta apropiada para el péndulo físico. Un proceso que se desarrolla en tiempo real.

En otro artículo publicado por los científicos en la revista especializada Physical Review E, éstos señalan que con el rápido avance de la tecnología computacional, los sistemas virtuales se igualan a sus “dobles” reales con una precisión jamás lograda.

Estos estados de realidad combinada pueden usarse para analizar y controlar con gran exactitud sistemas reales. Además, se abre la posibilidad de explorar el hecho de que un mundo virtual pueda afectar a objetos del mundo físico.

Posibles aplicaciones

El experimento de Hubler y Gintautas demuestra las posibilidades que ofrece la realidad combinada. Dado que ésta se produce sólo cuando los sistemas virtual y real son similares, se pueden utilizar sistemas virtuales para aprender más sobre cualquier sistema real, al que no podamos tener acceso directamente.

De hecho, a medida que se ajusten los parámetros del sistema virtual para lograr la realidad combinada, los científicos aseguran que se podrán desarrollar estimaciones cada vez más exactas acerca del sistema real. Estas combinaciones perfeccionadas servirían, por ejemplo, para desarrollar video juegos o simuladores de vuelo.

Pero si los mundos virtuales se convierten cada vez más en afinadas descripciones del mundo real también podría existir un peligro. Según Hubler, podría llegar el momento, en una fase de transición, en el que la frontera entre realidad y realidad virtual desaparezcan.

Y eso podría ocasionar problemas, como que no seamos capaces de determinar qué es real y que no. En ese caso, cualquier individuo que percibiera una amenaza en un mundo virtual podría sentirse amenazado en el mundo real, y volverse agresivo en éste.

Por eso, advierte el científico, necesitaríamos comprender a fondo esta fase de transición potencial antes de que los sistemas virtuales mejoren hasta tal punto que realmente puedan inducir transiciones repentinas a estados de realidad combinada.

Interrealidad

La realidad combinada, a la que también se denomina realidad aumentada, es el campo de la tecnología que estudia la manera de combinar el mundo real con los mundos virtuales para producir nuevos entornos donde los objetos físicos y digitales coexistan e interactúen en tiempo real.

Esta realidad se está desarrollando en diversos sectores, como el arte o la industria del ocio, pero también en la educación o en el mundo empresarial. Para ellos, la realidad combinada supone, por ejemplo, que existan productos interactivos (como catálogos en tres dimensiones) o fórmulas de aprendizaje también interactivas.

En un contexto físico, el experimento de Hubler y Gintautas supone que un sistema de realidad virtual se acople a un sistema correspondiente que pertenece al mundo real, produciendo un estado de inter-realidad.

viernes, 18 de abril de 2008

¿Qué sucede cuando estallas un globo cuántico?


Un estudio en la revista Nature de esta semana encuentra sorprendentes similitudes entre el caos clásico y cuántico.
Cuando un hipotético globo diminuto, a escala cuántica es explotado en el vacío, ¿las partículas dentro del mismo se dispersan por todo el lugar de la misma forma que predice la mecánica clásica?.
La cuestión es aparentemente compleja, dado que las partículas cuánticas no se parecen ni actúan como las moléculas del aire de un globo real. La materia a la infinitesimalmente pequeña escala cuántica es tanto una onda como una partícula, y su posición no puede definirse con precisión debido a que la medida altera el sistema.

El gigantesco agujero negro de la Vía Láctea despertó hace 300 años

Un equipo de astrónomos japoneses que usan el XMM-Newton de la ESA, con satélites de rayos-X de la NASA y japoneses, ha descubierto que el agujero negro central de nuestra galaxia soltó una poderosa llamarada hace tres siglos
En nuestra galaxia, la nube de gas Sagitario B2
El descubrimiento ayuda resolver un misterio de largo tiempo: ¿Por qué está tan tranquilo el agujero negro de la Vía Láctea? El agujero negro, conocido como estrella A de Sagitario (A*), es un monstruo certificado que contiene más o menos 4 millones de veces la masa de nuestro Sol. Sin embargo, la energía que irradiada desde su entorno es mil millones de veces más débil que la radiación emitida por los agujeros negros centrales en otras galaxias.
"Nos hemos preguntado por qué el agujero negro de la Vía Láctea parece ser un gigante dormido", dice el líder del equipo, Tatsuya Inui de la Kyoto University, Japón. "Pero ahora nos damos cuenta de que el agujero negro estuvo mucho más activo en el pasado. Quizás está simplemente descansando después de una importante explosión".

Las observaciones, recogidas entre 1994 y 2005, revelaron que las nubes de gas cercanas al agujero negro central se iluminaron y se apagaron rápidamente a la luz de los rayos-X como respuesta a los pulsos de rayos-X que emanar desde afuera del agujero negro. Cuando el gas se acerca en espiral hacia dentro del agujero negro, se calienta a millones de grados y emite rayos-X. A medida que se acumula más materia cerca del agujero negro, la emisión de rayos-X crece.
Observaciones secuenciales de rayos-X

Estos pulsos de rayos-X tardan 300 años en cruzar la distancia entre el agujero negro central y una enorme nube conocida como Sagitario B2, de modo que la nube responde a los sucesos que ocurrieron 300 años antes.

Cuando los rayos-X llegan a la nube, chocan con átomos de hierro, quitando electrones que están cerca del núcleo atómico. Cuando los electrones de más lejos llenan estos vacíos, los átomos de hierro emiten rayos-X. Pero después de que el pulso de rayos-X pasa, la nube se apaga hasta su brillo normal.

Es asombroso; una región de Sagitario B2 de apenas 10 años-luz de ancho, cambió considerablemente su luminosidad en sólo 5 años. Estos sucesos (avivamientos) son conocidos como ecos de luz. Al resolver la línea espectral de rayos-X del hierro, las observaciones de Suzaku fueron cruciales para eliminar la posibilidad de que unas partículas subatómicas causaran esos ecos de luz.
"Al observar cómo se encendía y apagaba esta nube durante 10 años, pudimos rastrear hacia atrás la actividad del agujero, 300 años atrás", dice Katsuji Koyama de la Kyoto University y miembro del equipo. "El agujero negro era un millón de veces más brillante hace tres siglos. Debe haber soltado un destello increíblemente poderoso".

Este nuevo estudio se basa en la investigación de varios grupos que iniciaron la técnica del eco de luz. El año pasado, un equipo liderado por Michael Muno, que ahora trabaja en el California Institute of Technology, California, EE.UU., usó las observaciones de los ecos de luz (rayos-X) del Chandra para mostrar que Sagitario A* había generado una poderosa explosión de rayos-X unos 50 años atrás; unos doce años antes de que los astrónomos tuvieran satélites que detectaran rayos-X desde el espacio exterior. "La llamarada de hace tres siglos fue 10 veces más brillante que la que nosotros detectamos", dice Muno.

El centro galáctico está a unos 26.000 años-luz de la Tierra, y eso significa que vemos los eventos que ocurrieron hace 26.000 años. Los astrónomos todavía no tienen una detallada comprensión de por qué Sagitario A* varía tanto su actividad. Una posibilidad, dice Koyama, es que una supernova, algunos siglos atrás, recogió el gas y lo barrió dentro del agujero negro; eso pudo conducir a un frenesí alimentario temporal que despertó al agujero negro de su sueño y produjo el gigantesco destello.

miércoles, 16 de abril de 2008

El primer viaje en el tiempo tendrá lugar este siglo

Un nuevo prototipo de máquina del tiempo que, en vez de objetos masivos, utiliza energía luminosa en forma de rayos láser para curvar el tiempo, ha sido ideada por el físico de la Universidad de Connecticut, Ronald Mallet. Ha utilizado ecuaciones basadas en las teorías de la relatividad de Einstein para observar la curvatura del tiempo a través de un rayo de luz circulante obtenido por medio de una disposición de espejos e instrumentos ópticos. Aunque su equipo aún necesita fondos para el proyecto, Mallett calcula que este método permitirá que el ser humano viaje en el tiempo quizá antes de un siglo.


Agujero de gusano. HSW.

En la teoría especial de la relatividad (1905), Einstein enunció que el intervalo de tiempo medido por un reloj depende de su estado de movimiento. Los relojes de dos sistemas de referencia que se muevan de manera diferente registrarán lapsos de tiempo distintos entre los mismos acontecimientos. Este efecto es conocido como “dilatación” del tiempo.

La dilatación del tiempo se hace realmente notable cuando el movimiento relativo de los sistemas de referencia en los que viajan los relojes implica velocidades cercanas a la velocidad de la luz (300.000 km/seg), de ahí que en la vida corriente no la percibamos directamente. A la velocidad de un avión, por ejemplo, la dilatación del tiempo se sitúa en el orden del “nanosegundo” (la milmillonésima fracción de un segundo), una cantidad muy pequeña para nosotros que, no obstante, ha llegado a ser registrada por relojes atómicos extremadamente precisos, confirmando así el enunciado de Einstein.

Si la velocidad proporciona una manera de distorsionar el tiempo, la gravedad es otra. En la teoría general de la relatividad (1916) Einstein predijo que la gravedad retarda igualmente el tiempo. En la superficie de una estrella de neutrones la gravedad adquiere tal intensidad que el tiempo se retrasa allí un 30 por ciento con respecto al tiempo medido en la Tierra. Un agujero negro representa la máxima distorsión posible del tiempo: en su superficie el tiempo, literalmente, se detiene.

La máquina del tiempo de Ronald Mallett

Diversos fenómenos físicos se han propuesto como métodos para viajar en el tiempo, pero ninguno de ellos (agujeros negros, agujeros de gusano o cuerdas cósmicas) parece fácilmente realizable, pues para llegar a distorsionar lo suficiente el espacio-tiempo requieren una cantidad de masa gravitatoria increíblemente grande. Como alternativa a estos métodos, Ronald Mallett, de la Universidad de Connecticut, basa su propuesta de máquina del tiempo en la famosa ecuación de Einstein, E=mc2, que establece la equivalencia entre masa y energía. Para curvar el tiempo, su dispositivo utiliza, en lugar de objetos masivos, energía luminosa, en la forma de haces de rayos láser.

Tal como ha explicado a PhysOrg, Mallett ha diseñado un experimento para determinar la existencia de lazos temporales en el que, por medio de una disposición de espejos e instrumentos ópticos, se produce un haz de luz circulante, cuya energía debería curvar el espacio a su alrededor.

De acuerdo con la teoría de la relatividad, la curvatura del espacio afecta igualmente al tiempo, de manera que éste se dilataría en las inmediaciones del haz de luz ofreciendo la posibilidad de observar ahí partículas inestables que contienen una especie de reloj interno: se desintegran en un “tiempo medio” de vida extremadamente breve, que se vería dilatado por efecto de la curvatura del espacio-tiempo, algo que no se observaría en regiones más alejadas del haz. La dilatación de su tiempo medio de vida significa que la partícula ha avanzado hacia el futuro a través de un lazo temporal.

Este efecto recuerda al que se estudia en los grandes aceleradores que impulsan las partículas subatómicas a velocidades cercanas a la de la luz. En concordancia con la relatividad especial de Einstein se observa experimentalmente que el tiempo medio de vida de las partículas inestables que se mueven rápidamente en los aceleradores se estira y su reloj interno transcurre más despacio, de manera que su tiempo medio de vida aumenta, favoreciendo así su detección.

El viaje humano en el tiempo

Cuándo los humanos seremos capaces de viajar en el tiempo depende en gran medida, dice Mallett, del éxito de estos experimentos con partículas, de la existencia de financiación para los mismos y del progreso de la tecnología. Confía en que el ser humano podrá viajar en el tiempo quizá antes de un siglo, ya que la posibilidad de viajar en el tiempo usando este método podría ser verificada en una década.

Mallett publicó su primera investigación sobre el viaje en el tiempo en el año 2000, y desde los años 70 ha investigado sobre gravedad cuántica, cosmología relativista y teorías “gauge” (la clase de teorías que permiten la unificación de interacciones físicas de diferente tipo, como la electricidad, el magnetismo o las interacciones nucleares débil y fuerte).

Como viajero del tiempo usted podría escoger, llegado el momento, entre viajar al futuro o al pasado. Viajar al futuro no entraña complicaciones teóricas, como hemos visto. Para quien hiciese un viaje de ida y vuelta a una velocidad cercana a la de la luz o atravesando un campo gravitatorio muy intenso, habría transcurrido menos tiempo que para quienes quedaron en el punto de partida. A su regreso a casa, el viajero encontraría todo lo que dejó y a su hermano gemelo mucho más envejecidos que él. El viaje hacia el pasado, por el contrario, plantea dificultades teóricas difíciles de afrontar, aunque la física no impide expresamente este segundo tipo de viaje: la teoría de la relatividad lo permite en ciertas configuraciones particulares del espacio-tiempo.

Proponen una alfombra voladora basada en las leyes de la física

Un equipo de físicos ha sentado las bases teóricas para la fabricación de una alfombra voladora a partir del estudio de los movimientos aerodinámicos de una lámina flexible y ondulante inmersa en un fluido y situada cerca de una pared rígida. De manera similar a como nada un pez raya en el fondo del mar, la lámina podía mantenerse, sometida a ciertas condiciones, separada de dicha pared, y moverse gracias a una serie de ondas. Sin embargo, para que una alfombra de gran tamaño llegara a flotar y moverse en el aire, se necesitarían motores de gran potencia que generaran unas ondas relativas a su tamaño. Este es el principal obstáculo para que la alfombra voladora deje de ser un mito y se convierta en realidad, señalan los científicos.



Esquema gráfico de la aparición de fuerzas aerodinámicas en una superficie ondulante. PNAS.

Un equipo de científicos franceses y norteamericanos ha ideado una propuesta para la fabricación de una alfombra voladora basada en las leyes de la física, según explican en la prestigiosa revista Physical Review Letters en su edición del pasado noviembre.

Lakshminarayanan Mahadevan, de la Universidad de Harvard, Mederic Argentina, del Institute no linéaire de Niza, y Jan Skotheim, de la Universidad de Rockefeller, en Nueva York, estudiaron la aerodinámica (rama de la mecánica de fluidos que investiga la actividad de los cuerpos sólidos cuando éstos están inmersos en un gas) de una lámina flexible y ondulante en movimiento a través de un fluido y cerca de una pared rígida, descubriendo que teóricamente sería posible fabricar una superficie que se mantenga flotando en el aire, propulsada por ondas alimentadas con energía.

Alfombra diminuta

El invento funcionaría de la misma forma que nada una raya marina en el agua explica en su blog el escritor especializado en ciencia Philip Ball. Estos peces son cartilaginosos y se distinguen por la forma aplanada del cuerpo, en el que las aletas pectorales se unen al tronco formando una especie de disco.

La revista Futura-Science señala que los investigadores tomaron la idea de la alfombra voladora de la observación de la estructura de las hojas de los vegetales y de la manera en que el viento hace ondear las banderas. Su estudio ha demostrado cómo unas fuerzas aerodinámicas que fluyan alrededor de una estructura de dos dimensiones, en movimiento en un fluido, serían suficientes como para hacer ondular dicha estructura.

Los cálculos realizados por los físicos, que también son matemáticos, les han permitido presentar una serie de cifras: para flotar en el aire, la alfombra debería ser de diez centímetros de largo y 0,1 milímetros de grosor, vibrando con una longitud de onda de 0,25 milímetros y una frecuencia de 10 hercios (estas ondas se sucederían a razón de 10 por segundo). En estas condiciones, la alfombra se desplazaría a 0,3 metros por segundo.

El problema real, más allá de la teoría: que para que una alfombra más grande pudiera volar se requeriría un motor tan potente para la producción de las ondulaciones necesarias que los científicos aseguran que no es factible.

Ondas y presión

Aún así, la clave del funcionamiento radicaría en la creación de un levantamiento similar al de las ondas en una posición opuesta a un fluido. Si la alfombra está cerca de una superficie horizontal, como si fuera una hoja situada sobre el suelo, entonces los movimientos ondulantes pueden generar una gran presión en la separación entre la alfombra y el suelo.

Al propagarse las ondas a través de dicha separación, a lo largo de la hoja o de la alfombra, se generaría un fluido que produciría la presión necesaria para elevarlas, equilibrando su peso.

Pero al tiempo que la levantan, las ondas podrían hacer que la alfombra se moviese. Esto se conseguiría si las ondas se propagaran a partir de un margen determinado, lo que ocasionaría que la superficie basculara suavemente en primer lugar, para después moverse en una dirección, hacia el lado que se encuentre ligeramente más alto.

El fluido sería entonces impulsado desde un extremo al otro, permitiendo que la alfombra avance, de la misma manera que una raya, explican los científicos.

Más fácil bajo el agua

Para generar un “empujón” fuerte y, por tanto, una gran velocidad, la alfombra debería ser sometida a potentes ondas, relativas a su tamaño. Como sucede con cualquier medio de transporte, a mayor velocidad se producirían más sacudidas que a menor velocidad, por lo que, para que el viaje fuera “suave” los científicos afirman que deberían generarse una gran cantidad de ondas pequeñas. Aún así, el viaje sería más lento que con grandes ondas.

A pesar de todas estas consideraciones, la demostración no ha pasado aún de ser más que una teoría. Al menos en el aire. Por el contrario, bajo el agua, las condiciones serían distintas debido a que la densidad del fluido es miles de veces mayor que la del aire, lo que haría posible la aplicación de este principio. De hecho, así es como nadan numerosas especies acuáticas que se desplazan haciendo ondular la superficie flexible de sus cuerpos.

También han sido demostrados los movimientos ondulantes espontáneos en polímeros suspendidos en fluidos, que se encogen o inflan en respuesta a señales externas.

Un equipo de científicos de la Universidad de Harvard publicaron el año pasado en la revista Science la descripción del movimiento de láminas flexibles de plástico recubierto con células cultivadas de músculos de ratas que se flexionaban en respuesta a señales eléctricas, y así se movían. En el aire, este mismo efecto sería posible con materiales muy ligeros o con motores altamente potentes, aseguran los científicos.

Por otro lado, en 2005 los autores de la propuesta de alfombra voladora ya habían publicado en PNAS un artículo en el que ya destacaban que sobre una superficie ondulante en un fluido, aparecen espontáneamente las fuerzas aerodinámicas, que es la base de su nueva iniciativa.

Cubo de Rubik

El cubo de Rubik (o cubo mágico mecánico inventado por el escultor, como se lo conoce en algunos países) es un rompecabezas y profesor de arquitectura húngaro Ernö Rubik en 1974.

Se trata de un conocido rompecabezas cuyas caras están divididas en cuadros de un mismo color sólido cada una, los cuales se pueden mover. El objetivo del juego consiste en desarmar la configuración inicial en orden y volverla a armar.

Se ha estimado que más de 100 millones de cubos de Rubik o imitaciones han sido resueltos a lo largo del mundo entero. Su mecanismo sencillo sorprende tanto desde el punto de vista mecánico, al estudiar su interior, como por la complejidad de las combinaciones que se consiguen al girar sus caras. El cubo celebró su anversario número 25 en 2005 por lo que una edición especial del mismo salió a la venta en la que la cara blanca fue remplazada por una reflejante en la que se leía "Rubik's Cube 1980-2005".

En el cubo típico cada cara está cubierta por nueve estampitas de un color sólido. Cuando está resuelto cada cara es de un mismo color sólido. Sin embargo, el rompecabezas viene en cuatro versiones: el 2x2x2x2 "Cubo de bolsillo", el 3x3x3x3 el cubo de Rubik estándar, el 4x4x4 (La venganza de Rubik y el 5x5x5 (Cubo del profesor). Cubos aún más complejos serán lanzados en Septiembre de 2008.

Número de combinaciones posibles

El grupo de todas las permutaciones posibles del Cubo de Rubik es el siguiente: por una parte podemos combinar entre sí de cualquier forma todos los picos lo que da lugar a 8!\,\! posibilidades. Con las aristas pasa lo mismo, es decir, que podemos combinarlos como queramos lo que da lugar a 12!\,\! posibilidades, pero la permutación total de vertices y aristas debe de ser en total par lo que nos elimina la mitad de las posibilidades. Por otra parte, podemos rotar todos los vértices como queramos salvo uno sin cambiar nada más en el cubo. La orientación del último vértice vendrá determinada por la que tenga los otros siete y esto nos crea 3^7\,\! posibilidades. Con las aristas pasa lo mismo, es decir, nos aparecen 2^{11}\,\! posibilidades más. En total tendremos que el número de permutaciones posibles en el Cubo de Rubik es de:

{8! \cdot 12! \cdot 3^7 \cdot 2^{11}} \over 2 = 43.252.003.274.489.856.000


Un poco mucho, no les parece?


Apophis sigue sin ser el asteroide que acabará con la Tierra

Imagino que la noticia que dice que Un niño de 13 años demuestra que la NASA erró al calcular la probabilidad de colisión del «Apophis» con la Tierra en 2029, en la que se comenta como este niño ha demostrado que si el asteroide Apophis chocara con algún satélite artificial su órbita podría verse modificada de tal modo que en un próximo paso por las cercanías de la Tierra su riesgo de impacto pasaría de 1 en 45.000 a 1 en 450, será repetida hasta la saciedad durante, al menos, lo que queda de semana, en especial ahora que AP la está distribuyendo por todo el mundo…

El único problema es que no es cierto que la NASA haya recalculado nada.

Según se puede leer en Apophis risk not increased: science fair judges, world media screw up big time el editor del blog se puso en contacto con Donald K. Yeomans, el director del programa NEO de la NASA, para preguntarle sobre este tema, y Yeomans le contestó que

No hemos mantenido ninguna correspondencia con este joven y esta historia es absurda, una broma, o ambas cosas. Durante su aproximación a la Tierra de 2029 Apophis llegará a unos 38.900 kilómetros de esta, ciertamente por debajo de la altura geosíncrona de 42.240 kilómetros. De todos modos, el asteroide cruzará el cinturón ecuatorial a una distancia de 51.000 kilómetros - muy por encima de la distancia geosíncrona. Dado que la incertidumbre acerca de la posición de Apophis es de unos 1.500 kilómetros, Apophis no se aproximará a ningún satélite. Apophis tampoco cruzará el plano orbital de la Luna a la distancia de la órbita de la Luna con lo que tampoco podrá chocar con esta.

El viejo síndrome de no comprobar las fuentes, vaya.

Igual que les pasó ayer mismo a varios medios españoles al tragarse por completo la noticia sobre una supuesta oleada de avistamientos OVNI en España que en realidad no existió sino que se montó en un intento de «colársela» a Iker Jiménez como cuenta Luis Alfonso Gámez en 20 Minutos, Telecinco y Los 40 Principales se tragan una invasión alienígena fabricada en Internet

Actualización: La NASA confirma en NASA Statement on Student Asteroid Calculations lo que dice Donald Yeomans respecto a que no ha mantenido ningún contacto con este estudiante alemán y que mantiene sus estimaciones de impacto en 1 a 45.000.

Google Earth 4.3 beta



Ya es posible descargar la versión versión 4.3 beta de Google Earth. No hay grandes cambios respecto a la versión actual (para eso habrá que esperar probablemente a la versión 5.0), aunque sí algunas mejoras de navegación y rendimiento.



El cambio más notable es precisamente el referente a los controles de navegación, más fáciles de manejar tanto con los deslizadores como con los botones del ratón. Estos es especialmente apreciable en movimientos paralelos al suelo de cara a apreciar los objetos y punto de vista tridimensionales

Otra de las mejoras se refiere al rendimiento en el poscionado y dibujado de objetos 3D incluso con texturas complejas. Esta mejora también se aplica al modo cielo (Google Sky) que es mucho más rápido.

Además, la adición de un control de tiempo, que permite desplazarse manua o automáticamente a lo largo de un rango de 24 horas, permite modificar la iluminación de las escenas; esto afecta a la luz ambiente (amanecer, día, anochecer y noche), a cómo incide la luz en los objetos (edificios principalmente) en 3D e incluso el tono de las nubes si las hay —que se activan en la capa Tiempo > Nubes.

En 5 años desaparecen las consolas para juegos

Malas noticias para nosotros, los viciosos:

La histórica guerra entre software -con el aliado incondicional de Internet- y hardware ahora parece definir un nuevo round en contra del hardware: el ocaso de las consolas de los videojuegos. Así lo entiende Sandy Duncan, ex director de XBox Europa.

Duncan sostiene su predicción en su apuesta a la virtualización. "La industria está controlada fundamentalmente por la tecnología. Creo que los dispositivos dedicados a los juegos, como las consolas y las consolas portátiles, desparecerán entre los próximos 5 y 10 años", explicó Duncan en su blog ThatVideoGameBlog

El especialista en videojuegos considera que el sustituto de las consolas serán los servicios en red “virtualizados" por los proveedores de acceso a Internet.. En este sentido considera que las consolas se parecen más a los reproductores multimedia.

"Apenas hay diferencias tecnológicas entre algunos grabadores multimedia en disco duro y una Xbox 360, por ejemplo. De hecho de aquí a cinco o diez años no creo que tengamos ninguna caja bajo el televisor; el proveedor de contenidos virtualizará la mayoría de estas cosas como servicios web", concluye

Teoría del caos - Definición

Ahora les voy a hacer una descripción mas detallada sobre la teoría del caos.

La teoría del caos es la denominación popular de la rama de las matemáticas y la física que trata ciertos tipos de comportamientos impredecibles de los sistemas dinámicos. Los sistemas dinámicos se pueden clasificar básicamente en:
  • Estables
  • Inestables
  • Caóticos

Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.

Una de las mayores características de un sistema inestable es que tiene una gran independencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen la atmósfera terrestre, el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.

Por ejemplo, el tiempo atmosférico, según describió Edward Lorenz, se describe por 3 ecuaciones diferenciales bien definidas. Siendo así, conociendo las condiciones iniciales se podría conocer la predicción del tiempo en el futuro. Sin embargo, al ser éste un sistema caótico, y no poder conocer nunca con exactitud los parámetros que fijan las condiciones iniciales (en cualquier sistema de medición, por definición, siempre se comete un error, por pequeño que éste sea) hace que aunque se conozca el modelo, éste diverja de la realidad pasado un cierto tiempo. Por otra parte, el modelo atmosférico es teórico y puede no ser perfecto, y el determinismo, en el que se basa, es también teórico.

Movimiento caótico

Para poder clasificar el comportamiento de un sistema como caótico, el sistema debe tener las siguientes propiedades:

Sensibilidad a las condiciones iniciales significa que dos puntos en tal sistema pueden moverse en trayectorias muy diferentes en su espacio de fase incluso si la diferencia en sus configuraciones iniciales son muy pequeñas. El sistema se comportaría de manera idéntica sólo si sus configuraciones iniciales fueran exactamente las mismas. Un ejemplo de tal sensibilidad es el así llamado "efecto mariposa", en donde el aleteo de las alas de una mariposa puede crear delicados cambios en la atmósfera, los cuales durante el curso del tiempo podrían modificarse hasta hacer que ocurra algo tan dramático como un tornado. La mariposa aleteando sus alas representa un pequeño cambio en las condiciones iniciales del sistema, el cual causa una cadena de eventos que lleva a fenómenos a gran escala como tornados. Si la mariposa no hubiera agitado sus alas, la trayectoria del sistema hubiera podido ser muy distinta.

La sensibilidad a las condiciones iniciales está relacionada con el exponente Lyapunov. El exponente Lyapunov es una cantidad que caracteriza el radio de separación de trayectorias infinitesimalmente cercanas.

Transitividad significa que hay muchas órbitas densas.

Teoría del Caos y fractales

La Teoría del Caos surgió cuando Edward Lorenz dio a conocer en 1963 un modelo climático que, por su comportamiento, atrajo la atención de muchos físicos, aunque se basa en trabajos anteriores, como los de Julia, Poincaré o Lyapunov. Junto a la mecánica cuántica y a la teoría de la relatividad, se considera la tercera gran teoría del siglo XX. Algunos la consideran como la ciencia de la totalidad, ya que consideran determinismo e indeterminismo como uno solo.

La Teoría del Caos ha tenido gran relevancia en muchos campos científicos actuales como la medicina, la biología, la ingeniería, la economía y otras.

En el campo de la medicina se pueden encontrar varias estructuras fractales: redes neuronales, disposición espacial de las glándulas, etcétera.

Dentro de la Ingeniería la teoría del Caos se entiende como un herramienta de análisis, que ha permitido afrontar problemas que hasta hace poco era imposible abordar como, por ejemplo, responder a las siguientes cuestiones:

  • Las leyes de propagación de una fractura
  • Las averías de máquinas
  • Porqué las nubes de humo de dos cigarrillos, de la misma marca, encendidos a la vez, no se parecen en nada tras un breve periodo de tiempo

En la Teoría del Caos un sistema dinámico puede referirse a la bolsa para un economista o al corazón humano para un médico, y algunos científicos consideran la teoría fractal como una herramienta necesaria para estudiar sistemas dinámicos como los mencionados anteriormente u otros que suceden en la naturaleza.

El atractor es uno de los conceptos fundamentales del Caos, que se utiliza para representar la evolución en un sistema dinámico. Este tipo de representación ya había sido usado por Henri Poincaré. Dentro de los atractores aparece un tipo denominado atractores extraños.

Introducción al mundo fractal

Hausdorff planteó la idea de que los objetos tuviesen más de dos dimensiones pero menos que tres, lo cual dio origen al término "dimensión fractal". A partir de ese momento se intentó demostrar que dichos objetos puedan darse en la realidad. Otra definición de fractal es la que da Benoît Mandelbrot, quien considera fractal a aquellos objetos con tamaño y orientación variables y que en cada instante tiene un aspecto similar al anterior.

La dimensión fractal se puede calcular de diferentes formas. Una es el exponente de Hurst: muchas estructuras en la naturaleza poseen la característica de partir de dos dimensiones y acabar en una dimensión fraccional entre 2 y 3. Estos objetos se pueden representar mediante gráficos, en los cuales es posible medir su dimensión fractal. La relación que existe entre los fractales y el caos es que aquellos son la manera de representarlo gráficamente.

domingo, 13 de abril de 2008

Los videojuegos son cosa de hombres


egún un estudio los videojuegos activan el sistema cerebral de la recompensa de los hombres en mayor medida que lo hacen en las mujeres.

No es difícil darse cuenta que los videojuegos gustan más a los hombres que a las mujeres. Lo que no estaba claro era la razón. Los antropólogos culturales, empeñados en ver condicionamientos culturales por todos lados dirían que esto es una manifestación cultural más. Pero quizás tengamos más condicionamientos biológicos y menos culturales que los que estos señores están dispuestos a admitir.

Un estudio de la Universidad de Stanford publicado en Journal of Psychiatric Research pone de manifiesto que, al menos en el terreno de los videojuegos, existen diferencias biológicas entre el cerebro de los hombres y el de las mujeres. En él los investigadores implicados muestran que parte del cerebro que se encarga de proporcionar sentimientos de recompensa está más activo en hombres que en mujeres durante una partida de videojuego.

Se puede sobrevivir al vacío espacial por un tiempo

Basándose en experimentos hechos en los sesenta en animales y en accidentes ocurridos a humanos se puede afirmar que un ser humano podría sobrevivir a las condiciones del espacio exterior por un tiempo breve sin que le quedaran secuelas.

La posibilidad de que Dave Bowman de la película “2001: Una odisea en el espacio” o que Douglas Quaid de “Desafío total (Total Recall)” pudieran sobrevivir al vacío nos parecen muy bajas. En estas películas sobreviven, pero en otras algunos personajes son inyectados en el vacío espacial y mueren de manera rápida y silenciosa. En otras como en “Atmósfera cero (Outland)” incluso podemos “disfrutar” viendo las vísceras humeantes.
En realidad los experimentos con animales y los accidentes con humanos indican que las personas pueden sobrevivir a las condiciones del vacío al menos un par de minutos. Aunque eso no significa que estén conscientes todo ese tiempo y puedan rescatarse a sí mismos. Pero si un astronauta tuviera un accidente de este tipo los demás miembros de la tripulación podrían rescatarlo y presurizarlo con escasas secuelas para la víctima.

Grafito y energía oscura


La posible presencia de filamentos de grafito en el medio interestelar podría hacernos creer que la energía oscura existe, cuando quizás no sea así.

La propuesta de la energía oscura tiene unos diez años. En esa época se comprobó que las explosiones de supernovas de tipo Ia utilizadas como candelas estándar tenían un brillo aparente menor cuanto más lejos se encontraban. Esto hizo pensar a los expertos que el Universo se está expandiendo a un ritmo acelerado. Para explicar esta aceleración se propuso la presencia de una energía de naturaleza desconocida que llenaría todo el Universo y que, como una suerte de “antigravedad”, produjera esta expansión acelerada.

Ahora expertos del Carnegie Institution sostienen que quizás la presencia de partículas de carbono o filamentos compuestos de grafito en el medio interestelar podría dar cuenta de parte del menor brillo aparente de objetos lejanos, incluyendo explosiones de supernovas de tipo Ia, por lo que habría implicaciones en el cálculo de la supuesta aceleración de la expansión del Universo o sobre la energía oscura.