Fundación científica

Donde la ciencia y el ser humano convergen

Los investigadores en inteligencia artificial a menudo idealizan las Leyes de la Robótica de Isaac Asimov como indicadores de la interacción robot-humano. Pero algunos expertos en robótica dicen que la idea podría usar una remodelación práctica para reconocer las actuales limitaciones de los robots.

Los robots auto-conscientes que habitan las historias de Asimov y otras tales como “2001: Odisea en el Espacio” y “Battlestar Galactica” siguen en el futuro lejano. Los robots actuales aún carecen de cualquier tipo de autonomía real para tomar sus propias decisiones o adaptarse inteligentemente a nuevos entornos.

Pero el peligro surge cuando los humanos empujan a los robots más allá de sus actuales límites de toma de decisiones, advierten los expertos. Esto puede llevar a errores e incluso a tragedias implicando a robos en fábricas o en operaciones militares, cuando los humanos olvidan que toda la responsabilidad ética y legal aún descansa sobre los hombros del homo sapiens.

“La fascinación por los robots ha llevado a alguna gente a tratar de evitar la responsabilidad de decisiones complejas, con consecuencias potencialmente malas”, dijo David Woods, ingeniero de sistemas en la Universidad Estatal de Ohio.

Woods y un compañero investigador propusieron revisar las Tres Leyes para enfatizar la responsabilidad humana sobre los robots. También sugirieron que los manejadores de los robots en Tierra podrían tomar pistas de la NASA cuando se trata de interacción robot-humano.

Actualizando a Asimov

Las Tres Leyes de Asimov están fijadas en un futuro en el que los robots pueden pensar y actuar por sí mismos. La primera ley prohíbe que los robots dañen a los humanos o que los humanos queden dañados por inacción, la segunda ley requiere que los robots obedezcan las órdenes de los humanos salvo que entre en conflicto con la primera ley. La tercera ley requiere que los robots protejan su propia existencia, excepto cuando hacer esto entre en conflicto con las dos leyes anteriores.

Corea del Sur ha usado estas “leyes” como una guía para su Carta de Ética Robótica, pero Woods y sus colegas creen que carecen de algunos puntos vitales.

Woods trabajó junto con Robin Murphy, experto en robótica de rescate de la Universidad Texas A&M, para crear tres leyes que reconozcan a los humanos como los adultos inteligentes responsables de las relaciones robot-humano. Su primera ley dice que los humanos no deben desplegar robots sin un sistema de trabajo que cumpla con los mayores estándares profesionales y legales de seguridad y ética. Una segunda ley revisada requiere que los robots respondan a los humanos de forma adecuada a sus papeles, y se asume que los robots están diseñados para responder a ciertas órdenes de un número limitado de humanos.

La tercera ley revisada propone que los robots deben tener suficiente autonomía para proteger su propia existencia, siempre que tal protección no entre en conflicto con las dos leyes anteriores y permita una transferencia suave de control entre humano y robot. Esto significa que el róver de Marte debería saber automáticamente que no debe ir hacia un acantilado, salvo que los operadores humanos le digan específicamente que lo haga.

Woods y Murphy ven necesaria tal revisión dado que los fabricantes de robots no reconocen la responsabilidad humana sobre los robots. Murphy dijo que tal actitud procede de la cultura del software de ordenador, donde la responsabilidad conlleva menos consecuencias que crear una máquina la cual termine hiriendo a los humanos o dañando una propiedad.

“Lo que sucede es que vemos a robotistas que nunca han fabricado o trabajado en el mundo físico, y no se dan cuenta de que son los responsables”, dijo Murphy a SPACE.com. “Al final del día, si haces algo, es tu problema”.

Esto contrasta con la actitud de la “cultura de la seguridad” de la NASA y la aproximación metódica que prueba cuidadosamente los róvers y sondas robóticas, reconoce los límites de los robots e intenta asegurar que los operadores humanos puedan saltar rápidamente al asiento del conductor cuando sea necesario.

El camino de la NASA

Tanto Woods como Murphy dijeron que se sienten muy cómodos con la aproximación de la NASA a las interacciones robot-humano, ya sea implicando a brazos robóticos en la Estación Espacial Internacional o a la sonda Cassini haciendo su tour por el sistema de Saturno.

“Comprenden cómo de valiosos son los recursos robóticos”, explicó Woods. “Saben que habrá sorpresas en la exploración espacial”.

Murphy señala que la aproximación de la NASA a los robots procede de la tradición de IA donde la gente no hace suposiciones sobre tener un control perfecto sobre todo. El lugar de esto, la agencia espacial ha usado sistemas de IA que pueden funcionar bien dentro de los patrones normales de operación, y aún así pueden depender de asistencia humana para las situaciones más inciertas.

Esta aproximación ha funcionado bien en el caso de la NASA en muchas ocasiones. Por ejemplo, los científicos han hecho hábiles maniobras con los róvers de Marte Spirit y Opportunity, cuando los robots encuentran problemas impredecibles en el terreno y clima marciano.

Por el contrario, algunos investigadores sin un trasfondo de IA asumen que pueden programar robots que tengan un modelo o visión completa del mundo, y que pueden comportarse adecuadamente para cualquier situación dada. Esto coincide con la tentación de suponer que dar a los robots más autonomía significa que pueden manejar la mayor parte, o todas, las situaciones por sí mismos.

Murphy advirtió que tal aproximación de “mundo cerrado” sólo funciona en ciertas situaciones que presentan opciones limitadas para una IA. No importa cuánta programación incluyan los robots, el mundo real abierto representa un agujero lleno de trampas y escenarios inesperados.

Transferencia de control

La NASA indudablemente aún quiere ver que los robots pueden tomar más responsabilidad, especialmente durante misiones cuando las sondas viajan más allá de la Luna o Marte. Los investigadores han empezado a desarrollar la siguiente generación de robots que podrían algún día tomar las decisiones más básicas al explorar mundos como Europa o Titán.

Pero por ahora, la NASA ha reconocido que los robots aún necesitan supervisión humana – un concepto que algunos fabricantes y operadores de la Tierra tienen problemas para aceptar. Situaciones inesperadas tales como un mal funcionamiento del robot o sorpresas ambientales que pueden requerir que los humanos recobren rápidamente el control del robot, por un fallo a la respuesta correcta.

“Ahora mismo, lo que vemos una y otra vez es que transferir el control es un problema”, señala Murphy. Observa cómo los operadores humanos rápidamente entran en problemas al manejar robots en “Disaster City” de Texas A&M”, un área de simulación de entrenamiento para rescate. Parte del problema también surge cuando la gente no sabe las capacidades de su robot.

La NASA se permite el lujo de tener un equipo de científicos vigilando sus exploradores robóticos, en lugar de sólo operadores humanos. Pero los controladores de misión también mantienen una alta conciencia de los límites de sus exploradores robóticos, y saben cómo tomar suavemente el control.

“Comprenden que cuando tienen seguridad o bajo riesgo, pueden delegar más autonomía en el robot”, dijo Woods. “Cuando pasan cosas inusuales, restringen la autonomía”.

Woods comparó la situación a los padres que colocan un perímetro de seguridad dentro del cual los niños pueden explorar. Esta analogía puede continuar sirviendo tanto para la NASA como para otros manejadores de robots.

“La gente está dando este salto de fe sobre que la autonomía de los robots aumentará y resolverá nuestros problemas”, añade Woods. “Pero no hay muchas pruebas sobre que la autonomía por sí misma eliminarán estas decisiones difíciles y de alto riesgo”.

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Paradójicamente, la teoría del motor de curvatura tiene su origen en la ficción: se trata del mecanismo que permite a los personajes de la serie de ciencia ficción Star Trek surcar el espacio más rápido que la luz, o a velocidades superluminares, mediante la distorsión del espacio tiempo.

Su salto al terreno científico tuvo lugar en 1994, año en el que el físico mexicano Miguel Alcubierre publicó un artículo en la revista Classical and Quantum Gravity titulado “El motor de curvatura: viaje hiperveloz en el marco de la Relatividad General”. Este trabajo aprovecha la flexibilidad de la geometría del espacio tiempo, que se curva en presencia de materia del mismo modo en que, por ejemplo, una pelota situada sobre una sábana tensada curva el tejido a su alrededor. En el Universo, los objetos de mayor masa producen curvaturas más acentuadas. Sobre esta base, Alcubierre diseñó un medio de transporte en forma de burbuja con paredes compuestas de materia exótica (un tipo de materia aún hipotético que tiene propiedades gravitatorias repulsivas) que producen una contracción del espacio tiempo en la proa y una dilatación en la popa similares a una ola en el mar.

El investigador del CSIC Carlos Barceló, del Instituto de Astrofísica de Andalucía, en Granada, explica: “Una nave dentro de la burbuja alcanzaría su destino sin moverse por la distorsión local del espacio tiempo, igual que un surfista situado sobre la cresta no ejerce un movimiento propio pero alcanza la orilla gracias al de la ola”. Según los autores, esta hipótesis matemática mostraba debilidades desde su publicación, aunque no se descartaba. Sin embargo, explican, hay un punto que no se había contemplado hasta el momento y que puede afectar al movimiento de esa burbuja: cómo actúan las fluctuaciones cuánticas ante las curvaturas.

De acuerdo con las estimaciones del trabajo, si la burbuja se desplaza a velocidad superior a la de luz, los tripulantes verán como las paredes anterior y posterior se comportan respectivamente como un horizonte negro y otro blanco, similares a los que tienen los agujeros negros. Así, si el astronauta de la nave mira hacia atrás no verá absolutamente nada, un horizonte negro, ya que se está desplazando a mayor velocidad que la luz y ninguna señal puede alcanzarle; en cambio, la proa de la nave recibirá todas las señales, y por ello se habla de horizonte blanco.

Dos horizontes problemáticos

Los autores calcularon cómo se comportan las fluctuaciones cuánticas en ambos horizontes cuando la burbuja se acerca a la barrera de la luz, y han hallado dos efectos que impiden el viaje. En ambos casos, el escollo se encuentra en el vacío del Universo. Según la teoría cuántica, en este estado la energía no es equivalente a cero, sino que de forma constante nacen y se aniquilan parejas de partículas tan rápido que resulta imposible detectar su presencia, y por ello se conocen como partículas virtuales. Sin embargo, bajo ciertas condiciones, como una fuerte distorsión del espacio tiempo, esas partículas pasan a ser reales. Esto es lo que ocurre en ambos horizontes de la burbuja ideada por Alcubierre, con consecuencias negativas.

En el horizonte negro, el astronauta se toparía con la radiación de Hawking, enunciada por Stephen Hawking en 1974. Se trata de un efecto conocido en los agujeros negros debido a la creación y destrucción de parejas de partículas: el enorme campo gravitatorio del agujero negro puede romper el par y absorber una de las partículas, mientras que la otra escapa. Así se produce un resplandor que procede del horizonte y que, en el caso de la burbuja, depende del grosor de la pared: una pared fina, más fácil de obtener en teoría, presentaría temperaturas muy altas que podrían destruir la nave que viajara en su interior.

Pero, aunque pudieran construirse paredes tan gruesas que la temperatura producida por la radiación de Hawking no fuera un obstáculo, el horizonte blanco supone un impedimento insalvable, según la investigación. La contracción del espacio tiempo en la parte delantera produciría igualmente la ruptura de pares de partículas, con la diferencia de que irían amontonándose en la pared. “Este fenómeno provocaría un crecimiento exponencial de energía incontrolable, y hace inconsistente la construcción porque tiende a autodestruirse”, apunta Barceló. “O inventamos una manera de contrapesar esa energía con una energía inversa, lo cual parece inverosímil, o simplemente hay que admitir que no podemos superar la velocidad de la luz por razonables periodos de tiempo”, añade el investigador del CSIC.

Otra opción consiste en no atravesar la barrera de la luz, de modo que no se produjeran horizontes, ni radiación de Hawking, ni altas temperaturas. Como los autores señalan al final del artículo, “quizá viajar al 99% de la velocidad de la luz no esté tan mal, después de todo”.

La mayor parte de estrellas no nacen en amables cunas cósmicas, sino en violentas nubes llenas de potentes vientos y abrasadora luz. Nuevas imágenes tomadas por el Observatorio Europeo del Sur (ESO) ofrecen una visión de uno de estos caóticos terrenos de nacimiento.

Las observaciones revelan estrellas en ciernes entre el violento ataque de radiación de otras estrellas cercanas y materia expulsada en explosiones de supernova de estrellas moribundas.

Los investigadores centraron su atención en una nube conocida como RCW 38, situada aproximadamente a 5500 años luz de distancia. En esta densa colección de gas y polvo, muchas estrellas nace, viven y mueren.

De hecho, los científicos creen que nuestro propio Sol y Sistema Solar nacieron posiblemente en un cúmulo similar a este, en lugar de en una región suburbana más apartada de la Vía Láctea.

“Observando cúmulos estelares como RCW 38, podemos aprender mucho sobre los orígenes de nuestro Sistema Solar y otros, así como de esas estrellas y planetas que aún tienen que nacer”, dijo Kim DeRose, primera autora del artículo sobre el nuevo estudio en el ejemplar de junio de la revista Astronomical Journal. DeRose trabajó en el proyecto cuando era estudiante no graduada en el Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachussetss.

Las nuevas imágenes son las más detalladas hasta el momento de RCW 38, tomadas con el instrumento de óptica adaptativa NACO en el Telescopio Muy Grande de ESO en Chile. Las imágenes revelan que el objeto, conocido como IRS2, el cual parece ser una estrella masiva en el centro de una nube, es en realidad dos estrellas distintas rotando una sobre otra en un sistema binario.

Este sistema brilla en una luz blanca-azul, el rango más caliente para las estrellas. La potente radiación que se emite desde IRS2 energiza y dispersa el gas cercano que podría de otra forma colapsar en nuevas estrellas, o que podría formar discos protoplanetarios alrededor de estrellas en desarrollo. De no ser interrumpidos, estos discos pueden finalmente dar lugar a nuevos sistemas solares con planetas, lunas y cometas como el nuestro.

El predominante sistema binario en el centro de la nube no parece haber aplastado toda la formación estelar cercana. Los investigadores encontraron unas pocas protoestrellas, las cuales son tenues bebés que se convertirán en estrellas adultas, en la región.

Y en las nubes abarrotadas como RCW 38, las explosiones de supernova también son comunes. Esta agonía de estrellas masivas dispersa materia por toda la nube, incluyendo elementos pesados e isótopos raros de compuestos químicos quedan absorbidos en otras estrellas que se forman en las cercanías. Detectar algunos de estos isótopos en el Sol es una forma en la que los astrónomos pueden aprender sobre nuestros propios orígenes y rastrearlos a una caótica cuna como esta.

El Centro de Investigación de la NASA ha desarrollado un escudo térmico hinchable para proteger los vehículos espaciales durante la reentrada. El proyecto, bautizado como Inflatable Re-entry Vehicle Experiment (IRVE, por sus siglas en inglés), permitirá aligerar la carga que transportan las naves dirigidas a Marte, haciendo posible un aumento de la carga de los 'Mars Rovers'.

El peso de los escudos actuales, fabricados a partir de carbono, limita el peso de los vehículos exploradores enviados al espacio, ya que los cohetes sólo pueden despegar con un máximo de carga. Asimismo, el tamaño de los escudos está limitado por las dimensiones de los cohetes que tienen que transportarlos.

Durante un experimento realizado por la NASA, un cohete Black Brant 9 transportó este nuevo escudo hinchable a una altitud de 211 kilómetros. Menos de un minuto después, éste se liberó de su cápsula y comenzó a inflarse a casi 200 kilómetros, un proceso que lleva menos de 90 segundos.

"Ha sido un gran éxito", declaró Mary Beth Wusk, directora del proyecto. "El IRVE ha sido una demostración a pequeña escala, ahora que el concepto ha quedado demostrado nos gustaría construir cápsulas más avanzadas capaces de soportar de más cantidad de calor". La idea de usar este tipo de tejidos ha estado en la mente de los investigadores durante años, pero no estaban seguros de que los materiales con que contaban pudieran soportar la reentrada.

Las capas superiores del escudo térmico se han fabricado con un tejido de fibras de cerámica, que recubre un interior hecho de un polímero llamado Kevlar y cubierto de silicona, que define y mantiene su forma. La cápsula contenedora del escudo está envasada al vacío en un cilindro de 16 centímetros, y una vez se despliega, se hincha con nitrogeno hasta alcanzar tres metros de anchura.

La exploración espacial continúa arrojando luz sobre los orígenes de la vida en nuestro planeta. Científicos de la NASA han confirmado la presencia de glicina, uno de los componentes fundamentales para la existencia de seres vivos, en muestras del cometa Wild 2 tomadas por la sonda Stardust.

"La glicina es un aminoácido usado por los seres vivos para producir proteínas, y ésta es la primera vez que se ha encontrado en un cometa", declaró la doctora Jamie Elsila, del Centro de vuelos espaciales de la NASA en Goddard, Maryland. "Este descubrimiento apoya la teoría de que algunos de los ingredientes necesarios para la vida se formaron en el espacio y llegaron a la Tierra por impactos de cometas y meteoritos", afirmó Elsila.

La sonda Stardust pasó a través de la nube de gas y polvo que rodeaba el núcleo del Wild 2 en enero de 2004, y recolectó muestras del cometa. Para ello utilizó una rejilla de un nuevo material llamado Aerogel, un compuesto esponjoso formado en más de un 99% por espacio vacío. La rejilla estaba dentro de una cápsula que se desprendió de la Stardust y llegó a la Tierra en enero de 2006, para posteriormente ser analizada por los especialistas.

Vida en el espacio

Las proteínas son indispensables para la existencia de moléculas de vida, y están presentes en todo tipo de estructuras, realizando diferentes funciones básicas para los seres vivos. A partir de la combinación de 20 aminoácidos en diferentes composiciones, se constituyen millones de proteínas.

"El descubrimiento de glicina en un cometa apoya la idea de que los componentes fundamentales para la vida son comunes en el espacio, y fortalece el argumento de que la vida en el universo puede ser menos rara de lo que se cree", señaló el doctor Carl Pilcher, director del Instituto de Astrobiología de la NASA.

Tras los primeros análisis, los investigadores no pudieron confirmar que la glicina encontrada no fuese producto de la contaminación de las muestras desde la Tierra. Sin embargo, nuevas investigaciones utilizando análisis de isótopos, descartaron esta posibilidad y confirmaron el origen extraterrestre del aminoácido.

Una vela solar de tamaño decente podría acelerar fuera del Sistema Solar en muy poco tiempo, lo cual genera nuevos retos para los navegantes.

Si alguna vez viajamos a una distancia decente de la Tierra, tendremos que romper nuestra dependencia de los sistemas de propulsión química: simplemente no es posible llevar suficiente combustible químico para lograr un impulso decente.

Una alternativa interesante es la vela solar, la cual usa la fuerza de la presión de radiación solar para acelerar. Mediante un cálculo, una vela solar con un radio de aproximadamente un kilómetros y una masa de 300 kg (incluyendo 150 kg de carga) tendría un pico de aceleración de 0,6g en una trayectoria parabólica si fuese liberada a 0,1 UA del So (donde la presión de radiación es más alta).

Este tipo de aceleración la llevaría más allá del cinturón de Kuiper, en la heliopausa, el límite entre el Sistema Solar y el espacio interestelar, en apenas 2,5 años; una distancia de 200 UA.

En 30 años, podría viajar 2500UA, lo suficiente para explorar la Nube de Oort.

Pero tal viaje puede no ser coser y cantar, especialmente en lo que respecta a la navegación, dice Roman Kezerashvili y Justin Vazquez-Poritz, físicos de la Universidad de New York. Dicen que la física Newtoniana común no es válida para este tipo de viaje.

El problema es que la vela tendría que lanzarse tan cerca del Sol que los efectos de la relatividad general tales como la precesión del perihelio de los objetos orbitales tienen que tenerse en cuenta. E incluso aunque estos efectos fuesen relativamente pequeños en el inicio, tienen un gran significado a lo largo de grandes distancias.

Los cálculos llevados a cabo por Kezerashvili y Vazquez-Poritz demuestran que los efectos de la relatividad general podría sacar de su curso a una vela solar en hasta un millón de kilómetros en el tiempo que alcanza la Nube de Oort e incluso las diminutas fuerzas relativistas tales como el arrastre de marcos pueden causar un desvío de mil kilómetros.

Lo que estos chicos están diciendo es que los navegantes interestelares tendrán que ser muy competentes en la nueva disciplina de la navegación relativista.

No obstante, esto no pasará en un tiempo. La estimación más optimista para el lanzamiento de una de tales misiones está en torno a 2040.

Gran parte de la búsqueda de vida fuera del oasis biológico de la Tierra se ha centrado en examinar las condiciones de otros planetas en nuestro Sistema Solar y estudiar el cosmos buscando otros planetas similares a la Tierra en sistemas planetarios lejanos.

Pero un equipo de astrónomos se está aproximando a la cuestión de la vida en todo el universo buscando el inicio potencial de la vida.

Aparna Venkatesan, de la Universidad de San Francisco, y Lynn Rothschild, del Centro de Investigación Ames de la NASA en Moffett Field, California, están usando modelos de formación y destrucción estelar para determinar cuándo en los aproximadamente 13 700 millones de años de la historia del universo podrían haberse formado los suficientes elementos biogénicos – los esenciales para la vida como la conocemos – para permitir que se formase la vida.

Podemosfijar el surgimiento de la vida en la Tierra en algún momento alrededor de hace 3500 millones de años. Venkatesan y Rothschild quieren descubrir qué sucede cuando amplías la pregunta a la vida en todo el universo.

“¿Puedes con eso? ¿Podrías realmente empezar a hablar de la vida en el universo hace 12 mil millones de años? Y esta es la pregunta sobre la que estamos hablando”, dijo Rothschild.

Con estimaciones básicas de los elementos producidos por las primeras generaciones de estrellas, el par ha encontrado hasta el momento que “la mayor parte de [los elementos esenciales] pueden crearse bastante rápido en los inicios del universo”, dijo Venkatesan.

Venkatesan presentó sus conclusiones en la 214 reunión de la Sociedad Astronómica Americana en Pasadena, California.

Elementos biogénicos

Para que se forme y medre la vida tal y como la conocemos, deben darse cuatro condiciones: suficientes cantidades de los conocidos como elementos biogénicos, un disolvente (en la Tierra, tal disolvente es el agua líquida), una fuente de energía, y tiempo “para que los elementos se unan u creen un hogar y condiciones para que medre la vida”, explicó Venkatesan.

Los elementos biogénicos incluyen el carbono, nitrógeno, oxígeno, fósforo, azufre, hierro y magnesio.

“El carbono en particular es muy interesante”, dijo Venkatesan. El carbono es “ubicuo en el Sistema Solar y más allá” y es “extremadamente versátil químicamente”.

Estos elementos, como todos los elementos presentes en el universo actual, se forjaron en las entrañas de las estrellas. Pero no todas las estrellas hacen cada elemento, y algunas producen ciertos elementos más rápido que otros.

Las estrellas de masa baja crean todos los elementos de la tabla periódica hasta el carbono, pero debido a que estas estrellas viven más, producen los elementos más lentamente. Las estrellas de masa intermedia llegan al nitrógeno o el oxígeno. Finalmente, las estrellas más masivas, con sus intensos hornos, crean todos los elementos hasta el hierro y otros metales pesados. Y debido a que estas bestias estelares tienen vidas tan cortas y violentas, pueden crear elementos más rápidamente que las estrellas menores.

Las explosiones que acaban con las vidas de estas estrellas pueden variar, y sus diferentes firmas indican las cantidades de los metales implicados, tales como el hierro y el níquel, dijo Venkatesan.

Se cree que las primeras estrellas que se formaron en los inicios del universo fueron muy masivas. Estas estrellas tendrían composiciones características que a su vez implican que tendrían abundancia de elementos específicos “que crean en su agonía”.

Los dos científicos llegaron a la idea de aplicar el estudio de las primeras estrellas a la astrobiología cuando Rothschild llegó al departamento de Venkatesan para una charla. Mientras hablaban en la cena esa noche, “empezamos a darnos cuenta de que podría ser realmente divertido observar cuándo pudieron estar disponibles ahí fuera los primeros bloques básicos de la vida”, dijo Venkatesan. “Hasta donde sabemos, nadie más trabajaba o hablaba de esta idea”.

Lista de deseos

Rothschild esbozó lo que llama su “lista de deseos” de elementos que considera absolutamente esenciales para la vida tal y como la conocemos. Venkatesan usó entonces las actuales teorías de formación estelar, desde las primeras estrellas muy masivas a las estrellas que se formaron luego a partir de las semillas de estas primeras estrellas, para modelar la formación de los elementos biogénicos.

“El elemento número uno es el carbono”, dice Rothschild. “Y llegas al mismo debido a que realmente sólo hay dos elementos que tengan una versatilidad real en términos de ser capaz de crear un conjunto de compuestos que podrían formar la vida, y uno es el silicio y otro el carbono”.

Pero el silicio queda descartado por no ser predominante en el universo, ni tal versátil químicamente.

“La realidad es que estamos sentados sobre una gran roca de silicio, y no estamos hechos de silicio”, dijo Rothschild.

Para redondear la lista de obligatorios tenemos el hidrógeno, oxígeno y nitrógeno.

“El nitrógeno parece ser clave. Se encuentra en muchos compuestos, y esto añade una gran versatilidad al conjunto”, dijo Rothschild. El nitrógeno, por ejemplo, es la columna vertebral de los aminoácidos, los cuales a su vez son los bloques básicos de las proteínas y se han detectado en el espacio interestelar.

Listas secundarias y terciarias incluyen al fósforo, azufre, hierro y magnesio, “y todo tipo de cosas de moda que usamos mucho, pero que podría concebir más fácilmente un sistema sin ellas”, dijo Rothschild.

Acumulación de elementos

Encontraron que “el nitrógeno puede acumularse muy rápidamente”, dijo Venkatesan. Pero no justo al inicio, debido a que estas primeras estrellas masivas “tenían una minúscula producción de nitrógeno”. Correspondió a las estrellas de generaciones posteriores elevar los niveles lo suficiente para lo que creen los científicos que podría ser necesario para hacer los elementos lo bastante predominantes.

El carbono también “necesita algo de tiempo para acumularse”, debido a que necesita estrellas de masa baja e intermedia, dijo Venkatesan.

Aunque estas estrellas iniciales habrían tenido problemas para producir nitrógeno, son “bastante eficientes al producir hierro. Esto es debido a que estallan por completo”, comenta Venkatesan.

En general, el esfuerzo de modelado encontró que los niveles de hierro y magnesio habrían surgido muy pronto, con el carbono necesitando unos 100 millones de años para acumularse.

Aunque la masa crítica de los elementos biogénicos para formar la vida no se conoce, “estas cantidades serían más que suficientes”, añade Venkatesan.

Por lo que tal vez unos 100 millones de años después de que empezara el universo, muchos de estos elementos se encontrarían en números sustanciales, aunque la escala de tiempo puede estar más alrededor de 500 millones de años para el carbono y el nitrógeno aún está por ver.

Otros ingredientes

Mejores modelos y un mejor conocimiento de la física de las primeras estrellas podrían cambiar algo el dibujo, modificando las escalas temporales de la acumulación de elementos y el entorno interestelar en el que nacen.

Por supuesto, saber qué elementos tienen que estar presentes y si lo están o no, no responderá la pregunta de cuándo podría haber aparecido la vida. Los elementos deben también recopilarse en cantidades suficientemente significativas.

“La cuestión final no es sólo que elementos, sino qué concentración se acumula localmente”, comenta Rothschild.

Una vez que Rothschild llegó a las estimaciones de cantidades elementos distintos posiblemente requeridos, ella y Venkatesan pueden usar modelos para estimar las concentraciones en galaxias y Sistema Solar con el tiempo y ver si encuentran puntos en los que sea probable que se formase la vida.

“Todo lo que necesitamos es un lugar en el universo que tenga las condiciones, los prerrequisitos”, dijo Rothschild.

Los disolventes, tales como el agua líquida o el metano, también tienen que tenerse en cuenta. Venkatesan dijo que a largo plazo, esperan usar los mismos métodos para evaluar cuándo podría haber habido agua en suficientes cantidades.

También está la cuestión de su la vida podría haber medrado en el entorno hostil predominado por el ultravioleta de las primeras estrellas. La luz ultravioleta se cree que tiene tanto efectos beneficiosos como perjudiciales para la vida, pero cuál podría haber ganado en el joven universo no se sabe.

Finalmente la cuestión se convertirá en: “¿podemos acumular los bloques básicos tan pronto”, dijo Venkatesan. Aunque responder tal cuestión llevará algún tiempo, podría tener un impacto sustancial en estudios de los inicios del universo, investigación de exoplanetas, y las expectativas de hasta dónde podría haber evolucionado la vida, por no mencionar la visión de nuestro lugar en el universo.

“Esto no va a curar el cáncer”, comenta Rothschild. “Pero creo que en cierta forma, es una pregunta muy profunda: ¿cuándo se puede empezar a hablar de vida en nuestro universo?”

No es ciencia-ficción, sino el futuro de la robótica. PHRIENDS (acrónimo de 'Physical Human-Robot Interaction: depENDability and Safety') es un proyecto financiado por la UE sobre la interacción humano-robot, llevado a cabo por el centro de investigación 'Enrico Piaggio' de la Universidad de Pisa.

Antonio Bicchi, ingeniero coordinador del proyecto, afirma que con sus colaboradores están estudiando las condiciones para una interacción más segura entre el ser humano y la máquina. "Nuestro objetivo es desarrollar componentes fundamentales para una nueva generación de robots, con los cuales compartir un ambiente de trabajo sin riesgos".

Las máquinas del futuro incorporarán elementos de seguridad en su propio diseño, que les impedirán provocar daños a los humanos, permitiendo una interacción codo con codo.

"La seguridad estará garantizada por su estructura física, y no por sensores exteriores o algoritmos que puedan fallar", explica el científico.

Los resultados de esta investigación encontrarán aplicación en diferentes sectores: desde la industria, la logística y el reciclaje, hasta la cirugía y la rehabilitación.

Proyecto europeo

El proyecto empezó el 1 octubre 2006 y terminará el 30 septiembre 2009. Tres de los seis institutos que participan son italianos: el centro de investigación 'Enrico Piaggio' (coordinador del proyecto), el "Dipartimento di Informatica e Sistemistica" de la Universidad 'La Sapienza' de Roma y el "PRISMA Lab" de la Universidad de Nápoles 'Federico II'.

También colaboran el francés "Laboratiore d'Analyse et d'Architecture des Systèmes/National Centre of Scientific Research", y los alemanes "Institute of Robotics and Mechatronics" y "KUKA Roboter GmbH".

PHRIENDS ha abierto el camino a otro proyecto paralelo financiado por la UE: VIACTORS (Variable Impedance ACTuation systems embodying advanced interaction behaviORS), que empezó el 1 febrero 2009 y continúa la investigación sobre la estructura de los robots y su capacidad para cumplir determinadas prestaciones.

VIACTORS, que hasta la fecha ha supuesto una inversión de 3.350.000 euros (contra los 2.158.000 de PHRIENDS), pretende construir robots que, además de ser más ligeros, tengan una estructura parecida a la de los músculos humanos: blanda cuando se muevan rápido, y rígida cuando cumplan tareas que necesiten precisión.

"Hoy en día, la seguridad en el trabajo sólo se garantiza con la separación (de los espacios de acción) entre humano y máquina. De hecho, son muchísimos los accidentes en las industrias donde los obreros trabajan en estrecho contacto con máquinas", asegura Bicchi.

La característica más revolucionaria de la próxima generación de robots será la interacción directa con el ser humano, y es una apuesta que se juega, ante todo, en el campo de la seguridad industrial.

La 'Revolución de Copérnico' de la róbotica

Estamos todavía muy lejos de ver cosas como las que nos propone la literatura de ciencia-ficción, sin embargo, podemos encontrar una similitud entre las obras de Isaac Asimov y PHRIENDS. Los aficionados del escritor ya habrán pensado en la 'primera ley de la robótica': "Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño".

Según Bicchi "nos estamos enfrentando a un cambio muy importante por el desarrollo de esta ciencia".

La róbotica clásica se pone como primer objetivo determinar el tipo de prestación solicitada al robot, y a partir de esta, construir la máquina. Solo en un segundo momento se resuelven los problemas de seguridad, programando algoritmos y aplicando sensores exteriores, pero estos pueden fallar.

Lo que se propone PHRIENDS es una verdadera 'revolución de Copérnico': se trata de invertir el esquema de proyección clasico, poniendo el enfoque sobre la seguridad.

Bicchi lo tiene claro: "Queremos crear robots que sean intrínsecamente seguros para después ocuparnos de lo que tengan que hacer. La seguridad estará incorporada en la estructura de los robots, y no como una aplicación externa"

Una serie de avistamientos de ovnis en el Reino Unido en 1996 puede haber tenido más que ver con la fascinación del público con series de televisión como 'Expediente X' que con la actividad extraterrestre, según archivos del Gobierno distribuidos este lunes.

Unos documentos del Ministerio de Defensa británico mostraron que hubo 609 avistamientos de ovnis en 1996, frente a los 117 de 1995. Esto coincidió con el aumento de la popularidad de 'Expediente X' y el éxito de taquilla de 'Independence Day'.

Los archivos, recopilados a lo largo de 15 años y que contienen más de 4.000 páginas, muestran que la mayoría de avistamientos de ovnis tenían explicaciones normales como que se trataba de estrellas y planetas brillantes, meteoritos, satélites artificiales o globos.

En uno de los incidentes registrados en 1995, dos hombres del condado de Staffordshire explicaron a la policía que habían visto un supuesto extraterrestre con una cabeza con forma de limón salir de un OVNI y decirles: 'Los queremos, vengan con nosotros'.

Otro caso detallaba decenas de avistamientos de un objeto de forma oval brillante en Londres en 1993 y 1994 que más tarde fue identificado como un dirigible que promocionaba el automóvil Ford Mondeo.

A pesar de que la mayoría de casos tienen una explicación sencilla, hay un 10% calificados de "inexplicables". Sobre ellos, el Ministerio de Defensa dijo contar con "información insuficiente", por lo que siguió reuniendo datos.

Los archivos también añaden un nuevo detalle sobre el incidente más famoso sobre ovnis en Reino Unido, las visualizaciones en Rendlesham Forest en 1980, en el que pilotos americanos vieron una serie de luces misteriosas. El entonces Gobierno de Margaret Thatcher rechazó el caso, pero más adelante un antiguo director de Defensa dijo en una carta en 1985 que no había sido broma.

"El caso tiene características enigmáticas e inquietantes que nunca han sido explicadas satisfactoriamente (...), lo que sigue preocupando a las personas de la población con acceso a la información", dijo en la carta. Los archivos pueden consultarse en la página web www.nationalarchives.gov.uk/

La vida inteligente más allá de la Tierra puede no ser una esperanza tan tenue como creen muchos científicos, de acuerdo con un nuevo estudio que desafía ampliamente al argumento sostenido anteriormente anti-ET.

Muchos escépticos acuden a una idea conocida como argumento antrópico que afirma que las inteligencias extraterrestres deben ser muy raras debido a que el tiempo que necesita la vida para evolucionar es, de media, mucho mayor que la parte de la existencia de la estrella adecuada para tal vida.

Pero ahora el astrobiólogo Milan M. Cirkovic y sus colegas han encontrado un fallo en tal razonamiento.

El argumento antrópico, propuesto por el astrofísico Brandon Carter en 1983, siguiendo el trabajo pionero sobre los principios antrópicos de la década de 1970, se basa en la suposición de dos escalas temporales –el ciclo de vida de la estrella y el tiempo requerido para la evolución de criaturas vivas e inteligentes – son completamente independientes. De ser cierto, argumenta Carter, es extremadamente improbable que estas dos ventanas de posibilidad durasen aproximadamente la misma cantidad de tiempo, y tuviesen lugar a la vez.

Pero este modo de pensamiento está desfasado, afirma Cirkovic. De hecho, dice que las escalas temporales relevantes no son independientes; están profundamente entrelazadas. “Existen muchas formas distintas en las que los planetas de nuestro Sistema Solar no están aislados”, dijo Cirkovic. “No debemos considerar a los planetas habitables como cajas cerradas. Si abandonas la suposición de independencia, entonces tienes todo un nuevo trasfondo en el cual pueden configurar varios modelos de desarrollo astrobiológico”.

Cirkovic señala a los estallidos de rayos gamma, las supernovas cercanas, y las perturbaciones de nubes de cometas como posibles eventos en el entorno astrofísico de la estrella que puede influir en el entorno biológico de un planeta. Por ejemplo, cuando una estrella viaja a través de una de los densos brazos espirales de la Vía Láctea, tanto su propio desarrollo como el de sus planetas puede verse interrumpido por mayores niveles de radiación electromagnética interestelar y rayos cósmicos, debido a la mayor frecuencia de regiones de formación estelar y explosiones de supernova.

Todas estas condiciones conspiran para descartar la independencia sugerida por Carter y conecta la vida de una estrella y la evolución de la vida de un planeta, defiende Cirkovic.

Tierra afortunada

En el caso de la Tierra, las dos escalas temporales se han alineado fortuitamente para permitir la vida. Nuestro Sol tiene aproximadamente 4600 millones de años de antigüedad, y la Tierra es apenas ligeramente más joven, con 4500 millones de años. Las primeras células más básicas se piensa que se formaron en nuestro planeta hace unos 3800 millones de años, aunque el género homo, al cual pertenecen los humanos, no apareció hasta hace unos 2,5 millones de años. Y los humanos modernos tienen sólo 200 000 años de antigüedad.

Durante más del 80% de la existencia del Sol, la vida ha existido en la Tierra de alguna forma. Parece que las escalas temporales de la biología y la astrofísica se han alineado favorablemente en nuestro caso. De acuerdo con el argumento antrópico, esta coincidencia indica que la Tierra, y su vida, son únicas. Pero Cirkovic cree que las dos escalas temporales pueden no haberse solapado por casualidad. En lugar de esto, pueden ser parte de una compleja historia, implicando una interdependencia en el sistema de la Tierra con el resto de la Vía Láctea.

Catástrofes sincronizadas

Los eventos cósmicos como los estallidos de rayos gamma o las supernovas cercanas podrían poner a cero el reloj biológico para dar al planeta y la estrella una segunda oportunidad de sincronizarse e intentar producir la vida de nuevo. Los estallidos de rayos gamma son misteriosas explosiones que liberan descomunales cantidades de energía, teniendo lugar en los moribundos estallidos de estrellas súper-masivas (como Eta Carinae) o en colisiones de estrellas de neutrones en sistemas binarios cerrados. Si un estallido de rayos gamma tiene lugar en una gran región cerca de un sistema planetario, podría provocar un destello de radiación y posiblemente que los chorros de rayos cósmicos perturben la vida de los planetas. Las explosiones de supernova, aunque no tan energéticas como los estallidos de rayos gamma (pero mucho más frecuentes en general), empaquetan un fuerte golpe también, y podrían enviar una onda de choque de energía a los planetas cercanos.

“Un estallido de rayos gamma no afectaría a que se iniciara la vida en algún punto particular del tiempo, pero afectaría a cómo de rápido se desarrolla o se mantiene mediante cambios en la química atmosférica del planeta”, dijo Cirkovic. “Esto puede interpretarse como una puesta a cero de los relojes astrobiológicos los cuales avanzan en cada planeta habitable de la Vía Láctea”.

Esto lleva a la idea de una nueva forma de pensar sobre el origen de la vida. En lugar de una larga evolución gradual, un evento catastrófico podría espolear el desarrollo de una biosfera compleja y seres inteligentes, de la misma forma que la teoría evolutiva de equilibrio puntuado predice que las especies pasarán por largos periodos de lenta evolución puntuada gracias a breves encuentros con cambios drásticos.

Por ejemplo, los paleontólogos dicen que los seres humanos evolucionaron a nuestro estado actual sólo gracias a que un impacto de asteroide hace 65 millones de años aniquiló a los principales depredadores del planeta – los dinosaurios. La Tierra ha sufrido a lo largo de su historia muchas extinciones masivas que tuvieron distintas causas. Aunque las extinciones aniquilaron la vida, también pulsaron el botón de “reset” que altera el entorno y permite que surja otros tipos de vida. En general, esto es parte de un complejo conjunto de historias astrobiológicas que Cirkovic y sus colegas apodan el “paisaje astrobiológico” de nuestra Galaxia.

“La velocidad de la evolución es muy variable”, dijo Cirkovic. “No existen ninguna razón para pensar que la vida en la Tierra tenga un único origen. Es bastante posible que hubiera distintos inicios de la vida en la Tierra”.

Cirkovic también señala que la evolución de la vida inteligente podría tener lugar de forma más lenta o más rápida en distintas configuraciones, y no es necesario seguir la historia astrobiológica de la Vía Láctea.

“Las correlaciones a gran escala podrían causar que más objetivos del tipo SETI de los esperados sean contemporáneos con nosotros sólo sobre la base de una distribución de edad planetaria”, dijo Cirkovic.

Cirkovic y su equipo esbozan sus argumentos en el ejemplar de junio de 2009 de la revista Astrobiology.

Nunca en los últimos 1.000 años se había registrado una frecuencia tan alta de huracanes en el Atlántico como en la actualidad, según las conclusiones de un estudio de la Penn State University de EEUU publicado en la revista "Nature".

Científicos de esta Universidad, dirigidos por el profesor Michael Mann, examinaron los sedimentos de los huracanes que han atravesado la costa de Norteamérica y del Caribe, y constataron que el número actual de huracanes es históricamente alto.

En la última década se ha registrado una media de 17 huracanes y tormentas tropicales, el doble que a principios del siglo XX y una cifra sólo comparable e incluso superada, según el estudio, durante la anomalía climática que se produjo durante el medievo (el Periodo de Calentamiento Medieval) hace aproximadamente 1.000 años.

La investigación no evalúa si existe una relación entre el incremento de los episodios de este fenómeno meteorológico y el cambio climático y se limita a ofrecer los datos empíricos.

Para elaborar la serie histórica los investigadores estudiaron los sedimentos que dejan tierra adentro, especialmente en las lagunas próximas a la costa, los vientos de hasta 300 kilómetros por hora de los huracanes que llegan a impactar en la tierra.

Se analizaron los sedimentos de siete lagunas en la costa de EEUU y de una laguna en Puerto Rico, y se hizo un cálculo aproximado del número de huracanes ocurrido en cada época a partir del numero de ellos que alcanzó la costa (muchos se pierden en el mar).

El equipo del profesor Mann también estudió modelos previos de ordenador sobre generación de huracanes y tuvo en cuenta los principales factores que influyen en la virulencia del fenómeno: la temperatura de la superficie en la franja tropical del océano Atlántico, los ciclos de El Niño y La Niña, que se generan en la costa este del océano Pacífico, y la oscilación del Atlántico Norte.

La investigación sugiere que pese a que la frecuencia e intensidad de los huracanes de hoy y de hace 1.000 años son las mismas, no tienen detrás las mismas causas ni características.

Hace 1.000 años, explicó Mann, un prolongado desarrollo de La Niña (circunstancia que influye en la generación de huracanes) coincidió con una climatología relativamente cálida en el Atlántico, lo que convirtió el fenómeno en algo más azaroso y circunstancial.

En la última década, sin embargo, el alto número de huracanes sólo tiene que ver con un calentamiento del agua del Atlántico, lo que establece una pauta más sencilla y más peligrosa, porque todo apunta a que la temperatura del océano aumente en las próximas décadas.

"Aunque los niveles de actividad son similares, entre hace 1.000 años y ahora, los factores implicados son diferentes", dijo Mann. Y advirtió: "Esto implica que si todo lo demás se mantiene igual, entonces el calentamiento de la zona tropical del Atlántico debería derivar en un creciente aumento de la actividad ciclónica".


Las explosiones estelares conocidas como supernovas de tipo Ia se han usado durante mucho tiempo como “candelas estándar”, su brillo uniforme da a los astrónomos una forma de medir distancias cósmicas y la expansión del universo. Pero un nuevo estudio publicado esta semana en la revista Nature revela fuentes de variabilidad en las supernovas de tipo Ia que tendrán que ser tomadas en cuenta si los astrónomos quieren usarlas para medidas más precisas en el futuro.

El descubrimiento de la energía oscura, una misteriosa fuerza que acelera la expansión del universo, se basa en las observaciones de las supernovas de tipo Ia. Pero para estudiar la naturaleza de la energía oscura y determinar si es constante o variable en el tiempo, los científicos tendrán que medir distancias cósmicas con una precisión mucho mayor de lo que lo han hecho en el pasado.

“Cuando comencemos la próxima generación de experimentos cosmológicos, querremos usar las supernovas de tipo Ia como medidas de distancia muy sensibles”, dijo el autor principal Daniel Kasen, miembro posdoctoral de Hubble en la Universidad de California en Santa Cruz. “Sabemos que no todas tienen el mismo brillo, y tenemos formas de corregirlo, pero necesitamos saber si hay diferencias sistemáticas que sesgarían las medidas de distancia. Por lo que este estudio exploró qué causa esas diferencias en el brillo”.

Kasen y sus coautores — Fritz Röpke del Instituto Max Planck para Astrofísica en Garching, Alemania, y Stan Woosley, profesor de astronomía y astrofísica en la UC en Santa Cruz—usaron supercomputadores para ejecutar docenas de simulaciones de supernovas de tipo Ia. Los resultados indican que gran parte de la diversidad observada en estas supernovas se debe a la naturaleza caótica de los procesos implicados y a la asimetría resultante de las explosiones.

Para la mayor parte, esta variabilidad no produciría errores sistemáticos en los estudios de medidas dado que los investigadores usan u gran número de observaciones y aplican correcciones estándar, dijo Kasen. El estudio encontró un pequeño pero preocupante efecto que podría dar como resultado diferencias sistemáticas en la composición química de las estrellas en distintas etapas de la historia del universo. Pero los investigadores pueden usar los modelos por ordenador para caracterizar más este efecto y desarrollar correcciones para el mismo.

“Dado que estamos comenzando a comprender cómo funcionan las supernovas de tipo Ia a partir de sus principios básicos, estos modelos pueden usarse para refinar nuestra estimación de distancia y hacer medidas del índice de expansión del universo de forma más precisa”, dijo Woosley.

Una supernova de tipo Ia tiene lugar cuando una estrella enana blanca adquiere una masa adicional absorbiendo materia de una estrella compañera. Cuando alcanza una masa crítica – 1,4 veces la masa del Sol, compactada en un objeto del tamaño de la Tierra – el calor y presión del centro de la estrella disparan una reacción nuclear de fusión desbocada, y la enana blanca estalla. Dado que las condiciones iniciales son aproximadamente las mismas en todos los casos, las supernovas tienden a tener la misma luminosidad, y sus “curvas de luz” (cómo cambia la luminosidad con el tiempo) son predecibles.

Algunas son intrínsecamente más brillantes que otras, pero se iluminan y apagan más lentamente, y su correlación entre el brillo y la anchura de la curva de luz permite a los astrónomos aplicar correcciones para estandarizar sus observaciones. Por lo que los astrónomos pueden medir la curva de luz de una supernova de tipo Ia, calcular su brillo intrínseco, y entonces determinar cómo de lejos está, dado que el brillo aparente disminuye con la distancia (igual que una vela parece más tenue en la lejanía que una que está más cerca).

Los modelos por ordenador usados para simular estas supernovas en el nuevo estudio se basan en la actual comprensión teórica de cómo y dónde se inicia el proceso de ignición dentro de la enana blanca y dónde empieza la transición de la combustión de quemado lento a la detonación explosiva.

“Dado que la ignición no tiene lugar en un punto muerto, y que la detonación sucede primero en un punto cerca de la superficie de la enana blanca en explosión, las explosiones resultantes no son esféricamente simétricas”, explicó Woosley. “Esto podría estudiarse adecuadamente sólo usando cálculos multidimensionales”.

La mayor parte de estudios anteriores han usado modelos unidimensionales en los que la explosión simulada es esféricamente simétrica. Las simulaciones multidimensionales requieren mucha más potencia de cálculo, por lo que el grupo de Kasen ejecutó la mayor parte de sus simulaciones en la potente supercomputadora Jaguar en el Laboratorio Nacional Oak Ridge, y también usó supercomputadores del Centro de Nacional de Cálculo de Investigación en Energía en el Laboratorio Nacional Lawrence Berkeley. Se informa de los resultados de modelos bidimensionales en el artículo de Nature, y los estudios tridimensionales están actualmente en proceso.

Las simulaciones demostraron que la asimetría de las explosiones es un factor clave para determinar el brillo de una supernova de tipo Ia. “La razón de que estas supernovas son tengan todas el mismo brillo está estrechamente vinculada a la ruptura de la simetría esférica”, dijo Kasen.

La fuente predominante de variabilidad es la síntesis de nuevos elementos durante las explosiones, la cual es sensible a diferencias en la geometría de las primeras chipas que encienden una reacción termonuclear desatada en el núcleo de la enana blanca. El níquel-56 es especialmente importante, debido a que el decaimiento radiactivo de este imparable isótopo crea el resplandor que los astrónomos observan durante meses o incluso años tras la explosión.

“El decaimiento del níquel-56 es lo que alimenta la curva de luz. La explosión termina en cuestión de segundos, por tanto lo que vemos es el resultado de cómo el níquel calienta los restos y cómo los escombros irradian luz”, dijo Kasen.

Kasen desarrolló el código para simular este proceso de transferencia radiativa, usando una salida de las explosiones simuladas para producir visualizaciones que pueden compararse directamente con observaciones astronómicas de las supernovas.

Las buenas noticias son que la variabilidad vista en los modelos por ordenador concuerdan con las observaciones de supernovas de tipo Ia. “Más importante aún, la anchura y puco de luminosidad de la curva de luz están correlacionados de una forma que encajan con lo que los observadores han encontrado. Por tanto los modelos son consistentes con las observaciones en las que se basa el descubrimiento de la energía oscura”, dijo Woosley.

Otra fuente de variabilidad es que estas explosiones asimétricas se ven de forma muy diferente cuando se observan desde distintos ángulos. Esto puede contar hasta en un 20% de las diferencias de brillo, dijo Kasen, pero el efecto es aleatorio y crea dispersión en las medidas que pueden ser reducidas estadísticamente observando grandes números de supernovas.

El potencial del sesgo sistemático procede principalmente de la variación en la composición química inicial de la estrella enana blanca. Los elementos más pesados se sintetizan durante las explosiones de supernovas, y los restos de esas explosiones se incorporan a nuevas estrellas. Como resultado, las estrellas que se formaron recientemente es probable que contengan elementos más pesados (una “metalicidad” más alta, en terminología astronómica) que las estrellas del pasado lejano.

Este es el tipo de cosa que esperamos que evolucione con el tiempo, por lo que si miras la estrellas lejanas que se corresponden con épocas muy anteriores en la historia del universo, tenderían a tener una menor metalicidad”, dijo Kasen. “Cuando calculamos el efecto en nuestros modelos, encontramos que los errores resultantes en las medidas de distancia sería de un orden del 2 por ciento o menos”.

Posteriores estudios usando simulaciones por computador permitirán a los investigadores caracterizar los efectos de tales variaciones con más detalle y limitar su impacto en futuros experimentos de energía oscura, los cuales podrían requerir un nivel de precisión que haría un error del 2 por ciento inaceptable.

Los problemas financieros de la NASA han puesto en duda el plan para el retorno del hombre a la Luna. Según una comisión designada por el presidente Barack Obama para revisar el programa de vuelos espaciales, la Agencia no tiene suficiente dinero para concretar el plan de poner astronautas en la Luna para 2020. Además, el grupo indicó que el satélite natural de la Tierra no debería ser el objetivo central de la exploración espacial tripulada, según indicó 'The Washington Post'.

Desde hace tres años la NASA viene sufriendo problemas de presupuesto y, además de reducir personal, ha tenido que aumentar las formas de hacer economías de sus diversos proyectos. En 2004 el entonces presidente, George W. Bush, anunció su "Visión para la Exploración Espacial" que incluyó el retorno del hombre a la Luna para la década de 2020, así como la preparación de viajes tripulados a Marte en las décadas siguientes.

Sin embargo, la Comisión de Planes para Viajes Espaciales Tripulados, encabezada por el ejecutivo aeroespacial Norman Agustine, piensa que un plan de ese tipo implicaría abandonar la Estación Espacial Internacional (EEI) la cual sería arrastrada por la fuerza gravitatoria de la Tierra hasta estrellarse en Pacífico sur en 2016. Los miembros de la comisión se reunirán en los próximos días con funcionarios de la Casa Blanca y presentarán un informe final sobre sus conclusiones a finales de este mes.


El diario norteamericano indicó que, aunque en la lista de opciones planteadas por la comisión se incluye la creación de una base lunar, el grupo se inclinaría más por la alternativa llamada 'Espacio profundo' que consistiría en enviar astronautas en viajes más allá de la órbita terrestre pero no depositarlos en otros planetas.

Esa estrategia implicaría el viaje de naves tripuladas a asteroides cercanos a la Tierra y que están más allá de la magnetosfera que protege nuestro planeta. Podrían viajar a Fobos, una pequeña luna de Marte a la que una nave tripulada se podría acoplar de una forma similar al encuentro entre los transbordadores y la EEI.

Según el análisis de la comisión consignado por el diario, la Luna sería una posible plataforma, pero no el objetivo central de la exploración espacial. Por otra parte, llevar astronautas a la superficie de Marte y traerlos de regreso a la Tierra sería onerosamente prohibitivo.


Según la ex astronauta Sally Ride, la brecha presupuestaria de la NASA llegará a los 50.000 millones en 2020. Si la vida de la Estación Espacial se extendiera otros cinco años, el actual presupuesto permitiría terminar la construcción de un cohete lunar solamente en 2028 y eso se tendría que hacer sin asignar recursos para desarrollar los componentes de una base lunar, indicó Ride.

La EEI es un proyecto internacional concebido a un costo de unos 100.000 millones de dólares. Se espera terminarla a finales del próximo año o comienzos de 2011 cuando sean retirados los transbordadores estadounidenses que han sido los principales instrumentos de su construcción.

"Si estamos dispuestos a esperar hasta 2028, habrá un vehículo de transporte pesado... pero no tendrá nada que transportar. No se puede concretar el programa con este presupuesto", afirmó Sally Ride. Tanto en su campaña presidencial como durante sus primeros meses en la Casa Blanca, Obama ha dado su respaldo a los planes para el regreso del hombre a la Luna. Sin embargo, su decisión de crear la comisión es un indicio de dudas, manifestó el diario.

Las rocas lunares pueden ser procesadas directamente para producir oxígeno.

Científicos de Cambridge en el Reino Unido, han desarrollado un reactor que puede crear oxígeno a partir de rocas lunares — una tecnología vital si planetas crear una base lunar para lanzamientos.

Ya sea para aprovechar los recursos de la Luna o para usarlo como punto de salida para explorar lugares más profundos del espacio, los ocupantes de cualquier futura base lunar necesitarán oxígeno para sobrevivir. Enviar enormes cantidades a la Luna sería extremadamente caro — tal vez con un coste de 100 millones de dólares por tonelada de acuerdo con algunas estimaciones — por lo que los investigadores están examinando formas potencialmente más baratas de producir oxígeno en la propia Luna.

La NASA ha estado buscando formas de conseguir oxígeno de las rocas lunares desde hace varios años. En 2005, como parte del programa de Desafíos del Centenario, la agencia ofreció un premio de 250 000 dólares al primer equipo en lograr un conjunto que pudiese extraer cinco kilogramos de oxígeno en ocho horas a partir de alguna roca lunar simulada. A pesar de elevar el premio a 1 millón de dólares en 2008 con la ayuda de la Autoridad Espacial de California, el premio sigue sin dueño. Además, el programa en curso de Utilización de Recursos In Situ de la agencia está actualmente observando distintas tecnologías para extraer oxígeno de las rocas lunares.

Ahora, Derek Fray, químico de materiales de la Universidad de Cambridge en el Reino Unido, y sus colegas han logrado una solución potencial modificando un proceso electroquímico que inventaron en 2000 para lograr metales y aleaciones a partir de óxidos de metal1. El proceso usa el óxido — también encontrado en rocas marcianas — como cátodo, junto con un ánodo hecho de carbono. Para lograr el flujo de corriente en el sistema, los electrodos se sitúan en una solución de electrolito de cloruro cálcico fundido (CaCl2), una sal común con un punto de fusión de casi 800 °C.

Ánodo erosionado

La corriente arranca los átomos de oxígeno de las bolitas de óxido de metal, las cuales están ionizadas y se disuelven en la sal fundida. Los iones de oxígeno cargados negativamente se mueven a través de la sal fundida hacia el ánodo donde logran sus electrones extra y reaccionan con el carbono para producir dióxido de carbono — un proceso que erosiona el ánodo. Mientras tanto, el metal puro se forma sobre el cátodo.

Para hacer que el sistema produzca oxígeno y no dióxido de carbono, Fray tuvo que hacer un ánodo no reactivo. Esto fue crucial: “son esos ánodos, no funciona”, dice Fray. Descubrió que el titanato de calcio, que es un mal conductor eléctrico por sí mismo, se hace mucho mejor conductor cuando se le añade algo de rutenato de calcio. Esta mezcla produjo un ánodo que apenas se erosionaba — tras hacer funcionar el reactor durante 150 horas, Fray calculó que el ánodo se desgastaría unos tres centímetros al año.

En sus pruebas, Fray y sus colegas usaron una roca lunas simulada conocida como JSC-1, desarrollada por la NASA. Fray adelanta que tres reactores, cada uno de un metro de alto, serían suficientes para generar una tonelada de oxígeno al año en la Luna. Se necesitan tres toneladas de roca para producir una de oxígeno, y en las pruebas el equipo vio una recuperación del oxígeno de casi el 100%, comenta. Fray presentó sus resultados la semana pasada en el Congreso de la Unión Internacional de Química Pura y Aplicada en Glasgow, Reino Unido.

Para calentar el reactor en la Luna se necesitaría una pequeña cantidad de energía, señala Fray, y el propio reactor puede aislarse térmicamente para mantener el calor en él. “No sería un problema”, comenta. Los tres reactores necesitarían aproximadamente 4,5 kilovatios de potencia — no mucho más de lo que se usa para calentar un calefactor eléctrico de un hervidor doméstico — la cual podría suministrarse mediante paneles solares o incluso un pequeño reactor nuclear situado en la Luna.

Con un aporte extra de 10 millones de libras (16,5 millones de dólares), Fray dice que sería capaz de desarrollar un “prototipo robusto” de un reactor mayor que podría ser manejado de forma remota. Actualmente está trabajando junto con la Agencia Espacial Europea para lograr este objetivo.

Autoensamblaje

Una técnica similar para la extracción de oxígeno está siendo desarrollada por Donald Sadoway en el Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Massachusetts, pero su proceso funciona a una temperatura mucho mayor de unos 1600 °C — lo cual significa que la roca lunar se funde y puede actuar como electrolito ella misma. Produce metal fundido, incluyendo hierro, el cual cae al fondo. Fray dice que su proceso es más eficiente debido a que funciona a una temperatura más baja, pero Sadoway insiste en que la electrólisis de sal fundida, como se conoce a su técnica, recupera de todos sitios el calor extra que necesita. “En el proceso de Derek, la sal fundida le permite funciona a una temperatura mucho más baja”, dice Sadoway, “pero aún tiene que consolidar la roca lunar en una forma sólida”. Esto es a menudo difícil debido a la naturaleza de arena fina de la roca lunar, comenta.

El reactor de Sadoway podría incluso construirse a sí mismo. El interior estaría hecho de regolito lunar — los restos polvorientos que forman la superficie lunar — calentado eléctricamente para fundirlo, y el exterior sería de regolito sólido enfriado. “Formamos el muro del reactor permitiendo que el regolito fundido se congele”, dice, pero admite que iniciar el proceso es “complejo”.

Sadoway dice que con suficiente patrocinio, podría tener su sistema a escala en dos años. Su proceso ha sido preseleccionado por la NASA y está recibiendo algo de patrocinio de la agencia. “Una vez solucionado el problema de los materiales en la escala de laboratorio deberíamos ser capaces de avanzar rápidamente”, señala.

Conocida popularmente como Perseidas o Lágrimas de San Lorenzo (festividad que se celebra el día 10 de agosto), la lluvia de estrellas se inicia alrededor del 17 de julio y se prolonga hasta el 24 de agosto, aunque depende del año.

Este verano la lluvia de estrellas tendrá su máximo de actividad el 12 de agosto, entre las 19:30 y las 22:00 horas (horario peninsular), pudiendo llegar a observarse hasta 200 estrellas fugaces en una hora. En esta ocasión, al estar la Luna en su fase de cuarto menguante el día 13 de agosto se espera cierta dificultad en la observación de los meteoros más débiles.

Científicamente, lo que conocemos como 'estrellas fugaces' no son otra cosa que meteoros: partículas de polvo de tamaño variable que los cometas van dejando a lo largo de su órbita mientras giran alrededor del Sol.

Cuando la Tierra entra en contacto con la órbita de un cometa los restos de partículas dejados por éste se desintegran al penetrar en la atmósfera. El resultado son las llamadas lluvias de estrellas.

En el caso concreto de las Perseidas, la Tierra atraviesa la órbita del cometa Swift-Tuttle, que tarda unos 130 años en dar una vuelta alrededor del Sol y que hizo su última aparición en el año 1992.

Generalmente, las lluvias de meteoros son bautizadas con el nombre de la constelación donde se encuentra el punto radiante (el punto del cielo desde el cual parecen provenir los meteoros en el instante del máximo de actividad). En este caso, el punto radiante se localiza en la constelación de Perseo, de ahí el nombre de Perseidas.

Con motivo del Año Intenacional de la Astronomía se ha organizado la 3ª Fiesta de Estrellas. El objetivo de este proyecto es la organización de observaciones públicas en plazas y lugares emblemáticos de España en fechas coincidentes con efemérides celestes relevantes.

El ayuntamiento de Roquetas de Mar (Almería) y la Asociación Astronómica Orión han organizado una noche para ver las Perseidas tumbados en la arena mientras se relatan historias acerca del universo.

La asociación AstroSantander ofrece observar este fenómeno desde una goleta en el mar y AstroCuenca desde las ruinas romanas de Valeria.

Los astrónomos recomiendan observar este fenómeno en las zonas menos afectadas por la contaminación lumínica de las ciudades. La zona de Calar Alto, en Almería, o provincias como Soria, Cuenca o Teruel son las más idóneas.

Los humanos no evolucionaron de un antepasado que andaba sobre los nudillos en la tierra, sino que esa forma de moverse evolucionó de forma independiente en varios simios africanos y, en nuestro caso, los ancestros de nuestra rama evolutiva vivían en los árboles.

A esta conclusión ha llegado un equipo de investigadores británicos, de la Universidad de Duke, después de estudiar los huesos de la muñeca y la mano de casi 250 primates. Su trabajo ofrece una nueva teoría a la polémica en torno a cómo surgió el bipedalismo, un debate que surgió en tiempos de Charles Darwin y no ha acabado.

En definitiva, se trata de dos posturas encontradas: los que creen que el antepasado 'prehumano' fue un simio que caminaba con los nudillos en la tierra, como los simios africanos (con quienes tendríamos un ancestro común) y otros son quienes apuestan porque el primer caminante sobre dos piernas escalaba los árboles. Esta conexión es la que los científicos, dirigios por Tracy Kivell, han investigadado en los huesos de fósiles, primates y humanos modernos.

Para ello, Kivell comenzó comparando los huesos de la muñeca de más de 104 chimpancés y 43 bonobos juveniles y adultos, que son los más cercanos a nuestra especie, con los de 91 gorilas.

La investigadora observó que dos de las características asociadas con los desplazamientos apoyando los nudillos sólo estaban presentes en el 6% de los gorilas, pero si existían en el 96% de los chimpancés adultos y el 76% de los bonobos, como publican esta semana en la revista 'Proceedings of National Academy of Science (PNAS)'.

Conclusión: los gorilas tienen una forma de moverse apoyando los nudillos muy diferente a la de nuestros parientes. Andan a trancos con sus brazos, con las muñecas extendidas, de forma muy parecida a como caminan los elefantes. Sin embargo, chimpancés y bonobos lo hacen de forma más flexible, doblando las muñecas.

"La respuesta a estas diferencias es que los chimpancés pasan mucho más tiempo en los árboles, y por tanto necesitan más estabilidad para mantenerse en las ramas. Sin embargo los gorilas están más en la tierra, y tener unas muñecas más rígidas es más apropiado para estos desplazamientos. En ambos casos, ambas especies pasan el 85% de su tiempo caminando de este modo, pero en lugares distintos", afirma Kivell.

La antropóloga, que firma el trabajo con su colega Daniel Schmitt, de la Universidad de Durham, sugiere que hubo evolución independiente en los estilos de caminar en dos linajes de primates africanos.

Algunos científicos señalan que algunas características de la anatomía humana son vestigios de cuando caminábamos apoyándonos sobre los nudillos. Una de ellas podría ser la fusión de dos huesos de la muñeca que caracteriza a nuestra especie y que compartimos con ciertos simios. Esa particularidad anatómica nos podría haber dado más estabilidad.

El trabajo apoya la idea de que las características de la mano y la muñeca de fósiles humanos y que se han considerado típicas de un caminante con nudillos sobre la tierra, en realidad se corresponden con una especie arbórea, es decir un antepasado que caminaba por las ramas, se bajó al suelo y comenzó a andar verticalmente.

Hasta ahora no se han encontrado fósiles de ese momento de transición, que ocurrió hace unos siete millones de años. Tan sólo se conocen las famosas huellas de Laetoli, en Tanzania, de hace 3,7 millones de años, cuando nuestros ancestros ya eran bípedos.

Dos lejanos planetas que orbitan una joven estrella impactaron entre sí a altas velocidades hace miles de años en una colisión cósmica de proporciones cataclísmicas, anunciaron los astrónomos el lunes. Las reveladoras columnas de roca vaporizada y restos de lava dejados por la colisión mostraron su existencia al Telescopio Espacial Spitzer de la NASA, el cual captó las señales del impacto en recientes observaciones.


La colisión entre ambos planetas tuvo lugar en los últimos miles de años aproximadamente – un marco temporal cósmico relativamente reciente. El menor de los dos cuerpos – un planeta de aproximadamente el tamaño de la Luna, de acuerdo c los modelos por ordenador – aparentemente fue destruido por el impacto. El otro era muy probablemente un planeta del tamaño de Mercurio y sobrevivió, aunque quedó seriamente dañado.

Esta colisión tuvo que ser enrome y a una velocidad increíblemente alta para que la roca se haya evaporado y fundido”, dijo Carey Lisse del Laboratorio de Física Aplicada de la Universidad Johns Hopkins en Maryland, autor principal de un artículo que describe los hallazgos en el ejemplar del 20 de agosto de la revista Astrophysical Journal.

Los investigadores creen que los planetas se movían a aproximadamente 10 kilómetros por segundo antes de la colisión. El violento impacto liberó roca de silicio amorfa, o vidrio fundido, y endureció trozos de lava conocidos como tectitas. Spitzer también observó grandes nubes de gas de monóxido de silicio orbital creado cuando se evaporó la roca.

“Este es un evento de vida corta y verdaderamente raro, crítico en la formación de planetas como la Tierra y las lunas”, dijo Lisse. “Hemos tenido suerte de haber sido testigos de uno no mucho después de que tuviese lugar”.

Los detectores infrarrojos de Spitzer encontraron trazas de restos de rocas y lava re-congelada alrededor de una joven estrella, conocida como HD 172555, aún en las primeras etapas de formación planetaria. El sistema está a aproximadamente 100 años luz de la Tierra.

Un cataclismo similar se cree que formó la Luna hace más de 4000 millones de años, cuando un cuerpo del tamaño de Marte impactó en la Tierra.

“La colisión que formó nuestra Luna habría sido tremenda, suficiente para fundir la superficie de la Tierra”, dijo el coautor Geoff Bryden del Laboratorio de Propulsión a Chorro de la NASA en California. “Los restos dejados por la colisión muy probablemente se asentaron en un disco alrededor de la Tierra que finalmente se fundieron para formar la Luna. Esta es aproximadamente la misma escala de impacto que vemos con Spitzer – no sabemos si se formará o no una luna, pero sabemos que la superficie de un gran cuerpo rocoso estaba al rojo vivo, retorcida y fundida”.

De hecho, unos encuentros tan violentos parecen haber sido comunes en la historia inicial de nuestro Sistema Solar. Por ejemplo, los impactos gigantes se cree que han despojado a Mercurio de su corteza externa, inclinado a Urano sobre un lado, y vuelto del revés a Venus.

Apenas este mes, una pequeña roca espacial se estrelló contra Jupiter , creando una gran mancha negra.

En general, los planetas rocosos como la Tierra se fusionan y crecen cuando las rocas pequeñas impactan y se agrupan, uniendo sus núcleos.

El sistema alrededor de HD 172555 es relativamente joven con sólo 12 millones de años de antigüedad, comparado con los 4500 millones de años de nuestro Sistema Solar.

Científicos de la Universidad John Moores de Liverpool, en el centro de Gran Bretaña, anunciaron un hallazgo que podría cambiar la teoría vigente acerca de cuándo llegó el hombre a América. Los investigadores encontraron huellas humanas de 40.000 años en las afueras de Puebla, una ciudad situada a poco más de 100 kilómetros del Distrito Federal mexicano. Pero Paul Renne y un equipo de geólogos y antropólogos que usaron una técnica en base a argón para calcular la antigüedad de las huellas, y otro método para calcular la edad de los fósiles, dijeron que tenían alrededor de 1,3 millones de años.
"Concluimos que: o la migración de homínidos que ingresó a América ocurrió muchísimo antes de lo que se creía previamente, o que las huellas en cuestión no fueron hechas por humanos sobre cenizas frescas"
.

Las medidas de la composición realizadas por el Rover de Exploración de Marte Opportunity de la NASA confirma que esta roca de la superficie de Marte es un meteorito de hierro-níquel.

Esta imagen combina exposiciones del ojo izquierdo y derecho de la cámara panorámica del róver para proporcionar una visión tridimensional cuando se ve a través de gafas rojo-azules. La cámara tomó las imágenes durante el día marciano 1961, o sol, de la misión de Opportunity en Marte (31 de julio), después de aproximarse lo suficiente para tocar la roca con el brazo robótico del róver.

Los investigadores han llamado informalmente a la roca”Block Island”. Con una anchura de aproximdamente sesenta centímetros, es el meteorito más grande encontrado hasta el momento en Marte. Opportunity encontró un meteorito más pequeño de hierro-níquel, llamado”Heat Shield Rock” a finales de 2004.

Cualquier dueño de perro ha intentado en alguna ocasión convencer a propios y extraños de lo lista que es su mascota, pero ahora además se sabe que algunos pueden contar hasta cinco, entienden más de 150 palabras e incluso intentan engañar a los humanos en su beneficio.

Estas son las conclusiones del psicólogo y experto en investigación canina Stanley Coren, de la Universidad British Columbia, que interviene en el congreso anual de la Asociación Psicológica Americana para hablar de "cómo piensan los perros".

Coren, autor de libros sobre perros y su comportamiento, ha revisado numerosos estudios para concluir que el mejor amigo del hombre tiene capacidad para resolver problema complejos y es más parecido a los hombres y otros grandes primates de lo que se pensaba.

"Sus impresionantes momentos de brillantez y creatividad son un recuerdo de que quizás no sean 'Einsteins' pero están seguramente más cerca de los humanos de lo que pensamos", señaló.

Coren indicó que, según diversas medidas conductuales, "las capacidades mentales del perro están cercanas a las de un niño de dos a dos años y medio".

Varía en función de la raza

Además, aseguró que la inteligencia varía según el tipo de perro y que la raza determina algunas de las diferencias entre animales.

Así, explicó que hay tres tipos de inteligencia canina: instintiva; adaptativa (la capacidad de aprender del entorno para resolver problemas) y de trabajo y obediencia (el equivalente al "aprendizaje escolar").

Datos de 208 perros de EEUU y Canadá mostraron que en la "inteligencia de trabajo y obediencia" el 'border collie' es "el número uno", seguido del caniche y en tercer lugar el pastor alemán.

La lista de los canes más listos se completa con el golden retriever; el doberman; el pastor shetland (parecido al collie) y el labrador, según la clasificación de Coren. El experto aseguró además que un perro normal puede aprender unas 165 palabras, incluidas señales, y los más "inteligente", unas 250.

Coren explicó que la capacidad máxima de aprendizaje de palabras se basa en el estudio de 'Rico', un can que demostró conocer 200 palabras habladas y tener una gran capacidad y rapidez de aprendizaje.

Por si fuera poco, estos amigos de cuatro patas también saben de números, aunque sería mejor no confiarles la contabilidad doméstica, pues pueden "contar" hasta cuatro ó cinco, y sólo tienen una "comprensión básica" de la aritmética, aunque son capaces de detectar errores como 1+1=1 o 1+1=3.

Durante el juego, los perros son capaces de intentar engañar, de manera deliberada, tanto a otros canes como a los humanos para lograr una recompensa y, según Coren, "tiene casi tanto éxito engañando a humanos como los humanos a engañando perros".

Bienvenidos/as

Bienvenidas, almas viajeras de la red. Bienvenidas al espacio y reunión de la ciencia y el ser humano.

Isaac Asimov

Isaac Asimov
Prolífico y destacado autor de obras literarias de ciencia ficción y divulgación científica.

Online

Seguidores

Entradas