Fundación científica

Donde la ciencia y el ser humano convergen

Los investigadores en inteligencia artificial a menudo idealizan las Leyes de la Robótica de Isaac Asimov como indicadores de la interacción robot-humano. Pero algunos expertos en robótica dicen que la idea podría usar una remodelación práctica para reconocer las actuales limitaciones de los robots.

Los robots auto-conscientes que habitan las historias de Asimov y otras tales como “2001: Odisea en el Espacio” y “Battlestar Galactica” siguen en el futuro lejano. Los robots actuales aún carecen de cualquier tipo de autonomía real para tomar sus propias decisiones o adaptarse inteligentemente a nuevos entornos.

Pero el peligro surge cuando los humanos empujan a los robots más allá de sus actuales límites de toma de decisiones, advierten los expertos. Esto puede llevar a errores e incluso a tragedias implicando a robos en fábricas o en operaciones militares, cuando los humanos olvidan que toda la responsabilidad ética y legal aún descansa sobre los hombros del homo sapiens.

“La fascinación por los robots ha llevado a alguna gente a tratar de evitar la responsabilidad de decisiones complejas, con consecuencias potencialmente malas”, dijo David Woods, ingeniero de sistemas en la Universidad Estatal de Ohio.

Woods y un compañero investigador propusieron revisar las Tres Leyes para enfatizar la responsabilidad humana sobre los robots. También sugirieron que los manejadores de los robots en Tierra podrían tomar pistas de la NASA cuando se trata de interacción robot-humano.

Actualizando a Asimov

Las Tres Leyes de Asimov están fijadas en un futuro en el que los robots pueden pensar y actuar por sí mismos. La primera ley prohíbe que los robots dañen a los humanos o que los humanos queden dañados por inacción, la segunda ley requiere que los robots obedezcan las órdenes de los humanos salvo que entre en conflicto con la primera ley. La tercera ley requiere que los robots protejan su propia existencia, excepto cuando hacer esto entre en conflicto con las dos leyes anteriores.

Corea del Sur ha usado estas “leyes” como una guía para su Carta de Ética Robótica, pero Woods y sus colegas creen que carecen de algunos puntos vitales.

Woods trabajó junto con Robin Murphy, experto en robótica de rescate de la Universidad Texas A&M, para crear tres leyes que reconozcan a los humanos como los adultos inteligentes responsables de las relaciones robot-humano. Su primera ley dice que los humanos no deben desplegar robots sin un sistema de trabajo que cumpla con los mayores estándares profesionales y legales de seguridad y ética. Una segunda ley revisada requiere que los robots respondan a los humanos de forma adecuada a sus papeles, y se asume que los robots están diseñados para responder a ciertas órdenes de un número limitado de humanos.

La tercera ley revisada propone que los robots deben tener suficiente autonomía para proteger su propia existencia, siempre que tal protección no entre en conflicto con las dos leyes anteriores y permita una transferencia suave de control entre humano y robot. Esto significa que el róver de Marte debería saber automáticamente que no debe ir hacia un acantilado, salvo que los operadores humanos le digan específicamente que lo haga.

Woods y Murphy ven necesaria tal revisión dado que los fabricantes de robots no reconocen la responsabilidad humana sobre los robots. Murphy dijo que tal actitud procede de la cultura del software de ordenador, donde la responsabilidad conlleva menos consecuencias que crear una máquina la cual termine hiriendo a los humanos o dañando una propiedad.

“Lo que sucede es que vemos a robotistas que nunca han fabricado o trabajado en el mundo físico, y no se dan cuenta de que son los responsables”, dijo Murphy a SPACE.com. “Al final del día, si haces algo, es tu problema”.

Esto contrasta con la actitud de la “cultura de la seguridad” de la NASA y la aproximación metódica que prueba cuidadosamente los róvers y sondas robóticas, reconoce los límites de los robots e intenta asegurar que los operadores humanos puedan saltar rápidamente al asiento del conductor cuando sea necesario.

El camino de la NASA

Tanto Woods como Murphy dijeron que se sienten muy cómodos con la aproximación de la NASA a las interacciones robot-humano, ya sea implicando a brazos robóticos en la Estación Espacial Internacional o a la sonda Cassini haciendo su tour por el sistema de Saturno.

“Comprenden cómo de valiosos son los recursos robóticos”, explicó Woods. “Saben que habrá sorpresas en la exploración espacial”.

Murphy señala que la aproximación de la NASA a los robots procede de la tradición de IA donde la gente no hace suposiciones sobre tener un control perfecto sobre todo. El lugar de esto, la agencia espacial ha usado sistemas de IA que pueden funcionar bien dentro de los patrones normales de operación, y aún así pueden depender de asistencia humana para las situaciones más inciertas.

Esta aproximación ha funcionado bien en el caso de la NASA en muchas ocasiones. Por ejemplo, los científicos han hecho hábiles maniobras con los róvers de Marte Spirit y Opportunity, cuando los robots encuentran problemas impredecibles en el terreno y clima marciano.

Por el contrario, algunos investigadores sin un trasfondo de IA asumen que pueden programar robots que tengan un modelo o visión completa del mundo, y que pueden comportarse adecuadamente para cualquier situación dada. Esto coincide con la tentación de suponer que dar a los robots más autonomía significa que pueden manejar la mayor parte, o todas, las situaciones por sí mismos.

Murphy advirtió que tal aproximación de “mundo cerrado” sólo funciona en ciertas situaciones que presentan opciones limitadas para una IA. No importa cuánta programación incluyan los robots, el mundo real abierto representa un agujero lleno de trampas y escenarios inesperados.

Transferencia de control

La NASA indudablemente aún quiere ver que los robots pueden tomar más responsabilidad, especialmente durante misiones cuando las sondas viajan más allá de la Luna o Marte. Los investigadores han empezado a desarrollar la siguiente generación de robots que podrían algún día tomar las decisiones más básicas al explorar mundos como Europa o Titán.

Pero por ahora, la NASA ha reconocido que los robots aún necesitan supervisión humana – un concepto que algunos fabricantes y operadores de la Tierra tienen problemas para aceptar. Situaciones inesperadas tales como un mal funcionamiento del robot o sorpresas ambientales que pueden requerir que los humanos recobren rápidamente el control del robot, por un fallo a la respuesta correcta.

“Ahora mismo, lo que vemos una y otra vez es que transferir el control es un problema”, señala Murphy. Observa cómo los operadores humanos rápidamente entran en problemas al manejar robots en “Disaster City” de Texas A&M”, un área de simulación de entrenamiento para rescate. Parte del problema también surge cuando la gente no sabe las capacidades de su robot.

La NASA se permite el lujo de tener un equipo de científicos vigilando sus exploradores robóticos, en lugar de sólo operadores humanos. Pero los controladores de misión también mantienen una alta conciencia de los límites de sus exploradores robóticos, y saben cómo tomar suavemente el control.

“Comprenden que cuando tienen seguridad o bajo riesgo, pueden delegar más autonomía en el robot”, dijo Woods. “Cuando pasan cosas inusuales, restringen la autonomía”.

Woods comparó la situación a los padres que colocan un perímetro de seguridad dentro del cual los niños pueden explorar. Esta analogía puede continuar sirviendo tanto para la NASA como para otros manejadores de robots.

“La gente está dando este salto de fe sobre que la autonomía de los robots aumentará y resolverá nuestros problemas”, añade Woods. “Pero no hay muchas pruebas sobre que la autonomía por sí misma eliminarán estas decisiones difíciles y de alto riesgo”.

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Paradójicamente, la teoría del motor de curvatura tiene su origen en la ficción: se trata del mecanismo que permite a los personajes de la serie de ciencia ficción Star Trek surcar el espacio más rápido que la luz, o a velocidades superluminares, mediante la distorsión del espacio tiempo.

Su salto al terreno científico tuvo lugar en 1994, año en el que el físico mexicano Miguel Alcubierre publicó un artículo en la revista Classical and Quantum Gravity titulado “El motor de curvatura: viaje hiperveloz en el marco de la Relatividad General”. Este trabajo aprovecha la flexibilidad de la geometría del espacio tiempo, que se curva en presencia de materia del mismo modo en que, por ejemplo, una pelota situada sobre una sábana tensada curva el tejido a su alrededor. En el Universo, los objetos de mayor masa producen curvaturas más acentuadas. Sobre esta base, Alcubierre diseñó un medio de transporte en forma de burbuja con paredes compuestas de materia exótica (un tipo de materia aún hipotético que tiene propiedades gravitatorias repulsivas) que producen una contracción del espacio tiempo en la proa y una dilatación en la popa similares a una ola en el mar.

El investigador del CSIC Carlos Barceló, del Instituto de Astrofísica de Andalucía, en Granada, explica: “Una nave dentro de la burbuja alcanzaría su destino sin moverse por la distorsión local del espacio tiempo, igual que un surfista situado sobre la cresta no ejerce un movimiento propio pero alcanza la orilla gracias al de la ola”. Según los autores, esta hipótesis matemática mostraba debilidades desde su publicación, aunque no se descartaba. Sin embargo, explican, hay un punto que no se había contemplado hasta el momento y que puede afectar al movimiento de esa burbuja: cómo actúan las fluctuaciones cuánticas ante las curvaturas.

De acuerdo con las estimaciones del trabajo, si la burbuja se desplaza a velocidad superior a la de luz, los tripulantes verán como las paredes anterior y posterior se comportan respectivamente como un horizonte negro y otro blanco, similares a los que tienen los agujeros negros. Así, si el astronauta de la nave mira hacia atrás no verá absolutamente nada, un horizonte negro, ya que se está desplazando a mayor velocidad que la luz y ninguna señal puede alcanzarle; en cambio, la proa de la nave recibirá todas las señales, y por ello se habla de horizonte blanco.

Dos horizontes problemáticos

Los autores calcularon cómo se comportan las fluctuaciones cuánticas en ambos horizontes cuando la burbuja se acerca a la barrera de la luz, y han hallado dos efectos que impiden el viaje. En ambos casos, el escollo se encuentra en el vacío del Universo. Según la teoría cuántica, en este estado la energía no es equivalente a cero, sino que de forma constante nacen y se aniquilan parejas de partículas tan rápido que resulta imposible detectar su presencia, y por ello se conocen como partículas virtuales. Sin embargo, bajo ciertas condiciones, como una fuerte distorsión del espacio tiempo, esas partículas pasan a ser reales. Esto es lo que ocurre en ambos horizontes de la burbuja ideada por Alcubierre, con consecuencias negativas.

En el horizonte negro, el astronauta se toparía con la radiación de Hawking, enunciada por Stephen Hawking en 1974. Se trata de un efecto conocido en los agujeros negros debido a la creación y destrucción de parejas de partículas: el enorme campo gravitatorio del agujero negro puede romper el par y absorber una de las partículas, mientras que la otra escapa. Así se produce un resplandor que procede del horizonte y que, en el caso de la burbuja, depende del grosor de la pared: una pared fina, más fácil de obtener en teoría, presentaría temperaturas muy altas que podrían destruir la nave que viajara en su interior.

Pero, aunque pudieran construirse paredes tan gruesas que la temperatura producida por la radiación de Hawking no fuera un obstáculo, el horizonte blanco supone un impedimento insalvable, según la investigación. La contracción del espacio tiempo en la parte delantera produciría igualmente la ruptura de pares de partículas, con la diferencia de que irían amontonándose en la pared. “Este fenómeno provocaría un crecimiento exponencial de energía incontrolable, y hace inconsistente la construcción porque tiende a autodestruirse”, apunta Barceló. “O inventamos una manera de contrapesar esa energía con una energía inversa, lo cual parece inverosímil, o simplemente hay que admitir que no podemos superar la velocidad de la luz por razonables periodos de tiempo”, añade el investigador del CSIC.

Otra opción consiste en no atravesar la barrera de la luz, de modo que no se produjeran horizontes, ni radiación de Hawking, ni altas temperaturas. Como los autores señalan al final del artículo, “quizá viajar al 99% de la velocidad de la luz no esté tan mal, después de todo”.

La mayor parte de estrellas no nacen en amables cunas cósmicas, sino en violentas nubes llenas de potentes vientos y abrasadora luz. Nuevas imágenes tomadas por el Observatorio Europeo del Sur (ESO) ofrecen una visión de uno de estos caóticos terrenos de nacimiento.

Las observaciones revelan estrellas en ciernes entre el violento ataque de radiación de otras estrellas cercanas y materia expulsada en explosiones de supernova de estrellas moribundas.

Los investigadores centraron su atención en una nube conocida como RCW 38, situada aproximadamente a 5500 años luz de distancia. En esta densa colección de gas y polvo, muchas estrellas nace, viven y mueren.

De hecho, los científicos creen que nuestro propio Sol y Sistema Solar nacieron posiblemente en un cúmulo similar a este, en lugar de en una región suburbana más apartada de la Vía Láctea.

“Observando cúmulos estelares como RCW 38, podemos aprender mucho sobre los orígenes de nuestro Sistema Solar y otros, así como de esas estrellas y planetas que aún tienen que nacer”, dijo Kim DeRose, primera autora del artículo sobre el nuevo estudio en el ejemplar de junio de la revista Astronomical Journal. DeRose trabajó en el proyecto cuando era estudiante no graduada en el Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachussetss.

Las nuevas imágenes son las más detalladas hasta el momento de RCW 38, tomadas con el instrumento de óptica adaptativa NACO en el Telescopio Muy Grande de ESO en Chile. Las imágenes revelan que el objeto, conocido como IRS2, el cual parece ser una estrella masiva en el centro de una nube, es en realidad dos estrellas distintas rotando una sobre otra en un sistema binario.

Este sistema brilla en una luz blanca-azul, el rango más caliente para las estrellas. La potente radiación que se emite desde IRS2 energiza y dispersa el gas cercano que podría de otra forma colapsar en nuevas estrellas, o que podría formar discos protoplanetarios alrededor de estrellas en desarrollo. De no ser interrumpidos, estos discos pueden finalmente dar lugar a nuevos sistemas solares con planetas, lunas y cometas como el nuestro.

El predominante sistema binario en el centro de la nube no parece haber aplastado toda la formación estelar cercana. Los investigadores encontraron unas pocas protoestrellas, las cuales son tenues bebés que se convertirán en estrellas adultas, en la región.

Y en las nubes abarrotadas como RCW 38, las explosiones de supernova también son comunes. Esta agonía de estrellas masivas dispersa materia por toda la nube, incluyendo elementos pesados e isótopos raros de compuestos químicos quedan absorbidos en otras estrellas que se forman en las cercanías. Detectar algunos de estos isótopos en el Sol es una forma en la que los astrónomos pueden aprender sobre nuestros propios orígenes y rastrearlos a una caótica cuna como esta.

El Centro de Investigación de la NASA ha desarrollado un escudo térmico hinchable para proteger los vehículos espaciales durante la reentrada. El proyecto, bautizado como Inflatable Re-entry Vehicle Experiment (IRVE, por sus siglas en inglés), permitirá aligerar la carga que transportan las naves dirigidas a Marte, haciendo posible un aumento de la carga de los 'Mars Rovers'.

El peso de los escudos actuales, fabricados a partir de carbono, limita el peso de los vehículos exploradores enviados al espacio, ya que los cohetes sólo pueden despegar con un máximo de carga. Asimismo, el tamaño de los escudos está limitado por las dimensiones de los cohetes que tienen que transportarlos.

Durante un experimento realizado por la NASA, un cohete Black Brant 9 transportó este nuevo escudo hinchable a una altitud de 211 kilómetros. Menos de un minuto después, éste se liberó de su cápsula y comenzó a inflarse a casi 200 kilómetros, un proceso que lleva menos de 90 segundos.

"Ha sido un gran éxito", declaró Mary Beth Wusk, directora del proyecto. "El IRVE ha sido una demostración a pequeña escala, ahora que el concepto ha quedado demostrado nos gustaría construir cápsulas más avanzadas capaces de soportar de más cantidad de calor". La idea de usar este tipo de tejidos ha estado en la mente de los investigadores durante años, pero no estaban seguros de que los materiales con que contaban pudieran soportar la reentrada.

Las capas superiores del escudo térmico se han fabricado con un tejido de fibras de cerámica, que recubre un interior hecho de un polímero llamado Kevlar y cubierto de silicona, que define y mantiene su forma. La cápsula contenedora del escudo está envasada al vacío en un cilindro de 16 centímetros, y una vez se despliega, se hincha con nitrogeno hasta alcanzar tres metros de anchura.

La exploración espacial continúa arrojando luz sobre los orígenes de la vida en nuestro planeta. Científicos de la NASA han confirmado la presencia de glicina, uno de los componentes fundamentales para la existencia de seres vivos, en muestras del cometa Wild 2 tomadas por la sonda Stardust.

"La glicina es un aminoácido usado por los seres vivos para producir proteínas, y ésta es la primera vez que se ha encontrado en un cometa", declaró la doctora Jamie Elsila, del Centro de vuelos espaciales de la NASA en Goddard, Maryland. "Este descubrimiento apoya la teoría de que algunos de los ingredientes necesarios para la vida se formaron en el espacio y llegaron a la Tierra por impactos de cometas y meteoritos", afirmó Elsila.

La sonda Stardust pasó a través de la nube de gas y polvo que rodeaba el núcleo del Wild 2 en enero de 2004, y recolectó muestras del cometa. Para ello utilizó una rejilla de un nuevo material llamado Aerogel, un compuesto esponjoso formado en más de un 99% por espacio vacío. La rejilla estaba dentro de una cápsula que se desprendió de la Stardust y llegó a la Tierra en enero de 2006, para posteriormente ser analizada por los especialistas.

Vida en el espacio

Las proteínas son indispensables para la existencia de moléculas de vida, y están presentes en todo tipo de estructuras, realizando diferentes funciones básicas para los seres vivos. A partir de la combinación de 20 aminoácidos en diferentes composiciones, se constituyen millones de proteínas.

"El descubrimiento de glicina en un cometa apoya la idea de que los componentes fundamentales para la vida son comunes en el espacio, y fortalece el argumento de que la vida en el universo puede ser menos rara de lo que se cree", señaló el doctor Carl Pilcher, director del Instituto de Astrobiología de la NASA.

Tras los primeros análisis, los investigadores no pudieron confirmar que la glicina encontrada no fuese producto de la contaminación de las muestras desde la Tierra. Sin embargo, nuevas investigaciones utilizando análisis de isótopos, descartaron esta posibilidad y confirmaron el origen extraterrestre del aminoácido.

Una vela solar de tamaño decente podría acelerar fuera del Sistema Solar en muy poco tiempo, lo cual genera nuevos retos para los navegantes.

Si alguna vez viajamos a una distancia decente de la Tierra, tendremos que romper nuestra dependencia de los sistemas de propulsión química: simplemente no es posible llevar suficiente combustible químico para lograr un impulso decente.

Una alternativa interesante es la vela solar, la cual usa la fuerza de la presión de radiación solar para acelerar. Mediante un cálculo, una vela solar con un radio de aproximadamente un kilómetros y una masa de 300 kg (incluyendo 150 kg de carga) tendría un pico de aceleración de 0,6g en una trayectoria parabólica si fuese liberada a 0,1 UA del So (donde la presión de radiación es más alta).

Este tipo de aceleración la llevaría más allá del cinturón de Kuiper, en la heliopausa, el límite entre el Sistema Solar y el espacio interestelar, en apenas 2,5 años; una distancia de 200 UA.

En 30 años, podría viajar 2500UA, lo suficiente para explorar la Nube de Oort.

Pero tal viaje puede no ser coser y cantar, especialmente en lo que respecta a la navegación, dice Roman Kezerashvili y Justin Vazquez-Poritz, físicos de la Universidad de New York. Dicen que la física Newtoniana común no es válida para este tipo de viaje.

El problema es que la vela tendría que lanzarse tan cerca del Sol que los efectos de la relatividad general tales como la precesión del perihelio de los objetos orbitales tienen que tenerse en cuenta. E incluso aunque estos efectos fuesen relativamente pequeños en el inicio, tienen un gran significado a lo largo de grandes distancias.

Los cálculos llevados a cabo por Kezerashvili y Vazquez-Poritz demuestran que los efectos de la relatividad general podría sacar de su curso a una vela solar en hasta un millón de kilómetros en el tiempo que alcanza la Nube de Oort e incluso las diminutas fuerzas relativistas tales como el arrastre de marcos pueden causar un desvío de mil kilómetros.

Lo que estos chicos están diciendo es que los navegantes interestelares tendrán que ser muy competentes en la nueva disciplina de la navegación relativista.

No obstante, esto no pasará en un tiempo. La estimación más optimista para el lanzamiento de una de tales misiones está en torno a 2040.

Gran parte de la búsqueda de vida fuera del oasis biológico de la Tierra se ha centrado en examinar las condiciones de otros planetas en nuestro Sistema Solar y estudiar el cosmos buscando otros planetas similares a la Tierra en sistemas planetarios lejanos.

Pero un equipo de astrónomos se está aproximando a la cuestión de la vida en todo el universo buscando el inicio potencial de la vida.

Aparna Venkatesan, de la Universidad de San Francisco, y Lynn Rothschild, del Centro de Investigación Ames de la NASA en Moffett Field, California, están usando modelos de formación y destrucción estelar para determinar cuándo en los aproximadamente 13 700 millones de años de la historia del universo podrían haberse formado los suficientes elementos biogénicos – los esenciales para la vida como la conocemos – para permitir que se formase la vida.

Podemosfijar el surgimiento de la vida en la Tierra en algún momento alrededor de hace 3500 millones de años. Venkatesan y Rothschild quieren descubrir qué sucede cuando amplías la pregunta a la vida en todo el universo.

“¿Puedes con eso? ¿Podrías realmente empezar a hablar de la vida en el universo hace 12 mil millones de años? Y esta es la pregunta sobre la que estamos hablando”, dijo Rothschild.

Con estimaciones básicas de los elementos producidos por las primeras generaciones de estrellas, el par ha encontrado hasta el momento que “la mayor parte de [los elementos esenciales] pueden crearse bastante rápido en los inicios del universo”, dijo Venkatesan.

Venkatesan presentó sus conclusiones en la 214 reunión de la Sociedad Astronómica Americana en Pasadena, California.

Elementos biogénicos

Para que se forme y medre la vida tal y como la conocemos, deben darse cuatro condiciones: suficientes cantidades de los conocidos como elementos biogénicos, un disolvente (en la Tierra, tal disolvente es el agua líquida), una fuente de energía, y tiempo “para que los elementos se unan u creen un hogar y condiciones para que medre la vida”, explicó Venkatesan.

Los elementos biogénicos incluyen el carbono, nitrógeno, oxígeno, fósforo, azufre, hierro y magnesio.

“El carbono en particular es muy interesante”, dijo Venkatesan. El carbono es “ubicuo en el Sistema Solar y más allá” y es “extremadamente versátil químicamente”.

Estos elementos, como todos los elementos presentes en el universo actual, se forjaron en las entrañas de las estrellas. Pero no todas las estrellas hacen cada elemento, y algunas producen ciertos elementos más rápido que otros.

Las estrellas de masa baja crean todos los elementos de la tabla periódica hasta el carbono, pero debido a que estas estrellas viven más, producen los elementos más lentamente. Las estrellas de masa intermedia llegan al nitrógeno o el oxígeno. Finalmente, las estrellas más masivas, con sus intensos hornos, crean todos los elementos hasta el hierro y otros metales pesados. Y debido a que estas bestias estelares tienen vidas tan cortas y violentas, pueden crear elementos más rápidamente que las estrellas menores.

Las explosiones que acaban con las vidas de estas estrellas pueden variar, y sus diferentes firmas indican las cantidades de los metales implicados, tales como el hierro y el níquel, dijo Venkatesan.

Se cree que las primeras estrellas que se formaron en los inicios del universo fueron muy masivas. Estas estrellas tendrían composiciones características que a su vez implican que tendrían abundancia de elementos específicos “que crean en su agonía”.

Los dos científicos llegaron a la idea de aplicar el estudio de las primeras estrellas a la astrobiología cuando Rothschild llegó al departamento de Venkatesan para una charla. Mientras hablaban en la cena esa noche, “empezamos a darnos cuenta de que podría ser realmente divertido observar cuándo pudieron estar disponibles ahí fuera los primeros bloques básicos de la vida”, dijo Venkatesan. “Hasta donde sabemos, nadie más trabajaba o hablaba de esta idea”.

Lista de deseos

Rothschild esbozó lo que llama su “lista de deseos” de elementos que considera absolutamente esenciales para la vida tal y como la conocemos. Venkatesan usó entonces las actuales teorías de formación estelar, desde las primeras estrellas muy masivas a las estrellas que se formaron luego a partir de las semillas de estas primeras estrellas, para modelar la formación de los elementos biogénicos.

“El elemento número uno es el carbono”, dice Rothschild. “Y llegas al mismo debido a que realmente sólo hay dos elementos que tengan una versatilidad real en términos de ser capaz de crear un conjunto de compuestos que podrían formar la vida, y uno es el silicio y otro el carbono”.

Pero el silicio queda descartado por no ser predominante en el universo, ni tal versátil químicamente.

“La realidad es que estamos sentados sobre una gran roca de silicio, y no estamos hechos de silicio”, dijo Rothschild.

Para redondear la lista de obligatorios tenemos el hidrógeno, oxígeno y nitrógeno.

“El nitrógeno parece ser clave. Se encuentra en muchos compuestos, y esto añade una gran versatilidad al conjunto”, dijo Rothschild. El nitrógeno, por ejemplo, es la columna vertebral de los aminoácidos, los cuales a su vez son los bloques básicos de las proteínas y se han detectado en el espacio interestelar.

Listas secundarias y terciarias incluyen al fósforo, azufre, hierro y magnesio, “y todo tipo de cosas de moda que usamos mucho, pero que podría concebir más fácilmente un sistema sin ellas”, dijo Rothschild.

Acumulación de elementos

Encontraron que “el nitrógeno puede acumularse muy rápidamente”, dijo Venkatesan. Pero no justo al inicio, debido a que estas primeras estrellas masivas “tenían una minúscula producción de nitrógeno”. Correspondió a las estrellas de generaciones posteriores elevar los niveles lo suficiente para lo que creen los científicos que podría ser necesario para hacer los elementos lo bastante predominantes.

El carbono también “necesita algo de tiempo para acumularse”, debido a que necesita estrellas de masa baja e intermedia, dijo Venkatesan.

Aunque estas estrellas iniciales habrían tenido problemas para producir nitrógeno, son “bastante eficientes al producir hierro. Esto es debido a que estallan por completo”, comenta Venkatesan.

En general, el esfuerzo de modelado encontró que los niveles de hierro y magnesio habrían surgido muy pronto, con el carbono necesitando unos 100 millones de años para acumularse.

Aunque la masa crítica de los elementos biogénicos para formar la vida no se conoce, “estas cantidades serían más que suficientes”, añade Venkatesan.

Por lo que tal vez unos 100 millones de años después de que empezara el universo, muchos de estos elementos se encontrarían en números sustanciales, aunque la escala de tiempo puede estar más alrededor de 500 millones de años para el carbono y el nitrógeno aún está por ver.

Otros ingredientes

Mejores modelos y un mejor conocimiento de la física de las primeras estrellas podrían cambiar algo el dibujo, modificando las escalas temporales de la acumulación de elementos y el entorno interestelar en el que nacen.

Por supuesto, saber qué elementos tienen que estar presentes y si lo están o no, no responderá la pregunta de cuándo podría haber aparecido la vida. Los elementos deben también recopilarse en cantidades suficientemente significativas.

“La cuestión final no es sólo que elementos, sino qué concentración se acumula localmente”, comenta Rothschild.

Una vez que Rothschild llegó a las estimaciones de cantidades elementos distintos posiblemente requeridos, ella y Venkatesan pueden usar modelos para estimar las concentraciones en galaxias y Sistema Solar con el tiempo y ver si encuentran puntos en los que sea probable que se formase la vida.

“Todo lo que necesitamos es un lugar en el universo que tenga las condiciones, los prerrequisitos”, dijo Rothschild.

Los disolventes, tales como el agua líquida o el metano, también tienen que tenerse en cuenta. Venkatesan dijo que a largo plazo, esperan usar los mismos métodos para evaluar cuándo podría haber habido agua en suficientes cantidades.

También está la cuestión de su la vida podría haber medrado en el entorno hostil predominado por el ultravioleta de las primeras estrellas. La luz ultravioleta se cree que tiene tanto efectos beneficiosos como perjudiciales para la vida, pero cuál podría haber ganado en el joven universo no se sabe.

Finalmente la cuestión se convertirá en: “¿podemos acumular los bloques básicos tan pronto”, dijo Venkatesan. Aunque responder tal cuestión llevará algún tiempo, podría tener un impacto sustancial en estudios de los inicios del universo, investigación de exoplanetas, y las expectativas de hasta dónde podría haber evolucionado la vida, por no mencionar la visión de nuestro lugar en el universo.

“Esto no va a curar el cáncer”, comenta Rothschild. “Pero creo que en cierta forma, es una pregunta muy profunda: ¿cuándo se puede empezar a hablar de vida en nuestro universo?”

No es ciencia-ficción, sino el futuro de la robótica. PHRIENDS (acrónimo de 'Physical Human-Robot Interaction: depENDability and Safety') es un proyecto financiado por la UE sobre la interacción humano-robot, llevado a cabo por el centro de investigación 'Enrico Piaggio' de la Universidad de Pisa.

Antonio Bicchi, ingeniero coordinador del proyecto, afirma que con sus colaboradores están estudiando las condiciones para una interacción más segura entre el ser humano y la máquina. "Nuestro objetivo es desarrollar componentes fundamentales para una nueva generación de robots, con los cuales compartir un ambiente de trabajo sin riesgos".

Las máquinas del futuro incorporarán elementos de seguridad en su propio diseño, que les impedirán provocar daños a los humanos, permitiendo una interacción codo con codo.

"La seguridad estará garantizada por su estructura física, y no por sensores exteriores o algoritmos que puedan fallar", explica el científico.

Los resultados de esta investigación encontrarán aplicación en diferentes sectores: desde la industria, la logística y el reciclaje, hasta la cirugía y la rehabilitación.

Proyecto europeo

El proyecto empezó el 1 octubre 2006 y terminará el 30 septiembre 2009. Tres de los seis institutos que participan son italianos: el centro de investigación 'Enrico Piaggio' (coordinador del proyecto), el "Dipartimento di Informatica e Sistemistica" de la Universidad 'La Sapienza' de Roma y el "PRISMA Lab" de la Universidad de Nápoles 'Federico II'.

También colaboran el francés "Laboratiore d'Analyse et d'Architecture des Systèmes/National Centre of Scientific Research", y los alemanes "Institute of Robotics and Mechatronics" y "KUKA Roboter GmbH".

PHRIENDS ha abierto el camino a otro proyecto paralelo financiado por la UE: VIACTORS (Variable Impedance ACTuation systems embodying advanced interaction behaviORS), que empezó el 1 febrero 2009 y continúa la investigación sobre la estructura de los robots y su capacidad para cumplir determinadas prestaciones.

VIACTORS, que hasta la fecha ha supuesto una inversión de 3.350.000 euros (contra los 2.158.000 de PHRIENDS), pretende construir robots que, además de ser más ligeros, tengan una estructura parecida a la de los músculos humanos: blanda cuando se muevan rápido, y rígida cuando cumplan tareas que necesiten precisión.

"Hoy en día, la seguridad en el trabajo sólo se garantiza con la separación (de los espacios de acción) entre humano y máquina. De hecho, son muchísimos los accidentes en las industrias donde los obreros trabajan en estrecho contacto con máquinas", asegura Bicchi.

La característica más revolucionaria de la próxima generación de robots será la interacción directa con el ser humano, y es una apuesta que se juega, ante todo, en el campo de la seguridad industrial.

La 'Revolución de Copérnico' de la róbotica

Estamos todavía muy lejos de ver cosas como las que nos propone la literatura de ciencia-ficción, sin embargo, podemos encontrar una similitud entre las obras de Isaac Asimov y PHRIENDS. Los aficionados del escritor ya habrán pensado en la 'primera ley de la robótica': "Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño".

Según Bicchi "nos estamos enfrentando a un cambio muy importante por el desarrollo de esta ciencia".

La róbotica clásica se pone como primer objetivo determinar el tipo de prestación solicitada al robot, y a partir de esta, construir la máquina. Solo en un segundo momento se resuelven los problemas de seguridad, programando algoritmos y aplicando sensores exteriores, pero estos pueden fallar.

Lo que se propone PHRIENDS es una verdadera 'revolución de Copérnico': se trata de invertir el esquema de proyección clasico, poniendo el enfoque sobre la seguridad.

Bicchi lo tiene claro: "Queremos crear robots que sean intrínsecamente seguros para después ocuparnos de lo que tengan que hacer. La seguridad estará incorporada en la estructura de los robots, y no como una aplicación externa"

Una serie de avistamientos de ovnis en el Reino Unido en 1996 puede haber tenido más que ver con la fascinación del público con series de televisión como 'Expediente X' que con la actividad extraterrestre, según archivos del Gobierno distribuidos este lunes.

Unos documentos del Ministerio de Defensa británico mostraron que hubo 609 avistamientos de ovnis en 1996, frente a los 117 de 1995. Esto coincidió con el aumento de la popularidad de 'Expediente X' y el éxito de taquilla de 'Independence Day'.

Los archivos, recopilados a lo largo de 15 años y que contienen más de 4.000 páginas, muestran que la mayoría de avistamientos de ovnis tenían explicaciones normales como que se trataba de estrellas y planetas brillantes, meteoritos, satélites artificiales o globos.

En uno de los incidentes registrados en 1995, dos hombres del condado de Staffordshire explicaron a la policía que habían visto un supuesto extraterrestre con una cabeza con forma de limón salir de un OVNI y decirles: 'Los queremos, vengan con nosotros'.

Otro caso detallaba decenas de avistamientos de un objeto de forma oval brillante en Londres en 1993 y 1994 que más tarde fue identificado como un dirigible que promocionaba el automóvil Ford Mondeo.

A pesar de que la mayoría de casos tienen una explicación sencilla, hay un 10% calificados de "inexplicables". Sobre ellos, el Ministerio de Defensa dijo contar con "información insuficiente", por lo que siguió reuniendo datos.

Los archivos también añaden un nuevo detalle sobre el incidente más famoso sobre ovnis en Reino Unido, las visualizaciones en Rendlesham Forest en 1980, en el que pilotos americanos vieron una serie de luces misteriosas. El entonces Gobierno de Margaret Thatcher rechazó el caso, pero más adelante un antiguo director de Defensa dijo en una carta en 1985 que no había sido broma.

"El caso tiene características enigmáticas e inquietantes que nunca han sido explicadas satisfactoriamente (...), lo que sigue preocupando a las personas de la población con acceso a la información", dijo en la carta. Los archivos pueden consultarse en la página web www.nationalarchives.gov.uk/

La vida inteligente más allá de la Tierra puede no ser una esperanza tan tenue como creen muchos científicos, de acuerdo con un nuevo estudio que desafía ampliamente al argumento sostenido anteriormente anti-ET.

Muchos escépticos acuden a una idea conocida como argumento antrópico que afirma que las inteligencias extraterrestres deben ser muy raras debido a que el tiempo que necesita la vida para evolucionar es, de media, mucho mayor que la parte de la existencia de la estrella adecuada para tal vida.

Pero ahora el astrobiólogo Milan M. Cirkovic y sus colegas han encontrado un fallo en tal razonamiento.

El argumento antrópico, propuesto por el astrofísico Brandon Carter en 1983, siguiendo el trabajo pionero sobre los principios antrópicos de la década de 1970, se basa en la suposición de dos escalas temporales –el ciclo de vida de la estrella y el tiempo requerido para la evolución de criaturas vivas e inteligentes – son completamente independientes. De ser cierto, argumenta Carter, es extremadamente improbable que estas dos ventanas de posibilidad durasen aproximadamente la misma cantidad de tiempo, y tuviesen lugar a la vez.

Pero este modo de pensamiento está desfasado, afirma Cirkovic. De hecho, dice que las escalas temporales relevantes no son independientes; están profundamente entrelazadas. “Existen muchas formas distintas en las que los planetas de nuestro Sistema Solar no están aislados”, dijo Cirkovic. “No debemos considerar a los planetas habitables como cajas cerradas. Si abandonas la suposición de independencia, entonces tienes todo un nuevo trasfondo en el cual pueden configurar varios modelos de desarrollo astrobiológico”.

Cirkovic señala a los estallidos de rayos gamma, las supernovas cercanas, y las perturbaciones de nubes de cometas como posibles eventos en el entorno astrofísico de la estrella que puede influir en el entorno biológico de un planeta. Por ejemplo, cuando una estrella viaja a través de una de los densos brazos espirales de la Vía Láctea, tanto su propio desarrollo como el de sus planetas puede verse interrumpido por mayores niveles de radiación electromagnética interestelar y rayos cósmicos, debido a la mayor frecuencia de regiones de formación estelar y explosiones de supernova.

Todas estas condiciones conspiran para descartar la independencia sugerida por Carter y conecta la vida de una estrella y la evolución de la vida de un planeta, defiende Cirkovic.

Tierra afortunada

En el caso de la Tierra, las dos escalas temporales se han alineado fortuitamente para permitir la vida. Nuestro Sol tiene aproximadamente 4600 millones de años de antigüedad, y la Tierra es apenas ligeramente más joven, con 4500 millones de años. Las primeras células más básicas se piensa que se formaron en nuestro planeta hace unos 3800 millones de años, aunque el género homo, al cual pertenecen los humanos, no apareció hasta hace unos 2,5 millones de años. Y los humanos modernos tienen sólo 200 000 años de antigüedad.

Durante más del 80% de la existencia del Sol, la vida ha existido en la Tierra de alguna forma. Parece que las escalas temporales de la biología y la astrofísica se han alineado favorablemente en nuestro caso. De acuerdo con el argumento antrópico, esta coincidencia indica que la Tierra, y su vida, son únicas. Pero Cirkovic cree que las dos escalas temporales pueden no haberse solapado por casualidad. En lugar de esto, pueden ser parte de una compleja historia, implicando una interdependencia en el sistema de la Tierra con el resto de la Vía Láctea.

Catástrofes sincronizadas

Los eventos cósmicos como los estallidos de rayos gamma o las supernovas cercanas podrían poner a cero el reloj biológico para dar al planeta y la estrella una segunda oportunidad de sincronizarse e intentar producir la vida de nuevo. Los estallidos de rayos gamma son misteriosas explosiones que liberan descomunales cantidades de energía, teniendo lugar en los moribundos estallidos de estrellas súper-masivas (como Eta Carinae) o en colisiones de estrellas de neutrones en sistemas binarios cerrados. Si un estallido de rayos gamma tiene lugar en una gran región cerca de un sistema planetario, podría provocar un destello de radiación y posiblemente que los chorros de rayos cósmicos perturben la vida de los planetas. Las explosiones de supernova, aunque no tan energéticas como los estallidos de rayos gamma (pero mucho más frecuentes en general), empaquetan un fuerte golpe también, y podrían enviar una onda de choque de energía a los planetas cercanos.

“Un estallido de rayos gamma no afectaría a que se iniciara la vida en algún punto particular del tiempo, pero afectaría a cómo de rápido se desarrolla o se mantiene mediante cambios en la química atmosférica del planeta”, dijo Cirkovic. “Esto puede interpretarse como una puesta a cero de los relojes astrobiológicos los cuales avanzan en cada planeta habitable de la Vía Láctea”.

Esto lleva a la idea de una nueva forma de pensar sobre el origen de la vida. En lugar de una larga evolución gradual, un evento catastrófico podría espolear el desarrollo de una biosfera compleja y seres inteligentes, de la misma forma que la teoría evolutiva de equilibrio puntuado predice que las especies pasarán por largos periodos de lenta evolución puntuada gracias a breves encuentros con cambios drásticos.

Por ejemplo, los paleontólogos dicen que los seres humanos evolucionaron a nuestro estado actual sólo gracias a que un impacto de asteroide hace 65 millones de años aniquiló a los principales depredadores del planeta – los dinosaurios. La Tierra ha sufrido a lo largo de su historia muchas extinciones masivas que tuvieron distintas causas. Aunque las extinciones aniquilaron la vida, también pulsaron el botón de “reset” que altera el entorno y permite que surja otros tipos de vida. En general, esto es parte de un complejo conjunto de historias astrobiológicas que Cirkovic y sus colegas apodan el “paisaje astrobiológico” de nuestra Galaxia.

“La velocidad de la evolución es muy variable”, dijo Cirkovic. “No existen ninguna razón para pensar que la vida en la Tierra tenga un único origen. Es bastante posible que hubiera distintos inicios de la vida en la Tierra”.

Cirkovic también señala que la evolución de la vida inteligente podría tener lugar de forma más lenta o más rápida en distintas configuraciones, y no es necesario seguir la historia astrobiológica de la Vía Láctea.

“Las correlaciones a gran escala podrían causar que más objetivos del tipo SETI de los esperados sean contemporáneos con nosotros sólo sobre la base de una distribución de edad planetaria”, dijo Cirkovic.

Cirkovic y su equipo esbozan sus argumentos en el ejemplar de junio de 2009 de la revista Astrobiology.

Bienvenidos/as

Bienvenidas, almas viajeras de la red. Bienvenidas al espacio y reunión de la ciencia y el ser humano.

Isaac Asimov

Isaac Asimov
Prolífico y destacado autor de obras literarias de ciencia ficción y divulgación científica.

Online

Seguidores

Entradas