Connect with us

Hi, what are you looking for?

Tecnología

Un astrofísico afirmó que la inteligencia artificial es culpable de que no hayamos detectado extraterrestres

Un trabajo de investigación sugiere que civilizaciones avanzadas del universo pudieron haberse extinguido después de haber desarrollado una superinteligencia artificial.

Michael Garret, director del Centro de Astrofísica de Jodrell Bank, afirmó la inteligencia artificial es el gran filtro que hace que las civilizaciones técnicas avanzadas sean escasas en el universo.

En su trabajo de investigación, publicado por la Universidad de Manchester, el astrofísico asegura que dicho filtro surge antes de que estas civilizaciones puedan desarrollar una existencia estable y multiplanetaria y, por ende, se extinguieron.

El paper de Garret explica con ese argumento la razón por la cual el ser humano no encontró, ni recibió, señal alguna de vida inteligente en más de 10.000 millones de años luz exportados del universo.

La inteligencia artificial es culpable de que no hayamos detectado extraterrestres- (Imagen: TN Tecno/ChatGPT)
La inteligencia artificial es culpable de que no hayamos detectado extraterrestres- (Imagen: TN Tecno/ChatGPT)

La Teoría del Gran Filtro da cuenta de un acontecimiento o situación hipotética que impide que la vida inteligente se convierta en interplanetaria e interestelar, e incluso conduce a su desaparición. El cambio climático, guerras nucleares, impactos de asteroides, explosiones de supernovas, plagas y el desarrollo de una superinteligencia artificial son algunos de los eventos que podrían extinguir una civilización entera.

Garret reconoce en su trabajo que la inteligencia artificial se perfila como uno de los avances tecnológicos más transformadores de la historia de la humanidad. Pero advirtió que las civilizaciones pueden subestimar la velocidad a la que progresan los sistemas de IA, ya que son muy diferentes de las escalas de tiempo tradicionales.

Según el astrofísico, la IA podría significar el fin de la inteligencia en la Tierra antes de que se hayan logrado estrategias de mitigación, por ejemplo, una capacidad multiplanetaria. De esa manera, Garret sugiere que la longevidad típica de una civilización técnica es de 200 años, momento en el que llegan a su extinción.

Con esa afirmación, Garrett explica el gran silencio observado por los proyectos SETI, que tratan de encontrar, hasta ahora sin éxito, vida extraterrestre inteligente.

“En 2014, Stephen Hawking advirtió que el desarrollo de la IA podría significar el fin de la humanidad”, escribió Garrett. “Su argumento era que una vez que los humanos desarrollaran la IA, esta podría evolucionar de forma autónoma, rediseñándose a sí misma a un ritmo cada vez mayor”. De la misma manera, la advertencia de Hawking podría haberse cumplido en otros mundos, dejándonos solos en el universo.

LO QUE TE PERDISTE

Politica

Con una nutrida agenda que culminará con un acto en la Peña Nativa Martín Fierro (avenida 9 de Julio 695), el dirigente peronista y...

Diputados

A 7 meses de la actual gestión liderada por Leandro Zdero en la provincia, un sector mayoritario del justicialismo llamó a la autocrítica para...

Sociedad

El primo de la mamá de Loan, Roque Noguera, fue quien encontró las huellas en el campo cercano a la casa de la abuela Catalina...

Economia

Aún con una fuerte intervención, los dólares paralelos operaron al alza. El riesgo país saltó 1.5%. El mercado preocupado por el nivel de reservas.