Connect with us

Hi, what are you looking for?

Chaco Prensa

Tecnología

El jefe de inteligencia artificial del Pentágono advirtió sobre los peligros de ChatGPT: “Estoy aterrado”

Desde el Departamento de Defensa de Estados Unidos creen que este tipo de herramientas puede ser usado para desinformar.

Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa de Estados Unidos, se mostró asustado por los avances de herramientas como ChatGPT y advirtió que los modelos lingüísticos generativos de IA podrían ser utilizados con objetivos de desinformación.

“Sí, estoy muerto de miedo. Aterrado. Esa es mi opinión”, declaró Martell esta semana en una conferencia de prensa realizada en Baltimore en la que se habló sobre los problemas que plantea el uso de la inteligencia artificial.

“Mi mayor temor sobre ChatGPT es que ha sido entrenado para expresarse con fluidez y lo hace con autoridad. Así, es creíble incluso cuando está equivocado. Y eso significa que es una herramienta perfecta para la desinformación”, expresó.

Desde el Pentágono temen que la inteligencia artificial sea usada para desinformar. (Foto: REUTERS/Joshua Roberts).
Desde el Pentágono temen que la inteligencia artificial sea usada para desinformar. (Foto: REUTERS/Joshua Roberts).

Esta revolucionaria tecnología permitió que cualquier persona con acceso a Internet pueda generar cualquier tipo de texto. Aunque también presenta contras ante las que se debe prestar especial atención: en función del registro que obtenga sobre un determinado tema, alguna información puede resultar errónea o puede malinterpretar las consignas, por ejemplo.

Martell explicó que ante las respuestas o contenidos generados por ChatGPT, el contexto se pierde. Por ende, la gente puede malinterpretar sus palabras y tomarlas como hechos verdaderos, ya que están formuladas desde un supuesto lugar de autoridad. Y aunque la información resulte falsa o errónea, muchos usuarios pueden asumir que los datos proporcionados son reales.

“Realmente necesitamos herramientas para poder detectar este tipo de comportamientos de la inteligencia artificial. Lamentablemente, todavía no contamos con ellas y estamos perdiendo la batalla”, afirmó el funcionario del gobierno de Estados Unidos.

Martell, que tiene amplia experiencia en el desarrollo de inteligencias artificiales en empresas del sector privado, imploró a la industria que cree las herramientas necesarias para garantizar que la información generada a partir de todos los modelos generativos de IA -desde el lenguaje hasta las imágenes- sea precisa. El experto hizo referencia a creación de fotos falsas de hechos que nunca sucedieron o a la clonación de voces.

“Si se le pregunta a ChatGPT ‘¿Puedo confiar en tus respuestas?’, contestará con un rotundo ‘no’. Aunque ChatGPT aclara que es una herramienta y que los usuarios deber verificar ellos mismos la información brindada, mi temor es que confiemos demasiado en ella sin que los proveedores del servicio y sus desarrolladores incorporen las salvaguardas adecuadas. Y así, puede ser usada por nuestros enemigos para desinformar”, expresó Martell.

La advertencia del Departamento de Defensa se produce en un momento en que los altos mandos del Pentágono están anticipando formas de utilizar la IA generativa para la recopilación de información y futuras aplicaciones bélicas.

También Te Puede Interesar

POLICIALES

La sustancia química estaba distribuida en 50 frascos, que se encontraban en el sector del motor, baúl y guantera. Asimismo, el personal de la...

NOTICIAS

Desde la Asociación de Profesionales, Técnicos y Auxiliares de Salud Pública del Chaco (APTASCH) volvieron a manifestar su preocupación por “la grave situación de...

Politica

La lista 665 “B” de la Corriente de Expresión Renovada (CER) en Margarita Belén, postula como intendente a Guillermo Encina y a Víctor Jenefes...

POLICIALES

Como resultado de un control vehicular llevado a cabo en la madrugada de hoy, integrantes de la Sección de Seguridad Vial “Sinsacate” dependiente del Escuadrón 65 “Córdoba” inspeccionaron...