Connect with us

Hi, what are you looking for?

Tecnología

OpenAI ya no prohíbe el uso militar de sus tecnologías como ChatGPT

La empresa cambió sus políticas de uso recientemente sin divulgarlo al público

En la versión más reciente de su política de uso, OpenAI ya no incluye la cláusula que restringía expresamente la utilización de sus tecnologías para propósitos bélicos o militares. Antes, las regulaciones de la compañía especificaban claramente una prohibición sobre el empleo de sus productos en el ámbito militar.

Asimismo, eliminó el ítem donde se mencionaba su uso en la “gestión u operación de infraestructuras críticas en energía, transporte y agua”.

En la anterior versión de sus políticas de uso decía:

“Uso no permitido de nuestros modelos. No permitimos el uso de nuestros modelos para lo siguiente: Actividades que tienen un alto riesgo de daño físico, incluyendo: – Desarrollo de armas – Militar y guerra – Gestión u operación de infraestructuras críticas en energía, transporte y agua. – Contenido que promueva, fomente o represente actos de autolesión, como suicidio, cortes y trastornos alimentarios”.

La nueva normativa de OpenAI no delimita explícitamente la aplicación de tecnologías en propósitos bélicos. (Imagen ilustrativa Infobae)La nueva normativa de OpenAI no delimita explícitamente la aplicación de tecnologías en propósitos bélicos. (Imagen ilustrativa Infobae)

Mientras que, en las actuales políticasdel 10 de enero de 2024, en la página web de la empresa, dicen:

“No utilice nuestro servicio para hacerse daño a sí mismo o a otros; por ejemplo, no utilice nuestros servicios para promover el suicidio o la autolesión, desarrollar o utilizar armas, herir a otros o destruir propiedad, ni participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”.

El cambio en la política de uso de OpenAI fue detectado inicialmente por The Intercept, quienes establecieron contacto con la compañía para obtener más detalles.

Un representante de OpenAINiko Felix, respondió al medio citado por correo electrónico, aclarando que el objetivo de la empresa “era crear un conjunto de principios universales que fueran fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir GPT”.

Niko Felix de OpenAI explica que buscan principios fáciles de recordar y aplicar globalmente por los usuarios. (Imagen ilustrativa Infobae)Niko Felix de OpenAI explica que buscan principios fáciles de recordar y aplicar globalmente por los usuarios. (Imagen ilustrativa Infobae)

Continuó explicando la intención de la empresa: “un principio como ‘No dañar a los demás’ es amplio pero fácil de entender y relevante en numerosos contextos”. Felix también remarcó, “además, citamos específicamente las armas y las lesiones a otros como ejemplos claros”.

Felix igualmente escribió en dicho correo que “cualquier uso de nuestra tecnología, incluso por parte del ejército, para desarrollar o usar armas, herir a otros o destruir propiedad, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema’, no está permitido”.

Heidy Khlaaf, directora de ingeniería en la empresa de ciberseguridad Trail of Bits y especialista en aprendizaje automático y la seguridad de sistemas autónomos, expresó al medio su preocupación acerca de los potenciales riesgos y daños que podrían derivar del empleo de la tecnología y servicios de OpenAI en contextos militares.

Las políticas antiguas señalaban por ítems cada uso no permitido. (OpenAI)Las políticas antiguas señalaban por ítems cada uso no permitido. (OpenAI)

Khlaaf hizo referencia a un artículo de 2022, en el cual colaboró con investigadores de OpenAI, donde se destaca específicamente el peligro de su uso en aplicaciones militares. Ella observó un cambio en la política de la compañía que, a su parecer, prioriza la legalidad sobre la seguridad.

Según la experta, “existe una clara diferencia entre las dos políticas, ya que la primera describe claramente que el desarrollo de armas y el ejército y la guerra no están permitidos, mientras que la segunda enfatiza la flexibilidad y el cumplimiento de la ley”.

Puso de manifiesto que, dado que el desarrollo de armamento y las actividades bélicas pueden ser legales, esto no disminuye las posibles consecuencias graves para la seguridad de la inteligencia artificial.

Las políticas actuales utilizan un lenguaje más general. (OpenAI)Las políticas actuales utilizan un lenguaje más general. (OpenAI)

Resaltó las preocupaciones existentes sobre los prejuicios y errores de los modelos de lenguaje de gran escala y advirtió que su aplicación en contextos bélicos podría resultar en operaciones imprecisas y sesgadas con un incremento posible en el daño y el número de víctimas civiles.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

LO QUE TE PERDISTE

CORRUPCION

Diputados del Frente Chaqueño presentaron este miércoles en la fiscalía de primera instancia de Resistencia una denuncia de lavado de activos contra las autoridades...

NOTICIAS

El conductor había colisionado contra una barrera “new jersey” cuando realizó una maniobra brusca para evitar ser controlado. Luego del accidente, descendió del rodado...

NOTICIAS

Se trata de dos rodados que viajaban juntos, uno de ellos actuaba como “puntero”. Al inspeccionar uno de los vehículos, los funcionarios detectaron anomalías...

NOTICIAS

La joven contó que los detenidos le enviaron las capturas de las conversaciones de su novio con otras mujeres y se hizo viral en...