Connect with us

Hi, what are you looking for?

Tecnología

La inteligencia artificial generativa puede usarse para generar estafas sofisticadas

Los cibercriminales ahora se jactan de utilizar las amplias capacidades de la inteligencia artificial generativa para crear modelos con capacidades similares a ChatGPT y Bard de Google, pero especializadas para actividades ilegales como suplantar a un banco, o mostrar sitios web susceptibles de ser defraudados.

FraudGPT y WormGPT son algunos de estos nuevos sistemas maliciosos que emergen en la Deep Web y según la plataforma de análisis de datos Netenrich, posibilitan la creación de correos electrónicos fraudulentos y la orquestación de ataques de phishing altamente convincentes, así como la posible creación de deepfakes y campañas de desinformación.

De hecho, el primer chatbot es considerado por algunos como “el gemelo maligno de ChatGPT”, y este no es gratuito y ninguna de sus funciones lo son. Tiene dos tipos de planes, uno mensual por 100 dólares y otro, privado que cuesta 500 dólares.

Un cambio de paradigma

Además de afectar la privacidad individual, la inteligencia artificial generativa se ha empleado en realizar imágenes falsas. (Imagen Ilustrativa Infobae)Además de afectar la privacidad individual, la inteligencia artificial generativa se ha empleado en realizar imágenes falsas. (Imagen Ilustrativa Infobae)

La aparición de estas herramientas supone un cambio significativo en la cibercriminalidad, evidenciado que su uso está resultando cada vez más perfeccionado y segmentado. Mientras expertos advierten sobre el potencial desarrollo de malware más sofisticado gracias a la ayuda de la IA generativa.

Una tecnología que incluso facilita a los atacantes la generación de correos maliciosos en distintos idiomas y sin los errores típicos que permitían su fácil detección en el pasado.

Para los expertos, este tipo de herramientas delictivas pueden suponer un serio problema de cara al futuro porque con su ayuda los delincuentes con apenas conocimientos técnicos, pueden preparar campañas maliciosas de todo tipo con una probabilidad de éxito considerable.

Nuevas modalidades de delincuencia

Esta tecnología puede usarse para generar estafas más sofisticadas, pornografía e incluso armas bioquímicas. (Franziska Gabbert/dpa)Esta tecnología puede usarse para generar estafas más sofisticadas, pornografía e incluso armas bioquímicas. (Franziska Gabbert/dpa)

La empresa de seguridad cibernética Proofpoint ha identificado un incremento en el uso de inteligencia artificial para la ejecución de estafas avanzadas, como la conocida “pig butchering” o “carnicería de cerdos”, donde los estafadores engordan la confianza de sus víctimas antes de despojarlas de sus activos.

Esta técnica ha evolucionado y ahora también se vale de deepfakes, videos y audios manipulados, que afectan principalmente a funcionarios gubernamentales, empresarios y celebridades, especialmente aquellas relacionadas al ámbito de las inversiones en criptomonedas.

Los investigadores han observado como los atacantes de TA499, un grupo delictivo cibernético, recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.

La imitación de estos individuos busca extraer información confidencial o comprometedora de las víctimas, con el fin de ridiculizarlas posteriormente mediante la publicación en redes sociales.

De los deepfakes a la creación de armas

FraudGPT es considerado como el hermano maligno de ChatGPT. (Imagen Ilustrativa Infobae)FraudGPT es considerado como el hermano maligno de ChatGPT. (Imagen Ilustrativa Infobae)

Además de las implicaciones en ciberseguridad, el abuso de la inteligencia artificial en la creación de contenido engañoso y material sensible, como la pornografía no consentida, preocupa a expertos en derecho y ética digital.

Estas técnicas de IA también han sido desplegadas para fines de manipulación política y social, como la creación de imágenes falsas de inmigrantes para influir en la opinión pública y en los resultados electorales.

Asimismo, se ha identificado el riesgo de que la IA ayude a crear armas bioquímicas y se infiltre en software de infraestructuras críticas, problemáticas.

Mientras, que las regulaciones existentes no logran abarcar efectivamente el espectro de amenazas que surgen con la inteligencia artificial generativa

Las recomendaciones

Hay alerta porque cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. (EFE/Enric Fontcuberta)
Hay alerta porque cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. (EFE/Enric Fontcuberta)

La educación y concienciación de los usuarios se mencionan como elementos clave para prevenir los riesgos de estas herramientas maliciosas, aunque también se reconocen necesarias las medidas regulatorias y soluciones tecnológicas.

En respuesta a los peligros emergentes, se sugiere la formación de equipos independientes para probar herramientas de este tipo contra abusos de IA y la posible prohibición de ciertos modelos de código abierto.

Sin embargo, el reto para prevenir los daños causados por FraudGPT y herramientas similares reside en encontrar un equilibrio entre los objetivos éticos de la inteligencia artificial y la implementación práctica de medidas de seguridad y regulación.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

LO QUE TE PERDISTE

CORRUPCION

En Resistencia, la capital de la provincia de Chaco, los ciudadanos se enfrentan a una realidad desoladora. La ciudad, que en algún momento fue...

Opinión

Este viernes el gobernador Leandro Zdero decidió tomar posición a favor de la represión policial que tuvo lugar durante la manifestación del 12 de...

NOTICIAS

"Estamos trabajando con abandono de persona que son las evidencias fuertes que tenemos, pero no descartamos otras hipótesis. Es una investigación amplia y compleja",...

Deportes

El DT comienza a definir el equipo titular para enfrentar a Canadá el jueves desde las 21 por el Grupo A.