Advierten sobre riesgos con tecnología deepfake de la IA para ciberdelitos

El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) advirtió sobre el avance de los deepfakes.

Se trata de contenido multimedia sintético generado por Inteligencia Artificial (IA) que se encuentra disponible a través de aplicaciones como FaceApp o Deep Face Lab, entre otras.

La tecnología deepfake puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo.

Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea, cuyas víctimas suelen ser las corporaciones empresariales.

“Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables” explican los expertos.

Un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes resalta su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.

El uso de chatbots de IA, como ChatGPT, también puede fomentar las actividades fraudulentas, pudiendo ayudar a los posibles estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma). Es decir que estos modelos de lenguaje de gran tamaño pueden crear mensajes de todo tipo, con una excelente gramática, haciéndolos pasar como verdaderos y disminuyendo la posibilidad de identificar a los sospechosos.

A modo de ejemplo, caben mencionar casos como el del gerente de una empresa que transfirió 25 millones de dólares a varias cuentas controladas por los estafadores, creyendo que la voz de su interlocutor, que le pedía que efectuara las transferencias, pertenecía a su jefe. O, el caso del estafador que mantuvo chats de videos con la empleada de una empresa, indicándole el paso a paso de una transferencia millonaria a una compañía en Japón, pero aquellas conversaciones fueron en realidad manipuladas utilizando clips de videos de acceso público del verdadero jefe de la víctima.

En cuanto a la prevención de las estafas en línea que usan imágenes, videos y audios generados por IA, se ha detectado que los mecanismos para identificarlos suelen ir por detrás de las herramientas que las produce.

NotiVeraz

Facebook
Twitter
LinkedIn
WhatsApp
Email
WP Twitter Auto Publish Powered By : XYZScripts.com