Inteligencia Artificial (IA) y ‘deepfake’ – PIXABAY

MADRID, 28 de julio. (Portaltico/EP) –

El FBI ha anunciado recientemente el aumento de perfiles ‘deepfake’ (vídeos manipulados por Inteligencia Artificial) detectados en los procesos de selección de algunas empresas. Según la agencia federal en un comunicado publicado a finales de junio, los impostores usan videos, imágenesgrabaciones e identidades robadas, haciendo pasar por otra persona para obtener un puesto de trabajo de TI en remoto.

Contratar a una persona que ha usado un ‘deepfake’ puede generar serios problemas cuando ese empleado falso obtiene acceso a información corporativa confidencial y datos de clientes. De este modo, puede representar una menagera para la seguridad de la empresa y es probable que la organización no tenga la oportunidad de llevar al estafador ante la justicia, tal y como advertirn a los expertos en ciberseguridad de la compañía Kaspersky.

Sin embargo, esa no es la única forma en que los estafadores usan ‘deepfakes’ para aprovecharse de un negocio. A medida que la tecnología evolucione, puede utilizar este nuevo método para engañar a las pruebas biométricas utilizadas por los bancos y centros de intercambio de criptomonedas a la hora de verificar las identidades de los usuarios con el objetivo de blanquear dinero. De acuerdo con él reportar ‘Sensibilidad’nueve de los diez principales proveedores de Know Your Customer (KYC) eran muy vulnerables a los ataques de ‘deepfake’.

Esta tecnología también se utiliza para el phishing masivo. Los ciberdelincuentes pueden imitar a los ejecutivos de una empresa para ganarse la confianza de una persona y engañarla para facilitar datos confidenciales, dinero o acceso a la infraestructura de la organización. En una ocasión, los delincuentes lograron obtener 35 millones de dólares falsificando la voz del director de una empresa.

«Ser consciente del peligro es la mitad de la batalla. Es importante educar a los empleados e informarles sobre los nuevos métodos fraudulentos. Un ‘deepfake’ de alta calidad requiere mucha experiencia y esfuerzo, pero las falsificaciones utilizadas para estafas o sincronica interaccion durante una entrevista son generalmente de baja calidad», afirmó Vladislav Tushkanov, científico de datos líder en Kaspersky.

«Entre las señales para detectar un ‘deepfake’, debemos fijarnos en que hay movimientos de labios antinaturales, cabello mal renderizado, faciales que no coinciden, poco o ningún parpadeo, diferencias en el color de la piel o errores en la representación de la ropa Eso es embargo, un ciberdelincuente puede reducir intencionalmente la calidad del vídeo para ocultarlo», agrega este experto.

Por lo tanto, para minimizar la posibilidad de contratar a un falso empleado, recomienda «dividir las entrevistas de trabajo en varias etapas, que involucren no solo a los gerentes de recursos humanos, sino también a las personas que trabajarán con un nuevo empleado». «Esto excluye las posibilidades de detectar algo fuera de lo habitual», apostilla.

La tecnología también es un buen aliado para combatir los ‘deepfakes’. Una solución de ciberseguridad garantizará el soporte necesario si un ‘deepfake’ de alta calidad convence a un empleado de descargar archivos o programas maliciosos o de visitar enlaces ospechosos o sitios web de ‘phishing’.

“Una solución antifraude que realiza un análisis del comportamiento del usuario y monitorea las transacciones financieras puede ser una buena opción para las empresas que usan KYC, porque brinda una capa adicional de protección”, concluyó Kaspersky.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada.