ESTUDIO DE IPROOV

Verificación biométrica: análisis de tendencias y amenazas emergentes



Dirección copiada

iProov presentó un reporte en el que analiza el impacto de la IA generativa en la verificación biométrica remota de la identidad, exponiendo las metodologías, las tendencias de las amenazas y los impactos de los malos actores al respecto.

Publicado el 28 feb 2024



Aumenta impacto de la IA generativa en la verificación remota de identidad copy

A medida que las organizaciones y los gobiernos buscan proporcionar acceso y servicios remotos para satisfacer la demanda de los consumidores y la fuerza laboral, crece una superficie de ataque que, junto con la disponibilidad de herramientas de inteligencia artificial (IA) generativa de fácil acceso y armas criminales, ha aumentado la necesidad de una verificación de identidad remota altamente segura. Un nuevo informe de amenazas de iProov revela cómo se están utilizando herramientas avanzadas de IA, como intercambios de caras convincentes junto con emuladores y otras metodologías de manipulación de metadatos (herramientas tradicionales de ciberataque), para crear vectores de amenazas nuevos y ampliamente no mapeados.

Desafíos en la verificación biométrica

Los intercambios faciales se crean utilizando herramientas de IA generativa y presentan un gran desafío para los sistemas de verificación biométrica de identidad debido a su capacidad para manipular rasgos clave de la imagen o los videos. A diferencia del ojo humano, los sistemas biométricos avanzados pueden ser resistentes a este tipo de ataques. 

Sin embargo, en 2023, los actores maliciosos aprovecharon una laguna en algunos sistemas mediante el uso de herramientas cibernéticas, como emuladores, para ocultar la existencia de cámaras virtuales, lo que dificultó la detección de los proveedores de soluciones biométricas. Esto creó la tormenta perfecta con los atacantes haciendo de los intercambios de caras y los emuladores sus herramientas preferidas para perpetrar el fraude de identidad.

“La IA generativa ha proporcionado un gran impulso a los niveles de productividad de los actores de amenazas: estas herramientas tienen un costo relativamente bajo, son de fácil acceso y se pueden usar para crear medios sintetizados altamente convincentes, como intercambios faciales u otras formas de deepfakes que pueden engañar fácilmente al ojo humano, así como soluciones biométricas menos avanzadas. Esto solo sirve para aumentar la necesidad de una verificación de identidad remota altamente segura”, dice Andrew Newell, director científico de iProov.

“Si bien los datos de nuestro informe destacan que los intercambios de rostros son actualmente el deepfake elegido por los actores de amenazas, no sabemos qué sigue. La única forma de estar un paso por delante es monitorear e identificar constantemente sus ataques, la frecuencia de los ataques, a quién se dirigen, los métodos que utilizan y formar un conjunto de hipótesis sobre lo que los motiva”, agregó.

Crecimiento de las amenazas digitales

El uso de emuladores y suplantación de metadatos creció un 353% del primer al segundo semestre de 2023. Estos ataques están evolucionando rápidamente y plantean nuevas amenazas significativas para las plataformas móviles: los ataques de inyección contra la web móvil aumentaron un 255% entre el primer y el segundo semestre del año pasado.

Durante 2022 y 2023, los niveles de ataques indiscriminados oscilaron entre 50.000 y 100.000 mensuales. También aumentaron considerablemente el número de actores y la mejora en la sofisticación de las herramientas utilizadas.

Un crecimiento significativo también se observó en el número de grupos que participan en el intercambio de información relacionada con ataques contra sistemas biométricos y de identificación humana remota o “identificación por video”, lo que evidencia el enfoque colaborativo que ahora están adoptando los actores de amenazas. De los grupos identificados por los analistas de iProov, casi la mitad (47%) se crearon en 2023.

Entre los dos semestres de 2023, hubo un aumento del 672% en el uso de medios deepfake, como los intercambios faciales, que se implementaron junto con las herramientas de suplantación de metadatos. Los ataques de presentación e inyección digital pueden tener diferentes niveles de impacto, pero pueden representar una amenaza significativa cuando se combinan con herramientas tradicionales de ciberataque, como la manipulación de metadatos.

Artículos relacionados

Artículo 1 de 3