Los deepfakes generados por IA desafían la autenticación biométrica

Gartner cree que para 2026, 3 de cada 10 empresas ya no considerarán que las soluciones de verificación de identidad sean confiables de forma aislada.

Los ciberdelincuentes han aprendido a utilizar la tecnología de inteligencia artificial (IA) para reforzar sus ataques, y esto es algo que las empresas deben tener en cuenta, ya que está afectando incluso a áreas como la autenticación y la verificación de identidad.

La consultora Gartner cree que para 2026, 3 de cada 10 empresas ya no considerarán confiables las soluciones de autenticación y verificación como método independiente debido a los ataques que se basan en deepfakes.

“En la última década, ha habido varios puntos de inflexión en los campos de la IA que permiten la creación de imágenes sintéticas. Estas imágenes generadas artificialmente de rostros de personas reales, conocidas como deepfakes, pueden ser utilizadas por actores maliciosos para socavar la autenticación biométrica o hacerla ineficaz”, explica Akif Khan, vicepresidente analista de Gartner.

«Como resultado», continúa, «las organizaciones pueden comenzar a cuestionar la confiabilidad de las soluciones de autenticación y verificación de identidad, ya que no podrán saber si el rostro de la persona que se verifica es una persona viva o una falsificación».

Los expertos recomiendan una combinación de detección de ataques de presentación y ataques de inyección , así como inspección de imágenes , para contrarrestar este problema. Fuente:NetMedia, desde Paises Bajos, traducido al español

Comparte la nota:

Artículos relacionados

Scroll al inicio