Opinión
Identidad digital: cómo protegerse frente a los deepfakes
11 de Marzo de 2026Escribe Martín Ambort, Chief Information Security Officer (CISO) de Cloud Legion
La verificación de identidades está en crisis. Un informe de la consultora de mercado Gartner predice que, para 2026, el 30% de las empresas dejarán de considerar confiables las soluciones de autenticación basadas en biometría facial, debido al avance de los deepfakes generados por IA. El dato es preocupante y revelador: una tecnología que nació para reforzar la seguridad se enfrenta a su propio espejo, uno capaz de replicar rostros, gestos y expresiones con una precisión indistinguible de la realidad.
A esto se suma otra complejidad: un informe de Tenable Research dice que aún entre las organizaciones que utilizan servicios de gestión de accesos e identidad (IAM), el 83% del total, persisten permisos excesivos y accesos riesgosos, lo que simplifica la tarea de los atacantes.
En apenas poco más de tres años, los avances vertiginosos de la IA generativa transformaron los límites de lo posible. Los deepfakes pueden falsificar identidades visuales o de voz, vulnerar procesos de autenticación biométrica y abrir las puertas a fraudes financieros, suplantaciones o filtraciones de información crítica.
Defensa en varias capas
Depender de una sola capa de defensa es una utopía. Y peligrosa, por cierto. Las tecnologías de detección de ataques de presentación (PAD), por ejemplo, que buscan verificar si el usuario está vivo o si se trata de una imagen manipulada, son insuficientes ante las nuevas técnicas de inyección digital. Para crear entornos de autenticación resilientes, es necesario combinarla con Injection Attack Detection (IAD) y herramientas avanzadas de inspección de imágenes. No menos importante resulta el Análisis de Comportamiento para evaluar cómo interactúa el usuario (velocidad, patrones de navegación). Esto puede generar falsos positivos sin suficiente historial.
La verdadera protección excede los límites de lo técnico. Los responsables de ciberseguridad necesitan encontrar los mecanismos para garantizar confianza digital en un entorno en que la realidad puede ser simulada. El camino: una nueva arquitectura de seguridad que combine inteligencia, contexto y comportamiento.
El futuro de la verificación de identidad requiere modelos que integren múltiples señales: reconocimiento facial reforzado con análisis de dispositivos, detección de patrones de comportamiento, evaluación de contexto geográfico y monitoreo continuo de riesgo. La confianza se construye a partir de una red de validaciones dinámicas y correlacionadas.
El aspecto cultural del problema
Al mismo tiempo, el fenómeno exige un cambio cultural. Las soluciones de seguridad deben evolucionar al mismo ritmo que los atacantes. Para esto, es necesaria desarrollar la capacidad de monitorear, clasificar y cuantificar nuevos tipos de ataques en tiempo real, incorporar análisis predictivo y automatización inteligente en la gestión de identidades y mantener la capacidad de respuesta ante incidentes cada vez más sofisticados. Las personas suelen ser el eslabón más débil. El mencionado informe de Tenable Research llama a educar a los equipos de IAM sobre el rol de la reducción de permisos excesivos. Un deepfake exitoso es peligroso. Uno con privilegios de administrador, catastrófico.
Por otra parte, debe enfocarse en la verificación por canales alternativos. Ante una solicitud inusual (transferencias de dinero, acceso a datos sensibles) realizada mediante videollamada, los empleados deben estar entrenados para realizar una "pregunta de control" o confirmar por un medio de comunicación fuera de banda.
La elección del socio tecnológico se vuelve crítica: aliados que comprendan la convergencia entre IA, datos, infraestructura y ciberseguridad, capaces de diseñar entornos en la nube con capas de protección adaptativas, segmentación avanzada y políticas de acceso contextual. Un enfoque integral, sustentado en una arquitectura sólida y flexible, permite escalar la innovación sin comprometer la seguridad.
La irrupción de los deepfakes obliga a repensar la noción misma de identidad digital. No hay tiempo para esperar: las defensas deben estar listas porque, en este mismo instante, un atacante podría estar intentando entrar a los sistemas de tu organización haciéndose pasar por alguien de confianza.
(*) Martin Ambort: Chief Information Security Officer (CISO) de Cloud Legion












