Estafas con deep fakes superan los USD 1.100 millones en 2025 con crecimiento del 300%
Estafas con deep fakes crecen 300% y superan USD 1.100 millones

El alarmante auge de las estafas con deep fakes en Colombia y el mundo

La inteligencia artificial generativa ha experimentado avances extraordinarios en los últimos años, alcanzando niveles de precisión que dificultan cada vez más distinguir entre lo real y lo artificial. Esta sofisticación tecnológica ha abierto la puerta a nuevas y peligrosas modalidades de fraude que están causando pérdidas millonarias a nivel global.

Un caso emblemático que marcó el inicio

En agosto de 2019, el Wall Street Journal documentó un caso que anticipaba lo que vendría: el CEO de una empresa energética alemana fue víctima de clonación vocal. Los estafadores utilizaron una réplica artificial de su voz para contactar a un colaborador, quien, creyendo hablar con su jefe, autorizó una transferencia fraudulenta de 220.000 euros. Este incidente, ocurrido hace más de seis años, demostró el potencial destructivo de estas tecnologías cuando caen en manos criminales.

Las cifras que preocupan a la ciberseguridad

Según datos de SkyShark, compañía especializada en ciberseguridad, las estafas relacionadas con deep fakes a nivel mundial superaron los USD 1.100 millones en 2025, registrando una tasa de crecimiento del 300% en comparación con el año anterior. Esta explosión en los fraudes digitales refleja cómo los criminales han encontrado en la inteligencia artificial una herramienta altamente lucrativa y cada vez más accesible.

Las múltiples caras del peligro

ESET, firma líder en seguridad informática, advierte que las deep fakes pueden emplearse de diversas formas peligrosas:

  • Eludir sistemas de autenticación y controles Know Your Client en instituciones financieras
  • Infiltración en organizaciones mediante candidatos falsos en procesos de selección
  • Fraudes financieros y secuestro de cuentas de ejecutivos
  • Suplantación de identidad para transferencias bancarias fraudulentas

"La mayor amenaza que plantean actualmente las deep fakes es el fraude financiero y el secuestro de cuentas de altos ejecutivos", explica ESET en su análisis más reciente.

El proceso de un ataque con deep fake

Los expertos detallan cómo se ejecutan estos sofisticados fraudes:

  1. Selección del objetivo: El atacante identifica a la persona que suplantará, generalmente un CEO, CFO o proveedor clave.
  2. Obtención de muestra vocal: Busca grabaciones públicas del objetivo en redes sociales, entrevistas o presentaciones. Solo se necesitan unos segundos de audio.
  3. Identificación del receptor: Investiga en plataformas como LinkedIn para encontrar personal del área financiera o de soporte técnico.
  4. Contacto inicial: Puede llamar directamente o enviar un correo electrónico previo solicitando una transferencia urgente o cambio de credenciales.
  5. Ejecución del fraude: Utiliza audio generado por IA para hacerse pasar por la víctima, empleando incluso técnicas de "voz a voz" en tiempo real.

La creciente sofisticación de los ataques

Lo que más preocupa a los expertos es la evolución constante de estas técnicas. "Algunas herramientas pueden insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble", señala ESET. La imitación de ritmos, inflexiones y tics verbales específicos de cada persona ha alcanzado niveles alarmantes de realismo.

Cuando un ataque se realiza por teléfono, las fallas relacionadas con la inteligencia artificial son particularmente difíciles de detectar para quien recibe la llamada, aumentando significativamente las probabilidades de éxito del fraude.

¿Cómo detectar un impostor digital?

Las compañías de seguridad recomiendan prestar atención a estas señales de alerta:

  • Ritmo antinatural en el discurso del orador
  • Tono emocional inusualmente plano en la voz
  • Patrones de respiración extraños o frases sin respiración
  • Sonido robótico (en herramientas menos avanzadas)
  • Ruido de fondo ausente o demasiado uniforme

Estrategias de prevención para empresas colombianas

Frente a esta amenaza creciente, los expertos recomiendan:

Formación y concienciación: Invertir en capacitación constante para empleados, especialmente aquellos con acceso a sistemas financieros o información sensible.

Herramientas tecnológicas: Implementar sistemas de detección que analicen múltiples parámetros para identificar voces sintéticas.

Limitación de exposición: Reducir las apariciones públicas de ejecutivos clave para minimizar la disponibilidad de material vocal que pueda ser utilizado por los estafadores.

ESET concluye que "nunca ha sido tan fácil lanzar un ataque de audio deepfake", destacando que solo se requiere un clip corto de la víctima para que la inteligencia artificial generativa complete el trabajo fraudulento. Esta accesibilidad, combinada con la creciente efectividad de las herramientas, sugiere que estas estrategias criminales seguirán replicándose con mayor frecuencia en los próximos meses y años.