Deepfakes: la nueva amenaza silenciosa para la seguridad bancaria
Imágenes, audios y videos que parecen reales, pero no lo son. Los deepfakes están cruzando la línea del entretenimiento al delito, y los fraudes bancarios son una de sus nuevas víctimas.

Imagen referencial de reconocimiento facial
- Foto
Freepik
Autor:
Redacción Comercial
Actualizada:
Compartir:
En los últimos años, la inteligencia artificial (IA) ha permitido crear contenido audiovisual casi indistinguible de la realidad. A esta técnica se la conoce como deepfake —una combinación de las palabras deep learning (aprendizaje profundo) y fake (falso)—, y aunque puede usarse con fines creativos o educativos, también ha abierto la puerta a usos maliciosos. Uno de los más preocupantes es su aplicación en fraudes bancarios.
¿Qué es un deepfake?
Es un video, imagen o audio generado con IA que imita de forma muy realista la apariencia o voz de una persona. Puede hacer que alguien diga o haga cosas que nunca ocurrieron realmente.
Su precisión es tan alta que resulta difícil notar el engaño.
Al principio, los deepfakes se usaban en el mundo del entretenimiento, por ejemplo, para “revivir” actores fallecidos o hacer montajes humorísticos, pero hoy en día también se han convertido en una herramienta peligrosa para los ciberdelincuentes.
¿Por qué son tan efectivos?
Estos montajes apelan a lo que más se confía como la vista y el oído. Si alguien ve a su jefe en pantalla, moviendo los labios y hablando con su voz habitual, es probable que actúe sin sospechar. La urgencia y el realismo del mensaje hacen que sea más difícil detenerse a dudar.
¿Cómo se usan los deepfakes en fraudes bancarios?
Los delincuentes están utilizando esta tecnología para suplantar la identidad de personas reales, como directivos de empresas, funcionarios o incluso clientes de bancos. A través de videollamadas falsas, audios manipulados o videos simulados, logran convencer a empleados o sistemas automatizados para que autoricen transferencias, compartan información confidencial o aprueben operaciones bancarias.
Ejemplos:
- Llamadas falsas con la voz clonada de un jefe que solicita una transferencia urgente.
- Videos falsos de ejecutivos dando instrucciones a un equipo financiero.
- Ataques a sistemas de verificación facial o de voz, que pueden ser engañados con imágenes o audios generados por IA.
¿Qué se puede hacer para prevenir estos fraudes?
La defensa frente a este tipo de engaños comienza con la información. Algunas medidas clave incluyen:
- Verificación por múltiples canales: Si una orden importante llega por video o audio, es recomendable confirmarla por otros medios, como una llamada directa o un correo desde una fuente oficial.
- Autenticación multifactor: No confiar solo en métodos biométricos. Combinar con contraseñas, tokens o autorizaciones internas.
- Capacitación constante: Empleados y usuarios deben estar al tanto de estas nuevas amenazas para saber cómo reaccionar.
- Sospechar de lo inesperado: Cualquier instrucción que parezca inusual o urgente debe ser verificada, incluso si proviene de una fuente aparentemente confiable.
El avance tecnológico es imparable y los deepfakes son una muestra de su potencial. En el ámbito financiero, estar un paso adelante es clave. Conocer cómo funciona esta tecnología y sus usos peligrosos pueden marcar la diferencia entre una transacción segura y un fraude.
Compartir: