Fraudes con inteligencia artificial, ¿cómo protegerse para mantener las finanzas seguras y evitar otras estafas?
Existen siete casos reales a nivel mundial de estafas con deepfakes, donde cibercriminales usaron inteligencia artificial para suplantar identidades y engañar a empresas y personas, causando pérdidas millonarias y riesgos de desinformación.

Una persona escribe código en una laptop bajo luces rojas y azules, junto a una máscara que simboliza el cibercrimen.
- Foto
Canva
Autor:
Actualizada:
Compartir:
La tecnología avanza a un ritmo vertiginoso. Lo que hace unos años parecía ciencia ficción hoy está al alcance de cualquiera con conexión a internet. Y si bien la inteligencia artificial ha traído herramientas útiles para la educación, el arte y los negocios, también se ha convertido en la nueva arma de los ciberdelincuentes.
Las deepfakes —videos, audios o imágenes falsas generadas con inteligencia artificial— están revolucionando el mundo digital. Y no siempre para bien: ahora los engaños son más convincentes, más virales y más difíciles de detectar. Desde Lionel Messi “recomendando” una app que es fraudulenta hasta empleados que transfirieron millones por una videollamada falsa, los casos se multiplican.
Pero, ¿cómo protegernos? Antes de llegar a los consejos, ESET, compañía de detección proactiva de amenazas, repasa algunos de los casos en donde las deepfakes fueron la herramienta principal para diagramar estafas que generaron pérdidas millonarias o de información sensible.
1. Lionel Messi y la app que prometía ganancias millonarias
El astro argentino fue víctima de una de las campañas más populares de deepfake en redes. En el video, Messi aparecía hablando sobre una app llamada Wildcat Dive, supuestamente una de sus fuentes secretas de ingresos.
El deepfake usaba una entrevista real, modificada con IA para hacer parecer que el futbolista recomendaba invertir. Miles de usuarios cayeron en la trampa y entregaron sus datos personales (y dinero) a una plataforma inexistente.
Lección: cuando algo parece “demasiado bueno para ser verdad”, probablemente no lo sea. Las promesas de ganancias fáciles o inversiones milagrosas suelen ser el anzuelo.
Tip: verificar siempre la fuente del anuncio y buscar la página oficial de la celebridad o empresa antes de hacer clic.
2. Arup y la videollamada que costó USD 25 millones
En 2024, un empleado financiero de la empresa de arquitectura Arup (responsable de la Ópera de Sídney) recibió una videollamada de su supuesto director financiero. La voz, el rostro y los gestos parecían idénticos. Durante la reunión, el “jefe” le pidió realizar varias transferencias urgentes. El resultado: 15 movimientos bancarios y USD 25 millones perdidos.
Todo era falso. La videollamada había sido creada con una tecnología de IA capaz de recrear el rostro y la voz del ejecutivo.
Lección: las deepfakes no solo circulan en redes; también se infiltran en entornos corporativos.
Tip: las empresas deben tener protocolos internos de verificación para operaciones financieras (como palabras clave o doble validación humana).
3. Ferrari y el CEO que nunca llamó
En julio de 2024, los delincuentes intentaron suplantar al CEO de Ferrari, Benedetto Vigna, mediante un audio deepfake. La voz era tan convincente que casi logran convencer a los ejecutivos de realizar una transferencia millonaria.
Uno de ellos, sin embargo, sospechó y realizó una pregunta que la IA no pudo responder. Esa duda salvó millones de euros y puso a Ferrari en alerta.
Lección: incluso una pequeña pregunta fuera del guión puede desenmascarar una estafa.
Tip: si algo genera duda, mejor confirmar por otro canal. Una simple llamada o correo a la fuente oficial puede evitar un desastre.
4. WPP: el deepfake que no logró engañar a una multinacional
La gigante de la publicidad WPP también fue blanco de un intento de estafa con deepfake. Los criminales usaron una cuenta falsa de WhatsApp y clips de YouTube para hacerse pasar por el CEO de la empresa.
Organizaron una reunión falsa en Microsoft Teams y pidieron información confidencial con la excusa de “crear una nueva empresa”. Gracias al entrenamiento en ciberseguridad, los empleados detectaron el fraude y evitaron pérdidas.
Lección: la prevención y la capacitación son las mejores defensas.
Tip: participar en cursos o charlas sobre seguridad digital. Cuanto más informado, más difícil será un engaño.
5. La escuela de Baltimore y el audio que destruyó una reputación
Un caso que muestra el lado más oscuro de los deepfakes: un director escolar fue víctima de un audio manipulado con IA en el que se le escuchaba hacer comentarios racistas. El mensaje se volvió viral. El director recibió amenazas de muerte y su carrera quedó dañada. Luego, una investigación reveló que el clip era completamente falso.
Lección: los deepfakes no siempre buscan dinero; también pueden destruir reputaciones o sembrar odio.
Tip: antes de compartir un audio o video polémico, verificar su autenticidad. Consultar medios oficiales o usar herramientas de verificación marca la diferencia.
6. Elon Musk y la estafa cripto que robó millones
Miles de personas creyeron en una supuesta inversión “recomendada por Elon Musk”. En videos publicados en X y YouTube, se veía al empresario hablando de una oportunidad de oro para invertir en Bitcoin. El problema: el video era un deepfake y la página de inversión, un fraude. La FTC (Federal Trade Commission) reportó más de 7.000 víctimas y pérdidas de USD 80 millones.
Lección: los deepfakes explotan la confianza en figuras populares y la emoción por “no quedarse fuera”.
Tip: nunca realizar inversiones basadas en anuncios o videos virales. Investigar, buscar la fuente oficial y desconfiar si presionan para actuar rápido.
7. El falso mensaje de Zelensky que buscaba desinformar
En 2022, durante la guerra entre Rusia y Ucrania, se difundió un video en el que el presidente ucraniano, Volodímir Zelensky, pedía a sus tropas rendirse. El video, aunque convincente, fue desmentido en cuestión de horas por el propio mandatario. Pero el daño ya estaba hecho: la desinformación se había expandido a millones de personas.
Lección: los deepfakes también se usan como arma política y pueden manipular la opinión pública.
Tip: nunca compartir videos sensibles sin verificar su fuente. La desinformación también es una forma de violencia digital.
¿Cómo detectar un deepfake antes de caer?
Aunque cada vez son más realistas, los deepfakes dejan pistas. Aquí van algunas señales de alerta:
- Mira los ojos y la boca: los parpadeos extraños o la sincronización incorrecta con el audio suelen delatar a la IA.
- Escucha atentamente: el tono de voz puede sonar plano, sin emoción o con pausas antinaturales.
- Verifica el contexto: ¿esa persona realmente diría eso?, ¿en ese medio?, ¿con ese estilo?
- Usa herramientas anti-deepfake: plataformas como Deepware Scanner o Reality Defender analizan videos y audios sospechosos.
- Consulta medios confiables: si un video se viraliza, los medios legítimos suelen aclarar rápidamente si es falso.
Consejos prácticos para protegerte de estafas con IA:
Desconfía de lo irresistible. Si alguien promete ganancias rápidas, amor instantáneo o empleo fácil, probablemente quiere tus datos o dinero.
No te quedes con el primer link. Usa siempre los sitios oficiales o las redes verificadas. Activa la verificación en dos pasos en todas tus cuentas.
Evita compartir información personal o financiera por mensajes o llamadas.
Educa a tu entorno. Muchas estafas funcionan porque alguien cercano no sabía reconocerlas.
Usa software de seguridad actualizado. Algunos antivirus modernos detectan incluso deepfakes conocidos.
Mantén una “palabra clave familiar” para validar llamadas urgentes o peticiones inusuales.
Los deepfakes llegaron para quedarse. No podemos detener su avance, pero sí aprender a ver con más ojo crítico. En la era de la inteligencia artificial, la mejor defensa no es la tecnología, sino la educación digital y financiera.
La próxima vez que veas un video viral o una “oportunidad única”, hazte tres preguntas antes de creerlo:
¿Quién lo publicó?
¿Dónde lo encontré?
¿Qué tan real parece… o qué tan conveniente quiere parecer?
Recordarlo puede ser la diferencia entre ser víctima del próximo gran engaño o no.
Compartir: