La manipulación se cuela en la política, las finanzas y la vida cotidiana
Las estafas con deepfakes crecieron exponencialmente en redes sociales en 2025, pero el auge también impulsó nuevas defensas, regulaciones y conciencia crítica para proteger dinero, reputación y derechos de las personas
cambio16.com/25/02/2026
Desde el año pasado y en lo que va de 2026, el mundo digital enfrenta una tormenta perfecta: las estafas con tecnologías deepfakes se multiplican y erosionan la confianza en casi todo lo que circula en redes sociales. Sin embargo, esta misma crisis empieza a forzar un cambio de consciencia en usuarios, gobiernos y empresas.
El volumen de archivos manipulados en línea pasó de unos 500.000 en 2023 a una proyección de 8 millones para finales de 2025, un salto cercano al 900% anual, según estimaciones de firmas de ciberseguridad. Ese crecimiento explosivo demuestra que ya no se trata de un fenómeno marginal, sino de un cambio estructural del entorno informativo.
Al mismo tiempo, las pérdidas económicas se disparan. Diversos análisis calculan que solo en 2025 las estafas relacionadas con deepfakes superaron los 1.100 millones de dólares, casi el triple de 2024 y varias veces más que todo lo registrado entre 2020 y 2023. Más del 80% de estas pérdidas se originó en redes sociales, lo que confirma que el fraude se mueve donde está la atención.
Las cifras no solo hablan de dinero. También describen vidas alteradas. En Europa, por ejemplo, una mujer perdió más de 800.000 euros después de creer que mantenía una relación sentimental con un actor famoso mediante videos y audios ultrarrealistas. Aunque el caso parece extremo, ilustra la capacidad de estas herramientas para explotar vulnerabilidades.

El auge de fraudes de deepfakes en redes sociales se debe al avance de tecnologías para clonar voces y rostros coherentes / asbanc.com.pe
Esta explosión de fraude se apoya en avances técnicos que permiten clonar voces con pocos segundos de audio, generar videos coherentes fotograma a fotograma y automatizar la creación de contenidos falsos desde interfaces cada vez más simples.
Cifras que rompen todos los récords
Las estadísticas muestran que el fraude deepfake dejó de ser una curiosidad tecnológica y se convirtió en un problema económico de primer orden. Solo en el primer trimestre de 2025, las pérdidas por estafas con deepfakes superaron los 200 millones de dólares a escala global, una suma que antes correspondía a años completos.
Entre 2020 y 2023, las pérdidas totales rondaron poco más de 100 millones, pero en 2024 se acercaron a los 360 millones y en 2025 saltaron por encima de los 1.100 millones. El crecimiento acumulado en pocos años supera con creces el 900%, un ritmo que muchas otras amenazas cibernéticas no alcanzan. La curva no solo sube, también se acelera.
La frecuencia de incidentes también aumentó. Algunos estudios documentan alrededor de 179 incidentes graves solo en el primer trimestre de 2025, una cifra que superó en 3 meses todos los casos de 2024. Es decir, las tentativas de fraude se vuelven más constantes y sofisticadas, mientras los sistemas de prevención tratan de alcanzarlas sin éxito pleno.

La cantidad de deepfakes a través de las rede sociales dificulta contener la dinámica / axaxl.com
El volumen de deepfakes en circulación complica cualquier intento de contención. Se estima que de unos 500.000 contenidos manipulados detectados en 2023 se pasó o se pasará a cerca de 8 millones en 2025. No solo hay más ataques, también hay más material falso que puede reciclarse, mutar y reaparecer en campañas distintas.
En el ámbito corporativo, cada incidente exitoso de fraude de identidad con deepfake cuesta a las empresas cientos de miles de dólares en promedio, entre transferencias no autorizadas, daños reputacionales y costos legales. Algunos casos, como el de una firma de ingeniería que transfirió más de 25 millones de dólares tras una videollamada falsa, muestran el potencial destructivo de esta tecnología.
Redes sociales, el epicentro del problema
Las redes sociales se consolidaron como el principal escenario de estas estafas deepfakes. En 2025, cerca del 83% de las pérdidas vinculadas con deepfakes se originó en plataformas sociales, frente a aproximadamente un tercio el año anterior. Este giro demuestra que el fraude sigue el rastro de la conversación pública, donde hay confianza y donde la gente se relaja.
Facebook, WhatsApp y Telegram concentraron la abrumadora mayoría de las pérdidas por estafas deepfake que comenzaron en redes sociales. Hablamos de cientos de millones de dólares en cada plataforma, mientras que otras, como TikTok, Instagram o Threads, sumaron decenas de millones adicionales. No es un problema aislado, sino un fenómeno transversal.
almonte.es
Los formatos favoritos de los estafadores combinan video y audio. La mayoría de los fraudes se basa en clips que suplantan a personas famosas para promocionar inversiones falsas en criptomonedas o supuestas oportunidades financieras exclusivas. El recurso es simple: explotar la credibilidad que el público tiene en ciertas figuras y envolverla en un mensaje de enriquecimiento rápido.
Europa ya vio ejemplos claros. En Polonia, un deepfake alteró el discurso de un presidente para simular que promovía una plataforma fraudulenta. En Alemania, un video sintético de un canciller instó a adherirse a otra propuesta dudosa, lo que activó alertas de organizaciones de defensa del consumidor. La manipulación se cuela en la política, las finanzas y la vida cotidiana.
La interacción directa refuerza el riesgo. En un caso reciente, un empleado de una empresa participó en una videollamada con varios supuestos superiores que, en realidad, eran deepfakes. La escena parecía normal, las voces sonaban naturales y el entorno corporativo resultaba convincente, pero la sesión terminó con una transferencia multimillonaria hacia cuentas controladas por criminales.
Modalidades de fraude: del romance al jefe falso
En este ecosistema hostil, las modalidades de estafa se perfeccionan y se diversifican. La más lucrativa es la suplantación de figuras públicas para promover inversiones fraudulentas, responsable de una enorme parte de las pérdidas. Los estafadores se hacen pasar por líderes empresariales, “gurús” financieros o celebridades que recomiendan proyectos con retornos imposibles.
En estos casos, los deepfakes muestran rostros convincentes, con gestos naturales y argumentos cuidadosamente guionizados. El mensaje mezcla urgencia, historias de éxito espectaculares y un lenguaje técnico lo bastante confuso para impresionar, pero no tanto como para espantar. El objetivo consiste en empujar a la víctima a actuar antes de verificar datos o consultar a terceros.
El fraude romántico representa otra cara igual de inquietante. Los criminales crean identidades sintéticas hiperrealistas que interactúan durante meses con la víctima. No solo envían textos, también suman audios, fotos y videollamadas donde la persona que aparece parece real, sensible, disponible, perfecta. Cuando el vínculo emocional se consolida, llegan las peticiones de dinero.
El caso de la mujer francesa engañada con el supuesto Brad Pitt mostró que ya no se trata de perfiles mal escritos ni de fotos robadas evidentes. Los estafadores combinaron deepfakes de audio y video con una narrativa de enfermedad, urgencias médicas y promesas futuras. El resultado fue una pérdida de más de 800.000 euros y una profunda herida emocional.
Además, las suplantaciones en videollamadas introducen un peligro cotidiano. Con herramientas de clonación de voz y rostro en tiempo real, los delincuentes se hacen pasar por jefes que piden transferencias urgentes, por compañeros que solicitan contraseñas o por familiares que reclaman ayuda inmediata. La familiaridad del contexto reduce las defensas críticas de la víctima.
Quiénes son los más vulnerables
Nadie queda completamente a salvo, pero ciertos grupos enfrentan un riesgo mayor. Los adolescentes se convirtieron en un objetivo preferente, en especial mediante imágenes íntimas falsas generadas con IA. Diversas investigaciones estiman que una proporción preocupante de jóvenes de entre 13 y 17 años ya fue blanco de algún tipo de deepfake sexual.
Un estudio reciente indica que 1 de cada 10 adolescentes conoce a alguien que fue víctima de deepfakes de desnudos y que alrededor de 1 de cada 17 asegura haber sido víctima directa de este tipo de estafa. Además, un porcentaje significativo reconoce haber observado a otros usar IA para crear o difundir pornografía sintética de menores. El problema trasciende el ámbito tecnológico y se vuelve un asunto grave de derechos.

Los adolescentes son el blanco más vulnerable de estas estafas virtuales / unifranz.edu.bo
Al mismo tiempo, los usuarios de ciertas plataformas, como Facebook, concentran la mayor parte de los fraudes económicos con deepfakes. Esto se explica por la enorme base de usuarios y por el uso intensivo de la red como canal de comunicación, escaparate de noticias y espacio de confianza. Cuanto más se mezcla la vida personal con la información pública, más fácil se vuelve apuntar a las víctimas.
Y qué viene en 2026
En paralelo, las empresas con alto volumen de transacciones digitales y uso intensivo de herramientas de IA se convierten en objetivos prioritarios. Se proyecta que el fraude facilitado por IA seguirá aumentando de manera pronunciada en los próximos años, lo que incentiva a grupos criminales a concentrar sus esfuerzos en grandes organizaciones con potencial de retorno mucho mayor que el de las víctimas individuales.
Para 2026, el riesgo se eleva con la llegada de deepfakes en tiempo real a las redes sociales. Informes de ciberseguridad anticipan un aumento de fraudes basados en clonación de voz, video sintético y sincronización audiovisual durante eventos masivos y contextos de alto flujo económico, como el Mundial de Fútbol. Millones de turistas y transacciones digitales formarán un campo atractivo para intentos de estafa sofisticados.
Frente a este panorama, la línea de defensa más importante deja de ser solo el ojo humano. La protección se desplaza hacia sistemas de procedencia segura, medios firmados criptográficamente, herramientas de verificación de contenido y marcos de gobernanza que supervisen el uso de IA. La respuesta, en última instancia, se vuelve sistémica: combina tecnología, normas y educación para que la sociedad pase de la ingenuidad digital a una consciencia crítica mucho más sólida.
__________
Fuente:
