Su IP:Desconocido

·

Su estado: Desconocido

Ir al contenido principal

¿Qué es deepfake y cómo puedes reconocerlo?

Los deepfakes ya no son ciencia ficción. Son videos, audios o imágenes creados con inteligencia artificial que se ven y escuchan como si fueran reales. Parecen tan ciertos que están preocupando a toda la población, incluyendo a los gobiernos, ya que pueden utilizarse para hacer el mal. Imagínate recibir el video de un familiar pidiendo dinero urgente, cuando en realidad no lo necesita. El primer paso para protegerte de estas amenazas es aprender a reconocer estos videos falsos. Aquí te lo explicamos.

24 feb 2026

12 lectura mínima

¿Qué es deepfake y cómo puedes reconocerlo?

¿Qué es deepfake?

Definición de deepfake

Un deepfake es un tipo de contenido creado por inteligencia artificial (IA) y técnicas de aprendizaje profundo. El nombre viene de unir deep learning (aprendizaje profundo de las máquinas) y fake (falso). El deepfake produce imágenes, audio o videos realistas de personas haciendo o diciendo algo que nunca hicieron, usando imágenes y videos que ya existen de esa persona.

Puedes pensar en esto como la evolución del Photoshop, pero llevado a un nivel completamente nuevo. Mientras que Photoshop te permite editar fotos, con los deepfakes puedes manipular videos completos de personas reales en situaciones donde normalmente no estarían. Los deepfakes suelen tener propósitos maliciosos, como engañar a la gente y hacerle creer que la persona mostrada realmente hizo o dijo lo que se muestra en el video.

¿Cómo se hacen los videos deepfake?

Los deepfakes usan inteligencia artificial para crear contenido que parece completamente real. El secreto está en una técnica que se llama "red adversaria generativa" o GAN.

Una GAN tiene dos partes que compiten constantemente entre ellas: un generador y un discriminador. Se entrenan para reconocer patrones usando algoritmos. El generador crea imágenes o videos falsos, mientras que el discriminador los revisa y rechaza el contenido que detecta como falso.

Es como una competencia sin fin. El generador trata de mejorar para engañar al discriminador, y el discriminador se vuelve mejor detectando las falsificaciones. Con el tiempo, el generador se vuelve tan bueno que produce contenido falso súper realista que es difícil distinguir de lo real.

¿Qué información se necesita?

Primero hay que “alimentar” al algoritmo. Se necesitan un montón de fotos o videos de la persona a la que se quiere imitar. La IA estudia cada detalle: cómo se mueven sus labios al hablar, sus parpadeos, las expresiones faciales y todos sus gestos. Una vez que aprende estos patrones, puede proyectar ese rostro sobre el cuerpo de otra persona.

¿El deepfake es ilegal?

Hacer deepfakes no es un crimen por sí solo. Sin embargo, cada vez se asocian más con actividades criminales como desinformación, noticias falsas y crear contenido sexual malicioso. Hay usos legales, pero los usos maliciosos son mucho más comunes. Los cibercriminales usan deepfakes para crear videos e imágenes sexuales ilegalmente, muchas veces con celebridades mujeres y figuras públicas.

Aunque los deepfakes no son ilegales por sí mismos, quienes los crean o difunden con fines ilícitos pueden enfrentar consecuencias jurídicas.

Tipos de deepfakes 

Los deepfakes muestran lo increíble y aterradora que puede ser la IA. Pero esto no se queda solo en videos, la manipulación ha llegado a casi todo lo que consumimos digitalmente. 

Deepfakes de texto

No todo lo que lees es real. Esta tecnología es capaz de imitar la forma de escribir de alguien para comunicar cosas falsas como emails o mensajes de texto que suenen súper convincentes ¡puede imitar hasta sus muletillas! Además, puede crear artículos y noticias que parecen reales, lo que se conoce como fake news.

Aunque puede ser útil para automatizar la escritura, puede ser muy peligroso cuando se usa para propagar mentiras.

Deepfakes de video

Este es el más popular. Los videos deepfake usan técnicas súper avanzadas de IA para crear videos falsos que se ven completamente reales, cambiando caras o alterando cómo se ve alguien.

Estos videos son éticamente muy problemáticos. Más allá de las bromas, los criminales los usan para inventar eventos, manipular declaraciones políticas o realizar secuestros virtuales. Imagina recibir un video de un ser querido pidiendo ayuda, es una herramienta de extorsión muy poderosa y cruel.

Deepfakes de audio

La tecnología de audio deepfake usa IA para crear voces falsas que suenan exactamente como una persona real. Hoy en día, solo se necesitan unos pocos segundos de tu voz para clonarla. 

La gente puede usar esto para crear grabaciones fraudulentas y hacerse pasar por otros con intenciones maliciosas. Por ejemplo, los estafadores pueden usar deepfakes de audio para hacer llamadas telefónicas falsas y robar dinero.  Es casi imposible notar la diferencia por teléfono.

Deepfakes en tiempo real

Esto ya no es un video editado, sino que la transformación ocurre mientras hablas. Esta tecnología puede usarse para realidad virtual, shows en vivo, videojuegos interactivos o para filtros divertidos en videollamadas.

Pero también puede ser súper peligroso. Los deepfakes en vivo pueden permitir que alguien se haga pasar por otra persona durante videollamadas e incluso en entrevistas de trabajo, haciéndose pasar por otra persona para obtener información confidencial o acceso a cuentas bancarias.

Deepnudes

Este es una invasión a la intimidad y el uso más bajo de este tipo de tecnología. Existen bots (muchos de ellos en apps como Telegram) que toman una foto normal de una persona y, sin su consentimiento, usan la IA para desnudarla digitalmente y crear imágenes o videos sexuales de personas.

Un caso muy conocido es el bot deepfake de Telegram, el cual fue investigado y se descubrió que había generado fotos desnudas falsas de más de 100.000 mujeres.

Los cibercriminales compartían las imágenes online, atacando principalmente a mujeres, incluyendo algunas menores de edad, aumentando la violencia digital contra la mujer.

¿Son los deepfakes una amenaza real?

Los deepfakes no son solo una herramienta para hacer memes y reír un rato, esta tecnología representa riesgos muy serios para las personas y la estabilidad de la sociedad. En manos de la persona incorrecta puede crear: 

Noticias falsas y propaganda

Un video deepfake convincente se puede usar como propaganda para dañar la reputación de políticos rivales y gobiernos enemigos. Por ejemplo, en 2022, poco después de que Rusia invadiera Ucrania, aparecieron deepfakes online que mostraban al presidente ucraniano rindiéndose.

Aunque este video se descubrió que era falso, es fácil imaginar lo dañina que podría ser esta estrategia cuando la tecnología sea más difícil de detectar.

Estafas e ingeniería social

Los delincuentes pueden usar esta tecnología para engañar a las personas y hacer que compartan información privada con ataques de phishing

Si ya era sospechoso recibir un mensaje de un amigo diciéndote que está en otro país y necesita dinero urgente, ahora imagínate el mismo escenario, pero te mandan un video súper convincente de tu amigo. El audio y video se ven genuinos y tienes "prueba visual" de que está atascado en un aeropuerto sin suficiente dinero para el boleto de regreso. Muchas personas mandarían el dinero sin pensarlo dos veces, pero lo que acabaron de ver podría ser un deepfake.

Suplantación de identidad

Gracias a que estos sistemas aprenden cada vez más rápido, los estafadores pueden robar tu identidad para burlar sistemas de seguridad biométricos, como las "video selfies" que exigen los bancos para abrir cuentas o aprobar préstamos desde el celular.

Esto significa que un delincuente podría usar tu rostro y voz en tiempo real para hacerse pasar por ti en trámites legales o bancarios, logrando que lo que vemos en pantalla ya no sea una prueba irrefutable de identidad. Ante este escenario, la seguridad digital nos obliga a ser mucho más escépticos: hoy, lamentablemente, ya no basta con "ver para creer".

El debate entre la ética y la seguridad

Lo que antes requería expertos en edición, hoy está al alcance de cualquiera. Apps como Wombo o FaceApp son la puerta de entrada, y es que, aunque parecen juegos inofensivos para cambiar de cara o ponerse viejo, usan la misma base tecnológica.

El problema real no son las apps divertidas, sino lo fácil que es acceder a herramientas más potentes. Hoy, cualquier persona con mala intención puede descargar una foto de tus redes sociales y, en cuestión de minutos, crear un video falso para dañar tu reputación. 

Es importante cuestionarse y conocer el peligro que tiene para los menores, las amenazas de las redes sociales y que las leyes en muchos de nuestros países todavía no están completamente preparadas para este tipo de ciberdelitos.

La pregunta es: ¿seguimos siendo capaces de identificar un engaño o ya nos acostumbramos a creer todo lo que brilla en la pantalla?

¿Se puede usar el deepfake de manera positiva?

¡Claro que sí! El deepfake no nació para que hackers o personas malintencionadas cometieran delitos, en realidad, surgió como una evolución de la inteligencia artificial para permitirnos editar videos e imágenes con un nivel de detalle que antes era imposible.

En el cine, el deepfake se usa para rejuvenecer a nuestros actores favoritos o incluso para "resucitar" digitalmente a artistas que ya no están con nosotros. En España, se viralizó un anuncio donde recrearon la voz y el rostro de la mítica Lola Flores. Esto permite que nuevas generaciones se conecten con figuras históricas y mantengan vivo su legado.

Otra de las mejores funciones de esta nueva tecnología es la capacidad de doblar videos a otros idiomas manteniendo el timbre de voz original. Imagina ver un discurso de Claudia Sheinbaum en japonés, pero escuchando su propia voz y viendo que el movimiento de sus labios coincide perfectamente. Esto tiene un potencial enorme para la educación y la comunicación global.

En el ámbito social es una herramienta clave para encontrar a personas desaparecidas, ya que permite crear proyecciones realistas de cómo se vería hoy un niño que se perdió hace años, dándole una mano enorme a las familias en su búsqueda. 

También está dándole un giro a la educación al recrear eventos históricos con tanto detalle que estudiar el pasado se siente como un viaje en el tiempo. Además, hace que los personajes en los videojuegos se vean y se muevan de forma tan humana que la experiencia del gaming sube totalmente de nivel.

Cómo identificar un deepfake

Identificar un deepfake no siempre es fácil. Mientras que algunos videos son obviamente falsos, otros son tan sofisticados que pueden engañar a cualquiera. Si sospechas de un video, aquí tienes algunas señales clave en las que debes fijarte:

Parches suaves o bordes borrosos

Presta atención a los puntos donde el rostro se une con el resto de la cabeza (como la frente o la mandíbula). Muchas veces, esa zona se ve extrañamente lisa o sin poros, como si tuviera un filtro de belleza mal aplicado. Incluso en los mejores videos, un movimiento brusco de cabeza o un cambio de luz pueden delatar el engaño, mostrando bordes borrosos por una fracción de segundo.

Detalles que no cuadran

Si el video es de una figura pública, como un político, puedes buscar fotos reales de esa persona para comparar. Fíjate en cosas fuera de la cara que tal vez no cambiaron: manos, cabello, forma del cuerpo y otros detalles que no coinciden entre el video sospechoso y fotos más antiguas y confiables.

Movimientos rígidos

Si notas que la persona se ve muy tiesa o que su cabeza no se mueve en sintonía con sus hombros, sospecha. A veces, los creadores limitan el movimiento de la persona para que el algoritmo pueda "mapear" el rostro más fácil y no se desajuste.

Una voz que no convence del todo

Crear una voz falsa que suene 100% humana es muy difícil. A veces el tono suena robótico o sin mucha emoción natural. Esto pasa porque para lograr que “la persona” hable, el estafador tiene dos opciones: usar una IA de voz o un imitador. Si comparas el audio con un video real de la persona, notarás que el ritmo al hablar, las pausas para respirar o la entonación de ciertas palabras no coinciden con su estilo original.

Consejo: ante la duda, usa el sentido común. Si el video muestra a alguien diciendo algo escandaloso o fuera de lugar, lo más probable es que sea un montaje. No lo compartas sin antes verificarlo en fuentes oficiales.

El futuro del deepfake

Conforme avanza la tecnología, notar la diferencia entre un video real y uno generado por IA va a ser cada vez más difícil. Estamos llegando a un punto donde cualquiera con una laptop podría fabricar un escándalo político en minutos.

¿Cómo cuidarte hoy mismo? No les regales material a los estafadores. Pon tus perfiles en privado y piénsalo dos veces antes de subir tantas fotos de tu cara en primer plano; recuerda que esos son los datos que la IA usa para clonarte.

Al final, tu mejor arma es la duda. Si ves algo demasiado loco, escandaloso o que justo confirma lo que ya pensabas, detente. Cuestiona, investiga y no compartas por impulso. 

Tu seguridad empieza por no creer todo lo que brilla en la pantalla.

Protege tu privacidad online con la VPN líder del mundo

Preguntas frecuentes

También disponible en: Deutsch,English,Español,Suomi,Français,Italiano,日本語,‪한국어‬,Nederlands,Polski,Português Brasileiro,Português,Svenska,Türkçe,繁體中文 (台灣).

Isabel Serna Marquina

Isabel Serna Marquina

Isabel es una copywriter mexicana a quien le encanta descubrir nuevas culturas, conectar con personas de distintos orígenes y correr en la naturaleza. Escribe contenidos en español para lectores latinoamericanos y está comprometida en hacer que internet sea más seguro para todos.