Tu IP: Sin datos · Tu estado: ProtegidoDesprotegidoSin datos

¿Qué es deepfake y cuáles son sus riesgos?

Los vídeos fakedeep son manipulados con inteligencia artificial y hacen parecer que las imágenes que ve el usuario, son reales. Existe una gran preocupación en torno a esta práctica, ya que, más allá de la edición de un vídeo para que parezca que el fondo es de una isla paradisíaca, algunas personas están usando esta tecnología para causar graves daños. Por ejemplo, los falsos desnudos de menores en Extremadura (septiembre del 2023). Aquí te explicamos qué es deepfake, algunos ejemplos y por qué puede ser un peligro.

¿Qué es deepfake y cuáles son sus riesgos?

¿Qué es deepfake?

Significado de deepfake

Deepfake es concepto que hace referencia a la manipulación de un archivo multimedia (un vídeo, una imagen o un audio) que parece real, pero que es falso. Son convincentes porque el timbre de voz, los gestos y otros rasgos identificativos son muy parecidos a los de la persona que sale en las imágenes, en ocasiones, hasta son idénticos. El uso de deepfake en actividades delictivas es una gran amenaza, y en tanto en España como en Latinoamérica, es necesario actualizar la legislación vigente para atajar el problema.

¿Por qué se inventó el deepfake? ¿Solo se usa para actividades ilegales?

El deepfake es una tecnología que fue inventada para que, combinada con la inteligencia artificial (AI), los usuarios pudieran editar vídeos e imágenes como nunca antes. No fue creada para que los hackers o personas malintencionadas cometieran delitos con esta herramienta, por ejemplo, acosar a una compañera de trabajo con sextorsión usando un vídeo íntimo manipulado.

Deepfake permite cambiar vídeos de Hollywood para envejecer el rostro de nuestro actor favorito. También ha lanzado una interesante función que introduce un audio en una lengua diferente a la original, aunque mantiene su timbre de voz. En este último caso, los cibernautas podrían escuchar un discurso de Gustavo Pietro en alemán y otro de Dina Boluarte en japonés, sin perder su forma de expresarse en público.

Sin embargo, si bien es cierto que se puede hacer un uso lúdico del deepfake, no siempre es lo que sucede. La propaganda política emplea esta nueva tecnología para emitir un determinado mensaje, las noticias falsas son un canal de difusión de estos vídeos manipulados. Al cambiar las grafías del letrero de un comercio (de latino a cirílico) que sale en una imagen, en la cual se ve a un grupo de personas peleando, los lectores podrían pensar que ha sucedido en Bulgaria, en vez de en Francia.

Por si fuera poco, el deepfake puede resucitar a un artista. Hace poco, en España, se viralizó un anuncio publicitario en el que se recreaba la inconfundible voz de Lola Flores. Ahora que has visto de cerca el significado de deepfake y para qué sirve, quizá seas más consciente de los problemas que acarrea el mal uso de esta innovadora tecnología.

¿Cómo se hacen los vídeos deepfake?

No se puede entender qué es deepfake sin unir la definición directamente con la inteligencia artificial, pero más concretamente con el proceso llamado aprendizaje automático. En algunos casos, estos sistemas de aprendizaje profundo utilizan una red generativa de confrontación; Básicamente, la red de IA se divide en dos componentes rivales, que compiten para aprender y mejorar su producción.

Por lo general, un deepfake incluye imágenes de una persona en un vídeo. La tecnología deepfake, podría decirse que trata la imagen de ese individuo como un títere y la modifica a su antojo. Puede mantener el rostro de dicha persona, pero asociarle un cuerpo que no le pertenece y que, a vista de los demás, parezca real. Esto es lo ha ocurrido recientemente en un centro escolar de Extremadura, en el que un grupo de menores difundió imágenes falsas de los supuestos desnudos de sus compañeras de clase, de apenas 14 años.

Los propios padres de las víctimas de este uso ilícito del deepfake reconocieron, ante la prensa, que es muy difícil saber si esa imagen es real o no. Ellos mismos tenían dudas. Este nivel de perfección es obra de la tecnología deepfake. A partir de una fotografía real descargada del perfil en redes sociales de las víctimas, la inteligencia artificial analiza cientos de imágenes hasta encontrar una que se adapte mejor a las características de la modelo. De tratarse de un vídeo, se le asignan movimientos, gestos y expresiones que son totalmente realistas.

Los desarrolladores siguen trabajando para que la IA deepfake funcione mejor, lo que es una gran noticia. Hasta ese momento, era imposible imaginar que volveríamos a ver un anuncio de navidad protagonizado por una actriz ya fallecida, por ejemplo. No obstante, este tipo de tecnología abre un intenso debate sobre los riesgos de las redes sociales entre los menores o la falta de control parental en algunos casos, así como la limitación jurídica actual para castigar el uso de deepfake para cometer delitos contra el honor o la intimidad de una tercera persona.

Por supuesto, es preocupante el fácil acceso de los jóvenes a la IA, además del poco conocimiento que existe en torno a las consecuencias negativas del uso ilegítimo de la misma, pero la deepfake también es usada por adultos. Primero, por diversos motivos, un internauta manipula una imagen y después el algoritmo se encarga de difundirla como legítima. Cabe preguntarse si realmente somos conscientes del engaño o si ya no podemos identificar bulos.

¿Quién puede hacer deepfakes?

Cualquiera puede crear vídeos e imágenes deepfake utilizando una variedad de aplicaciones gratuitas, como Wombo y FaceApp. Se trata de programas sencillos que no producen resultados muy convincentes, pero son solo la punta del iceberg. Asimismo, el acceso es tan sencillo que en España y Latinoamérica se empieza a debatir si es correcto que los menos puedan usar este tipo de AI.

Los artistas de efectos visuales han estado buscando formas de envejecer a los actores mayores e incluso traer de vuelta a la pantalla a celebridades fallecidas. Hemos visto intentos de rejuvenecer a Arnold Schwarzenegger en “Terminator: Dark Fate” y de resucitar a Peter Cushing en “Rogue One: A Star Wars Story”.

No se trataba de deepfakes, sino más bien de cuidadosas reconstrucciones digitales realizadas por artistas de efectos visuales. Lo sorprendente de ellos es que muchos artistas aficionados de VFX hicieron sus propias versiones de las escenas relevantes de estas películas y utilizaron software deepfake para generar recreaciones faciales aún mejores. Esto demuestra un caso de uso interesante y legítimo para los deepfakes. Fue el caso de la parodia del “Equipo E” que circuló por las redes sociales durante meses.

Puedes encontrar otros convincentes vídeos generados por IA en YouTube y totalmente falsos en los que aparecen Donald Trump, Barack Obama y Tom Cruise, todos recreados a través de esta misma tecnología. Sin embargo, la manipulación no solo consiste en cambiar algunas frases o añadir gestos que puedan ser graciosos, la influencer Laura Escanes denunció haber sido víctima de un falso desnudo con deepfake en el verano del 2023.

¿Deepfake es ilegal en España y Latinoamérica?

La legalidad o no del deepfake depende del uso que le dé el usuario. Emplear esta tecnología para no respetar la intimidad de una tercera persona, puede suponer un delito. En los casos de los falsos desnudos de Extremadura y el de la ya citada Laura Escanes, se usaron técnicas deepfake para desprestigiar a las víctimas y la fiscalía analiza qué medidas legales se pueden tomar.

En definitiva, hay usos legítimos para los deepfakes (su papel en los efectos digitales de las películas es el más destacado), pero también pueden usarse para prácticas ilegales, que es una de las principales razones por las que recientemente han aumentado la conciencia pública. En este último punto, cabe destacar el papel que juega la manipulación de los vídeos en casos de ciberacoso a menores o mobbing en el entorno laboral.

Finalmente, estos vídeos falsos pueden ser parte de la estrategia mediática de un país durante la ciberguerra. Los efectos inmediatos que tienen las imágenes manipuladas en un territorio en conflicto hacen que el deepfake se esté utilizando con este fin.

Cómo identificar un deepfake

No siempre es fácil detectar un deepfake. Si bien algunos son videos claramente falsos, con expresiones faciales que emiten un sonido que no es propio de un humano, otros son más sofisticados. Incluso adjuntar afirmaciones contrarias a la postura que suele tener el líder de un partido, con una buena edición deepfake, parecerán reales.

Hay varios factores pueden ayudarte a determinar si estás viendo un vídeo deepfake convincente o no. Si el vídeo contiene una cara, centra tu atención allí y busca estos indicios:

Parches lisos o borrosos

Los puntos de conexión donde la superposición del vídeo deepfake se encuentra con la cara de la persona que está debajo a veces pueden parecer extrañamente suaves y sin textura. Hasta en los mejores ejemplos, cualquier movimiento repentino de la cabeza o cambio de iluminación puede revelar momentáneamente bordes faciales borrosos.

Rasgos no faciales inexactos

Si el vídeo representa a una figura pública, como un político, puedes encontrar imágenes de esa persona para comparar. Mira los elementos fuera de los rasgos faciales principales que podrían no haber sido alterados; manos, cabello, forma del cuerpo y otros detalles que no se sincronizan entre el vídeo en cuestión y fuentes visuales más antiguas y confiables.

Movimiento antinatural

Al menos por ahora, los deepfakes parecen más convincentes cuando el sujeto no se mueve demasiado. Si el cuerpo y la cabeza del sujeto parecen extrañamente rígidos, podría ser una señal de que los creadores del video están tratando de facilitar que la inteligencia artificial de aprendizaje profundo mapee una imagen en el rostro de la persona sin tener que seguir demasiado movimiento.

Una voz poco convincente

La tecnología deepfake está evolucionando rápidamente, pero por ahora entrenar computadoras para crear simulaciones de audio parece producir peores resultados que sintetizar imágenes y vídeos deepfake convincentes.

El creador del deepfake tiene que elegir entre dos opciones si quiere que su sujeto hable: usar una voz generada por AI o un actor que pueda hacerse pasar por el material original. Puedes comparar la voz con el audio de una celebridad o un político hablando y es posible que notes algunas diferencias.

¿Es la tecnología deepfake una amenaza?

La tecnología deepfake plantea una serie de amenazas muy reales para las personas y la sociedad en general. Los vídeos deepfake convincentes que te hemos mostrado en los ejemplos pueden ser extremadamente dañinos si se crean como otro elemento más de las cibervenganzas, como le ocurrió a la mexicana Olimpia Coral Melo. En la actualidad, los archivos compartidos en línea viajan a la velocidad de la luz.

Esta es la razón por la cual muchos países están comenzando a instituir leyes para criminalizar esta actividad. Sin embargo, además de los injustificables ataques personales, los deepfakes plantean otras amenazas:

Manipulación mediática

Un vídeo deepfake convincente puede utilizarse como propaganda para difamar a los opositores políticos y a los gobiernos rivales. Por ejemplo, podemos fijarnos en el año 2022, cuando, poco después de la invasión rusa de Ucrania, aparecieron en internet vídeos falsos que mostraban al presidente ucraniano rindiéndose.

Si bien este vídeo fue expuesto como falso, es fácil imaginar cuán dañina podría ser esta estrategia una vez que la tecnología se vuelva más difícil de detectar. Un deepfake podría utilizarse para difamar a un oponente político e influir en los votantes. Alternativamente, el uso generalizado de esta tecnología podría usarse para desacreditar un vídeo genuinamente incriminatorio.

Si detectar un vídeo deepfake se vuelve imposible, los medios fabricados tienen el potencial de aumentar los riesgos de noticias falsas y alimentar la desconfianza en los principales medios de comunicación.

Estafas e ingeniería social

La tecnología deepfake también podría usarse para engañar a las personas para que expongan información privada o incluso regalen dinero con ataques de phishing. Si recibes un mensaje de Facebook de un amigo explicando que está varado en el extranjero y necesita asistencia financiera urgente, es posible que sospeche. Quizá los llames o les envíes un mensaje de texto desde una aplicación diferente y descubras que su cuenta de Facebook ha sido hackeada.

Ahora imagina el mismo escenario, pero en lugar de un mensaje, te envían un vídeo completamente convincente de tu amigo. El audio y el video parecen genuinos. Ahora tienes lo que parece una prueba visual de que realmente están atrapados en un aeropuerto (probablemente en un país en conflicto o después de sufrir un robo) y sin suficiente dinero para el billete de vuelta a casa. Mucha gente enviaría el dinero sin sentir la necesidad de pedir más garantías, pero lo que acaban de ver podría ser un deepfake.

Gracias a la creciente sofisticación de las redes generativas de confrontación y otros sistemas de aprendizaje automático, un estafador pronto podría utilizar estos videos convincentes para facilitar el robo de identidad y ayudar en futuras estafas.

El futuro de los deepfakes

Será cada vez más difícil detectar deepfakes a medida que la tecnología mejore. Si llegamos al punto en que cualquiera con un PC y un conocimiento básico del software VFX, puede producir un vídeo del presidente diciendo algo escandaloso, estaremos en problemas.

Ya es difícil detectar los deepfakes, pero pronto podrían volverse imposibles de detectar. Con un sistema político polarizado, no es improbable que un deepfake pueda usarse como parte de una estrategia de campaña encubierta. Aunque el uso de la tecnología en películas y programas de televisión recientes está ayudando a crear conciencia entre el público, muchas personas aún podrían estar mal informadas con un vídeo convincente. Asimismo, los propios profesionales de los medios de comunicación cometen errores a veces dando por buena la información extraída de un vídeo deepfake.

Un paso sencillo que puedes tomar hoy para contrarrestar los riesgos que plantean los estafadores deepfake es limitar la cantidad de imágenes que publicas online. Esta recomendación debe ser recordada, en especial, a los más jóvenes y a los padres que comparten contenido sobre sus hijos. Te sugerimos que mantengas privados tus perfiles de redes sociales y evites publicar imágenes de tu rostro con regularidad, aunque también puedes plantearte borrar Instagram o tu perfil de TikTok.

La seguridad online empieza con un clic.

Máxima seguridad con la VPN líder del mundo


Valoramos tu privacidad

Este sitio web utiliza cookies para ofrecerte una experiencia más segura y personalizada. Al aceptar, significa que estás de acuerdo con el uso de cookies para anuncios y análisis, online con nuestra Política de cookies.