O que é um deepfake?
Um deepfake é um vídeo que muda o rosto de uma pessoa, com qualidade ultrarrealista e gerado com auxílio de inteligência artificial. Essas cópias fiéis somente são possíveis devido à tecnologia de aprendizado de máquinas, apelidado “deep learning”, um novo passo na história da manipulação de imagens. Deepfakes podem se encaixar como uma modalidade bastante evoluída de fake news.
Essa história remonta às origens da fotografia e do cinema, no século XIX, mas vem se acelerando de maneira inédita desde que a computação gráfica ganhou fôlego nos anos 90, nos ambientes acadêmico, artístico e da indústria cinematográfica, permitindo a criação e substituição realista de cenários e pessoas em vídeos.
A criação do termo “deepfake” é mais atual: ela data de 2017 e é atribuída a um grupo da rede social Reddit, que se dedicava a usar tecnologia avançada (como a que descreveremos na seção seguinte) para substituir o rosto de atrizes pornográficas pelos de celebridades em vídeos.
As manipulações de vídeo realistas ganharam tom de piada e se espalharam pela internet, motivando novas explorações comerciais das tecnologias, como na elaboração de hologramas de artistas na indústria de entretenimento e aplicativos com algoritmos para a geração rápida de rostos alterados com base em fotos reais.
Qual é o propósito dos deepfakes?
A tecnologia deepfake, ou deep fake, por si só não tem uso único definido. Devido à capacidade precisa de imitação de feições humanas, pode ser usada com fins cosméticos, como um filtro embelezador em redes sociais, ou comerciais, substituindo maquiagem e retoques na pós-produção cinematográfica.
Usada profissionalmente, a tecnologia também tem se difundido e barateando. Assim, é cada vez mais comum que pessoas comuns tenham a capacidade de emular de modo convincente a imagem e, em alguns casos, o som da voz de outros indivíduos. Isso permite gerar imagens de artistas, políticos e outras celebridades em situações inusitadas.
A consequência disso é uma produção crescente de imagens e vozes humanas, que podem ser usadas também para paródia ou para guerras difamatórias políticas no mundo virtual.
Como é feito um vídeo deep fake?
O processo de deep learning é o que viabiliza e dá nome aos deep fakes (“falsificações profundas”, numa tradução livro do inglês). Uma inteligência artificial (IA) potente é treinada, no chamado aprendizado de máquinas, em que um sistema é abastecido com quantidades enormes de imagens.
Em regra, essas imagens são de um ator, e serve de base para a IA. Com suas feições captadas em várias poses, posteriormente sua cara será usada como uma tela em branco, na qual a máquina projetará suas criações com base no que aprendeu, ajustando traços faciais e expressivos de maneira realista.
Os rostos são “mapeados” com base no rosto do ator e refinados, para maior precisão. Como modo de aumentar a eficácia, alguns sistemas de aprendizado de máquinas são divididos em duas partes, que competem para aprender e aprimorar resultados.
O processo de como fazer deepfake funciona essencialmente dessa forma, mas está em mutação. Há algum tempo parecia improvável que máquinas pudessem conduzir esse procedimento complexo sem supervisão. No entanto, atualmente a intervenção humana é cada vez menos necessária para isso.
Quem pode fazer deepfakes?
Hoje em dia, alguns apps de deep fake já se popularizaram entre usuários de celulares. O aplicativo FaceApp, capaz de “envelhecer” fotos de modo convincente, chamou a atenção de milhões de pessoas. Basta carregar uma foto da galeria do celular ou uma selfie para que ela seja processada e modificada digitalmente com apenas alguns cliques.
Programas como esse e o Wombo não estão no auge da qualidade da tecnologia. Porém, muitos leigos dedicados têm sabido explorar habilmente essas novas técnicas gráficas. Alguns dos resultados mais impressionantes foram obtidos por gente recriando e até aprimorando o trabalho de artistas visuais cinematográficos de Hollywood. Não é difícil encontrar no YouTube ou em suas alternativas vídeos de deep fake replicando o rejuvenescimento de Robert De Niro com maquiagem virtual em “O Irlandês” ou mesmo na tentativa de ressuscitar Peter Cushing em “Rogue One: Uma História Star Wars”.
Outras amostras verossímeis de vídeos gerados por IA são centradas em personalidades, como as sátiras de Donald Trump e outros políticos, paródias do Instagram de Tom Cruise ou do Will Smith brasileiro entregador de botijões de gás, que viralizaram na internet.
Deepfakes são ilegais?
Conforme dito anteriormente, deep fakes não têm uso único intrínseco. Por isso, não podem ser considerados ilegais de forma geral. Entretanto, seu uso como ferramenta para promover desinformação, difamação e difundir conteúdo adulto malicioso podem ser punidos pela Justiça.
Um dos exemplos de mau uso de imagens realistas geradas por IA é a elaboração de montagens em vídeo de pornografia com as feições de outras pessoas. Em regra, celebridades e figuras públicas são as mais atingidas, com seus rostos superimpostos sobre cenas eróticas, mas pessoas comuns também podem ser afetadas. Situações simplesmente vexatórias, como as que geram cyberbullying também são uma possibilidade – e seus autores podem ser punidos legalmente.
Já no que diz respeito à desinformação, vídeos falsos emulando a imagem e a voz de pessoas reais podem ser usados por governos para lesar adversários políticos. É uma maneira sofisticada de espalhar mentiras e provocar ódio e revolta no público contra pessoas ou grupos, difundindo imagens forjadas com a rapidez característica dos meios digitais.
Como identificar um deepfake?
Apesar da complexidade de muitas imagens geradas por IA, há alguns traços identificáveis nesse tipo de gráficos que podem ajudar a apontar tratar-se de uma criação.
Esses traços podem ser mais evidentes em alguns deep fakes do que em outros, a depender da capacidade dos criadores e do sistema utilizado. Qualquer que seja o caso, os erros denunciadores geralmente estão contidos justamente no rosto retratado.
Contornos e proporções faciais
Embora seja relativamente fácil “remover” ou “trocar” rostos em deep fakes mantendo alta resolução, nem sempre a “moldura” acompanha essa qualidade. Um formato do rosto diferente daquele da pessoa imitada é uma pista comum de falsificação. Orelhas e cabelos também podem não ter tido o mesmo cuidado de caracterização para formar uma boa imagem falsa.
Da mesma maneira, o alinhamento dos olhos nem sempre é bem-imitado pela IA. Esse tipo de deslize fica mais evidente quando a pessoa no vídeo fica de meio-perfil ou vira a cara de lado.
Manchas borradas
Na hora de compor um rosto sobre uma figura humana, os programas nem sempre fazem um bom trabalho de fusão. Isso pode deixar estranha a textura facial da imagem forjada, geralmente suave ou lisa demais.
Em outros casos, a imagem criada em geral é boa, mas movimentações bruscas podem gerar discrepâncias e texturas estranhas, que somem depois de alguns instantes. Uma cor de pele alterada é outro problema sutil também observado em alguns casos.
Movimento artificial
Apesar de as máquinas geradoras de vídeos serem alimentadas com uma quantidade gigantesca de imagens de rostos, diminuindo a margem para erros, uma tendência geral é que as réplicas de rosto fiquem menos expressiva do que o normal.
Além disso, a movimentação fica artificial, deixando muitas vezes uma boca que se mexe fora de sincronia com o som que é emitido pela voz. Se a imagem gerada for de qualidade inferior, viradas de rosto de lado também deixarão a movimentação estranha, eventualmente alterando o formato da face para algo mais quadrado.
Voz pouco convincente
A geração sintética de voz muitas vezes pode denunciar uma peça falsa. O resultado pode ser uma qualidade sonora quebradiça, pouco natural para a fala humana normal.
Por outro lado, a entonação também pode ser um problema. Assim, uma expressividade estranha no contexto de um vídeo pode ser também crucial para entender se as palavras foram postas, com ajuda de uma IA, na boca de alguém.
A tecnologia deepfake é uma ameaça?
Montagens na internet têm se sofisticado muito em relativamente pouco tempo. Ferramentas de edição e a rapidez das mensagens virtuais agravam muito a difusão de mentiras e desinformação.
Nesse contexto, os deepfakes têm o potencial de deixar para trás edições de vídeo bem-feitas e efeitos gráficos de última geração quando o assunto é destruir a reputação de alguém.
Fake news e propaganda
Conforme as imagens sintéticas avançam em qualidade, as situações absurdas encenadas com elas tendem a ficar mais virais. Consequentemente, seu controle se complica e isso pode gerar comoção pública e desinformação. No contexto da guerra da Rússia contra a Ucrânia, tornaram-se famosos os deep fakes com uma suposta rendição do presidente ucraniano.
Além das imagens alteradas, falas podem ser distorcidas usando mídia sintética de voz. Nesse sentido, as eleições de 2022 foram palco para exibição de uma peça de deep fake no Brasil. Um vídeo com a apresentadora e jornalista Renata Vasconcellos foi espalhado em período de campanha. Nele, uma edição bem-feita usava a voz de Vasconcellos para informar dados de uma pesquisa de opinião eleitoral imaginária.
Golpes e engenharia social
Se o phishing já é uma ameaça abundante na internet apelando primordialmente para links falsos em e-mails e falsos remetentes, seu impacto pode crescer exponencialmente associando rostos confiáveis como fachada para golpes.
Manobras criminosas, como as ligações telefônicas simulando sequestro de parentes ou mensagens de texto pedindo valores em dinheiro, utilizando o nome de amigos, poderão ter rosto e voz impecáveis para enganar pessoas honestas.
Associados às tecnologias de geração de texto por IA, podem tornar as imposturas ainda mais danosas. Com comandos breves e simples, já é possível orientar uma IA para imitar estilos de escrita e compor textos complexos em pouco segundos.
O futuro dos deepfakes
Da perspectiva criativa, a excelência cada vez maior de deep fakes pode gerar resultados interessantes em animação gráfica, cinema e TV, por exemplo. Porém, a tendência é que a diferenciação entre imagens reais e criações digitais fique cada vez mais complicada.
Com efeito, ela pode se tornar impossível a olho nu. A sofisticação das cópias já é tamanha que empresas desenvolvedoras de IA geradoras de texto, como a OpenAI, têm proposto ferramentas para apontar se um texto foi criado por um computador ou por um humano. O objetivo é evitar plágios, trapaça em trabalhos acadêmicos e outras situações indesejáveis. A concepção de um “tira-teima” similar para vídeos poderia se tornar também uma necessidade urgente num futuro próximo.
A difusão de informação jornalística e o debate público são alguns dos pilares para a preservação de democracias e ferramentas para evitar abusos de poder. Nesse sentido, ferramentas acessíveis e baratas capazes de gerar vídeos de autoridades e outras figuras públicas relevantes em situações falsas impossíveis de desmascarar podem ensejar uma manipulação de massas extremamente desafiadora e eficaz.
Embora ainda sejam pouco numerosas, campanhas de conscientização sobre como identificar deep fakes e seus usos podem ajudar a manter a qualidade e a civilidade do debate público e, em última instância, da tomada de decisões individual.
Outro aspecto relevante dessas criações por IA tem relação com a privacidade e a segurança de dados. Assim como o uso de tecnologia para VPN tem se tornado um imperativo entre pessoas bem-informadas que prezam cibersegurança, também o compartilhamento público de fotos e vídeos pode se tornar muito mais restrito num futuro próximo para evitar seu uso para criar deepfakes.
Afinal de contas, máquinas potentes são treinadas com milhares de posições de faces, em vídeo e imagem, e vozes. Se o avanço da capacidade desses sistemas não pode ser contido, ao menos a fonte para abastecer seu treinamento pode ser controlada individualmente e, eventualmente, regulada politicamente.
Sua segurança online começa com um clique.
Fique em segurança com a VPN líder a nível mundial