Sábado, 30 de
Novembro de 2024
Geral

Tecnologia da Informação

O que é Deep Fake e porque você deveria se preocupar

Tecnologia usada para colocar o rosto de uma pessoa em outra em um vídeo, o Deep Fake está tirando o sono de todo mundo

Foto/Divulgação
post
A onda de trocar rostos de pessoas em vídeos não é nova. Mas, em dezembro de 2017, um usuário do Reddit, chamado deepfakes, deu um passo

11 setembro, 2019

p/

Mundo - Uma ferramenta de edição de vídeos criada por um usuário do Reddit tem sido uma tremenda fonte de dores de cabeça para celebridades, pessoas públicas e companhias de entretenimento. O Deep Fake usa Inteligência Artificial para trocar o rosto de pessoas em vídeos, com direito a sincronização de movimentos labiais, expressões e tudo o mais, em alguns casos com resultados impressionantes e bem convincentes.

No entanto, ninguém está a salvo de ter seu rosto incluído em um vídeo editado.

O que é Deep Fake?

A onda de trocar rostos de pessoas em vídeos não é nova. Mas, em dezembro de 2017, um usuário do Reddit, chamado deepfakes, deu um passo além. Com ferramentas de Inteligência Artificial e Aprendizado de Máquina de código aberto, como Keras e TensorFlow (este último, do Google), ele criou um algoritmo para treinar uma Rede Neural a mapear o rosto de uma pessoa no corpo de outra, frame por frame. Ao invés de depender de edição manual como antigamente, o usuário, através da ferramenta (que recebeu o nome de Deep Fake), precisa apenas de uma fonte para reconhecer o modelo do rosto da “vítima”, mapear a estrutura da cabeça-destino e fazer a sobreposição. O software é capaz de ajustar a movimentação do vídeo original ao novo rosto e isso inclui expressões faciais e inclui os movimentos labiais. No início, o Deep Fake exigia conhecimentos avançados por parte do usuário, mas quando outros criaram apps capazes de automatizar todo o processo, a ferramenta foi massivamente usada para o mal: logo começaram a surgir dezenas de vídeos adultos editados com o software, “estrelados” por atrizes e artistas como Gal Gadot, Taylor Swift, Selena Gomez, Ariana Grande, Emma Watson, Maisie Williams, Scarlett Johansson, Daisy Ridley e etc. Nomes que, obviamente, não fazem filmes deste teor/gênero. Como a qualidade média dos vídeos não é muito alta, dadas as exigências de hardware (é preciso no mínimo uma GeForce GTX 1050 para resultados aceitáveis), tais criações chegam a ser bem convincentes a um desavisado, que pensará se tratar de um vídeo real, ainda que eles possuam uma falha: os protagonistas quase não piscam os olhos. A “brincadeira” do Deep Fake não se limitou a vídeos adultos, no entanto: há uma série de criações que colocam rostos de celebridades em filmes nos quais não estiveram presentes, como que o alvo é o ator Nicolas Cage. Entretanto, as possibilidades de uso do software são inúmeras e necessário dizer, nocivas. Até Mark Zuckerberg foi alvo de um vídeo falso em que dizia: “imagine isso por um segundo: um homem, com controle total de bilhões de dados roubados, todos os seus segredos, suas vidas, seu futuro. Eu devo tudo isso à Spectre. A Spectre me mostrou que quem controla os dados controla o futuro”. Spectre é o nome de um trabalho artístico que tenta chamar atenção para o risco de manipulação de pessoas por meio das redes sociais. Foram feitos deepfakes de políticos como Donald Trump, além de artistas como Morgan Freeman e Kim Kardashian.

Como o Deep Fake pode me afetar?

De várias formas. Ainda que o alvo principal da comunidade em torno da ferramenta sejam pessoas públicas, nada impede que alguém realmente mal intencionado pegue um vídeo de uma pessoa comum e o coloque em uma situação constrangedora. Não pense apenas em vídeos de porn revenge editados: é possível, por exemplo, forjar um momento de descontração entre amigos para criar um álibi, um depoimento para convencer outros de que você defende um determinado ponto de vista ou mesmo uma situação de crime, de modo a incriminá-lo. Tudo depende da criatividade do editor e de quantos vídeos seus existem, que estejam disponíveis facilmente na internet. O Deep Fake, inclusive, já foi utilizado na política: o partido belga Socialistische Partij, anders (Partido Socialista, mas diferente) criou um vídeo falso em que Donald Trump, presidente dos Estados Unidos, pede à população do país que votasse pela renúncia ao Acordo de Paris, um tratado que rege políticas climáticas. O partido defende a criação de mais legislações ambientais e o vídeo falso com Trump foi uma jogada de Psicologia Reversa: se ele é contra leis a favor da natureza, a maioria do público acabaria votando a favor apenas para contrariá-lo. Claro que vendo assim é fácil ver que se trata de uma edição, mas imagine o usuário em pé, dentro do metrô vendo esse tweet em um smartphone mais barato ou recebendo o vídeo pelo WhatsApp ou Telegram. Com partidos políticos propensos a apelar para o Deep Fake, de modo a prejudicar um desafeto, para gente maldosa utilizá-la contra cidadãos comuns é um pulo inevitável.

Como foi a reação contra o Deep Fake?

A internet e a indústria do entretenimento em geral declararam guerra contra a ferramenta, que vem sendo tratada como Pornografia de Vingança: sob esse ponto de vista, os usuários que criam os vídeos falsos e os que os compartilham estariam cometendo um crime, visto que o ato já é tratado como tal em muitos lugares, inclusive no Brasil. Não demorou muito e diversas plataformas, do Reddit (que atomizou a redditoria inteira) ao Twitter, passando por Discord, Gfycat, Pornhub e vários outros começaram a deletar vídeos e postagens relacionadas ao software, fossem os materiais de cunho adulto ou não. Além do ato de constrangimento, tais produções são protegidas por direitos autorais e uma das principais preocupações das plataformas é evitar processos. E eles não devem demorar a chegar: o Sindicato dos Atores de Hollywood afirma que irá defender os direitos de seus representados, inclusive legalmente contra o Deep Fake. Há, inclusive, movimentos para forçar os responsáveis pelos vídeos a responderem criminalmente, em casos de produções adultas ou que envolvam material adulto junto.

O que posso fazer para me proteger?

O mais sensato a fazer é evitar o compartilhamento de vídeos pessoais com gente que você não conhece ou não hospedá-los em redes sociais de forma pública para dificultar o trabalho do editor, em pegar seu rosto e colocá-lo em outro vídeo mais comprometedor.No geral, a sociedade ainda está se ajustando ao Deep Fake por se tratar de uma tecnologia nova e, se mal utilizada, extremamente prejudicial. É esperado que novos mecanismos jurídicos sejam aprovados de modo a combater a prática e proteger as pessoas. Portanto, caso você tenha sido vítima, colete todas as informações necessárias e procure um advogado ou a Defensoria Pública assim que possível.