Blog

O que é deepfake? Como ele impacta a segurança eletrônica?
Tecnologia

O que é deepfake? Como ele impacta a segurança eletrônica?

Quando você pensa em ameaças poderosas à segurança nacional ou até mesmo à sua propriedade, qual é a maior que vem à mente? Drones? Falhas nos controles de acesso? As duas opções são plausíveis, mas é importante conhecer outro tipo de risco, bem mais sutil.

É o caso do deepfake, uma tecnologia capaz de desestabilizar toda uma nação ou um acordo de paz em poucos segundos. Neste post, vamos nos aprofundar no conceito, explicando suas aplicações mais famosas e como ele se relaciona à segurança eletrônica comercial. Ficou curioso? Continue a leitura para saber tudo!

Afinal, o que é deepfake?

Você já deve ter ouvido falar dos fakes, certo? São perfis falsos utilizados em redes sociais, envolvendo pessoas famosas ou não. Muitas vezes, são usados para cometer fraudes e enganar pessoas, como ocorre em aplicativos de namoro e encontro. Se eles já parecem assustadores o suficiente, você ainda não viu nada.

O deepfake é uma tecnologia que emprega todo o poderio da inteligência virtual para a criação de vídeos falsos, mas realistas, de pessoas realizando coisas que elas nunca realmente fizeram. E ele não resume aos vídeos: é possível inventar um rosto do zero, combinando características faciais de pessoas diferentes.

Essa técnica possibilita a criação de montagens de vídeos que podem influenciar os rumos de um evento, por exemplo. Isso porque ela tem sido utilizada para adulterar até mesmo discursos de políticos famosos em todo o mundo, como Barack Obama, ex-presidente dos Estados Unidos.

Além dos vídeos pornográficos que inauguraram o termo, outros experimentos com inteligência artificial se tornaram bastante famosos. Um deles é o vídeo no qual Obama utiliza termos chulos contra o atual presidente dos Estados Unidos, Donald Trump.

Dessa forma, um vídeo fake bem desenvolvido é capaz de privilegiar um determinado candidato em uma disputa política. Isso se explica, também, pela facilidade de compartilhamento de vídeos que temos na atualidade, quando um mero usuário de WhatsApp pode repassar uma mensagem a centenas de pessoas.

Quando surgiu esta tecnologia?

O termo apareceu pela primeira vez em dezembro de 2017, quando um usuário do website Reddit, que conta com fóruns de discussão dos mais diversos assuntos, começou a postar alguns vídeos de sexo envolvendo mulheres famosas — todos fakes, é claro.

Inclusive, “deepfake” era o próprio apelido utilizado pelo usuário responsável pela disseminação desse conteúdo. Ele utilizou softwares que operavam uma tecnologia conhecida como deep learning — uma das principais ramificações da chamada inteligência artificial — e do machine learning.

Os vídeos mais famosos reproduziam atrizes renomadas, como Gal Gadot (a Mulher-Maravilha atual) e Emma Watson (a Hermione, da saga Harry Potter). A expressão deepfake logo passou a ser utilizada para indicar todos os vídeos similares surgidos posteriormente, sempre editados com machine learning e outras aplicações de inteligência artificial.

O mais curioso é que efeitos especiais destinados a modificar rostos e cenários não são nada incomuns, já que o próprio cinema hollywoodiano já vem fazendo isso há décadas. O que diferencia o deepfake dessas técnicas é a facilidade com que ele pode ser criado.

Isso porque ninguém precisa ter um estúdio plenamente equipado para criar seus deepfakes. Uma pessoa com conhecimento intermediário em ciência da computação, deep learning e algoritmos pode começar a montar o seu próprio acervo de imagens e criar um vídeo falso convincente. Não à toa, logo após o usuário do Reddit ter espalhado esse conteúdo, muitos outros passaram a inundar a rede.

Como os deepfakes são criados?

Para desenvolver um exemplar, são utilizados alguns softwares baseados em bibliotecas de código aberto e acessíveis para aplicações de aprendizado de máquina (machine learning). O usuário não precisa nem mesmo pagar pelos programas, já que ele tem acesso a soluções de uso gratuito.

Segundo uma entrevista concedida ao site Motherboard, o membro do Reddit que iniciou tudo admitiu utilizar a biblioteca de código aberto conhecida como TensorFlow e o Keros, uma aplicação de deep learning.

A partir daí, é possível acessar milhares de fotos e vídeos de pessoas, famosas ou não, automaticamente analisadas e processadas por redes neurais. É importante notar que tudo isso tem a ver com o próprio conceito de aprendizado de máquina, tão debatido hoje: é como se o computador aprendesse as características de um rosto.

Assim, ele tende a assimilar as maneiras de um rosto se mover e como ele reage a diferentes efeitos no ambiente, como a incidência de luz e sombras. Esse “aprendizado” é realizado com a face do vídeo original e transposta para um novo rosto, logo após o sistema encontrar um ponto comum entre as duas pessoas retratadas no vídeo.

Desse modo, o procedimento envolve um truque bastante engenhoso: o software recebe a imagem da pessoa X (o novo rosto, por exemplo) e a processa como se ela fosse um indivíduo totalmente diferente. As duas imagens são, por fim, “fundidas”. Um dos vídeos mais emblemáticos do deepfake é o exemplo de que falamos, do ex-presidente Barack Obama.

A principal característica de tudo o que envolve o “universo deepfake” é a fluidez nas tecnologias. Isso porque o próprio fenômeno tem a ver com tecnologias com funções já estabelecidas no mercado. Assim, empresas gigantescas, como a Adobe (criadora de ferramentas como Photoshop e do Acrobat Reader), consegue criar falas com a voz de uma determinada pessoa por meio de amostras reais.

Do mesmo modo, já existem experimentos que apostam na reencenação facial, com a reprodução de falas de um indivíduo no rosto de outro, apostando na sincronização labial. Assim, podemos dizer que o deepfake é turbinado por tecnologias e inovações conduzidas pela indústria tradicional. Por vezes, ele se configura, portanto, como um dano colateral indesejável da transformação digital.

Como reconhecer um deepfake?

Como a tendência é de que os deepfakes estejam cada vez mais presentes na vida das pessoas, é uma ótima ideia aprender a identificar cada um deles. Com isso, é possível prestar atenção a alguns detalhes específicos para se proteger contra fraudes.

Assim, caso você desconfie de que tenha recebido um vídeo falso, preste atenção nos movimentos da boca do personagem. Seus lábios se movem de acordo com o que é dito, sem muito desacordo entre a imagem e o áudio? Além disso, é preciso ficar atento ao próprio timbre da voz, checando se a entonação e o som soam naturais — principalmente no caso de uma pessoa que você já conheça.

Depois, observe os olhos. Isso porque muitos fakes costumam nem piscar ou reproduzir uma imitação natural, então é importante reparar nesse detalhe. Verifique a movimentação do tronco como um todo, notando se a pessoa naquela imagem se move de maneira natural ou se os seus trejeitos são robóticos.

As recriações por meio da tecnologia dos deepfakes têm que lidar com a dificuldade em encaixar todas as partes da face e do resto do corpo em um conjunto coerente. Além disso, alguns movimentos costumam ser duplicados, dando a sensação de precariedade do próprio vídeo.

Se a pessoa retratada for alguém que você não conhece bem o bastante, procure outros clipes e vídeos — enviados pelo WhatsApp, por exemplo. É bem mais fácil comparar as imagens suspeitas com aquelas que ofereçam veracidade.

Quais são os riscos desta tecnologia?

De modo geral, os vídeos não são um primor de técnica. Contudo, com o compartilhamento maciço de vídeos por celular e o próprio fenômeno das fake news, a tendência é de que os deepfakes ainda consigam enganar muitas pessoas.

Isso é especialmente perigoso quando as imagens não representam apenas uma forma de humor, mas ataques mal-intencionados de hackers. Um dos riscos é óbvio: a manipulação de imagens e das vozes de líderes globais — não somente os políticos, mas também pessoas de amplo renome e cujas declarações podem influenciar um mercado inteiro, por exemplo.

Com ferramentas cada vez mais acessíveis para a criação de deepfakes, torna-se mais fácil espalhar informações e declarações próprias, de acordo com o interesse dos divulgadores. Além disso, no caso dos vídeos pornográficos fictícios, temos problemas éticos e legais.

Tratam-se de imagens com teor individual, mas ainda devastador para a honra das pessoas envolvidas. A legislação sobre o tema ainda está em um estágio bastante elementar, até pela natureza do processo. Isso porque as imagens, apesar de disseminarem calúnias, não são reais. Do mesmo modo, elas podem se passar por verdadeiras e ferir o consentimento do indivíduo retratado.

Assim, não há uma resposta fácil quando falamos de um consenso para a punição aos responsáveis pela criação e propagação das imagens. Com a popularização do termo, ele também começa a se tornar banalizado. As pessoas começam a utilizar a nomenclatura “deepfake” para se referir a muitas coisas, o que favorece a manipulação por parte de indivíduos mal-intencionados.

É o que acontece com o termo “fake news” hoje. Inicialmente utilizado para mencionar a proliferação de notícias fictícias, o termo passou a ser utilizado pelas pessoas como uma forma de deslegitimar as acusações contra si. No caso dos deepfakes, um criador de vídeos desse tipo pode se aproveitar para lançar dúvidas sobre evidências verdadeiras.

Como ela afeta a segurança eletrônica?

A propagação de deepfakes é um desafio imenso para os profissionais de segurança eletrônica, assim como também representa uma ameaça à segurança da informação em diversos contextos. Para dar uma ideia mais fundamentada do poderio dessa solução digital, podemos exemplificar com uma grande player do mercado.

Quando você pensa em uma empresa gigante, qual é a primeira que vem à mente? Independentemente da resposta exata, é bem possível que a Apple seja uma das citadas.

Pois até mesmo a empresa do genial Steve Jobs foi driblada pelos deepfakes. Em 2017, quando a Apple apresentou o smartphone iPhone X com o Face ID, a empresa enfatizou que o sistema de reconhecimento era praticamente intransponível.

Contudo, alguns chineses demonstraram que era possível desbloquear o recurso. Eles utilizaram um modelo 3D hiper-realista para burlar o sistema da Apple. Assim, eles exploraram outra falha além daquela já admitida pela empresa: gêmeos idênticos poderiam enganar o reconhecimento facial.

Se até a solução de reconhecimento facial foi afetada pela engenhosidade técnica, a segurança eletrônica como um todo também deve ser reforçada para lidar com esse tipo de ameaça e evitar ciberataques com base na ação de deepfakes.

Os especialistas preveem que essa tecnologia pode ser usada para causar confusão e propagar desinformação, especialmente no contexto da política global, e pode se tornar extremamente difícil de detectar.

Em uma postagem no blog pessoal da empresa norte-americana de pesquisa Forrester, o analista principal da organização, Jeff Pollard, escreveu que os custos relacionados aos danos causados pelo deepfake serão de mais de 250 milhões de dólares em 2020.

Os relatórios da mídia especializada em segurança eletrônica sugerem que algumas empresas já estão sendo enganadas em direcionar grandes quantias de dinheiro aos golpistas. Segundo Pollard, muitas pessoas mal-intencionadas estão ganhando muito dinheiro com as fraudes aplicadas, e a tendência é de que a inteligência artificial evolua para gerar ameaças ainda mais perigosas.

Assim, segundo o analista, os gestores de grandes empresas já devem se preocupar com a possibilidade de mais ataques por deepfakes, uma vez que os custos com áudio e vídeo adulterados serão ainda menores.

Além de Pollard, a empresa de segurança cibernética Forcepoint prevê que os cibercriminosos poderiam usar a tecnologia deepfake para criar fotos e vídeos comprometedores de indivíduos e ameaçar liberá-los se suas exigências de resgate não forem atendidas.

No contexto empresarial, os deepfakes também serão usados ​​para gerar metas de alto nível nas organizações e enganar os funcionários, transferindo fundos para contas fraudulentas, segundo Alvin Rodrigues, analista da Forcepoint.

Além disso, há o óbvio problema político: podemos esperar que os deepfakes sejam alavancados como uma ferramenta para desacreditar candidatos eleitorais e transmitir notícias imprecisas ou inteiramente falsas aos eleitores, por meio de mídias sociais.

Como se proteger das deepfakes?

A verdade é que tem se tornado difícil distinguir entre fotos e vídeos de deepfakes e pessoas reais. O próprio Barack Obama acabou admitindo que vivemos em uma era perigosa, na qual temos que ser bastante cuidadosos com o que vemos e interagimos na internet.

Cientistas da prestigiada Universidade de Munique, na Alemanha, desenvolveram uma arma que promete coibir a ação dos deepfakes. O mais interessante é que eles utilizaram a mesma matéria-prima que gerou essa técnica: a inteligência artificial.

Assim, eles criaram outro programa baseado em IA, chamado XceptionNet. Ele foi alimentado com mil deepfakes e aprendeu a reconhecer detalhes minúsculos, invisíveis a olho nu, que conseguem diferenciar um rosto real de uma simulação digital. Sua taxa de sucesso variou entre 84% e 96% dos casos.

Com isso, a tendência é de que mais pessoas comecem a dedicar pesquisas ao assunto e a resistência a eles se torne mais forte. Do mesmo modo, caso você receba um vídeo que pareça ser um golpe destinado a atingir as empresas em grande escala, uma dica é divulgar e popularizar essas imagens.

Embora possa parecer contraditório a princípio, o envio do vídeo a diversos parceiros de negócio é uma maneira de desmentir possíveis fraudes. Isso porque essas imagens podem representar a fala de um determinado CEO, por exemplo, divulgando uma informação que impacte o mercado.

Dessa forma, ao popularizar o vídeo, a tendência é de que as informações incorretas sejam desmentidas facilmente. Caso essa mesma imagem seja individualizada (isto é, diga respeito somente ao seu negócio e a um parceiro direto), o ideal é marcar um encontro com a pessoa retratada ali e confirmar as informações.

Se puder marcar um encontro ao vivo, melhor ainda. Essa preferência se explica pelo fato de que o deepfake já chegou aos áudios. Assim, até mesmo as vozes podem ser adulteradas pelos criminosos, mesmo que essa prática ainda não seja tão comum quanto a adulteração de vídeos.

De qualquer modo, é bom desconfiar de mensagens que ofereçam condições irreais. Além disso, tome cuidado com vozes “robóticas” demais, que pareçam programadas e enunciadas de forma mecânica. Quanto maior for o volume de negócios conduzido pelo seu empreendimento, mais precavido você deverá ser com esse tipo de contato.

O deepfake tem sido utilizado, majoritariamente, na adulteração de vídeos e imagens de pessoas famosas, mas é preciso estar atento, uma vez que a tecnologia sempre evolui e essa prática pode acabar sendo usada para burlar sistemas de segurança.

Usuários de sistemas de segurança que contam com reconhecimento facial e análise inteligente podem se proteger com a utilização de mais de uma forma de identificação, por exemplo. É possível combinar um sistema de vídeo porteiro com câmeras IP: dessa forma, o criminoso não conseguirá burlar os dois sistemas.

É preciso um cuidado especial com os projetos de portaria remota, nos quais a identificação das pessoas que querem entrar no ambiente não exige a presença de um porteiro dentro da propriedade, com a função de liberar a entrada aos visitantes. Todo o paradigma estabelecido pelo deepfake mudará a forma com que os sistemas autônomos de segurança são desenhados.

Isso é especialmente importante, também, em sistemas de segurança patrimonial e condominial, nos quais utilizar apenas uma tecnologia não é o recomendado para garantir a proteção de todos os que vivem e transitam nos espaços onde esses tipos de segurança são realizados.

É uma boa ideia conversar com profissionais de segurança experientes e combinar soluções digitais mais robustas a um projeto bem definido. Dessa forma, você obtém o melhor de dois mundos: conhecimento em equipamentos modernos, tecnologia avançada (como a cloud computing) e projetos definidos de acordo com as características da sua propriedade.

Existe um uso benéfico do deepfake?

Por mais assustador que um mundo repleto de deepfakes possa parecer com o que abordamos até agora, nem tudo é pessimismo. Isso porque existem exemplos de uso dos algoritmos de machine learning e inteligência artificial em aplicações benéficas, em larga escala — algo que também beneficia o universo da segurança eletrônica.

Afinal, o princípio dessa tecnologia está no reconhecimento e na reconstrução facial, o que já sinaliza um enorme potencial para as pesquisas e soluções digitais desenvolvidas nesse sentido. Podemos citar os animojis da Apple e os AR emojis da Samsung, que mapeiam o rosto de uma pessoa e conseguem reproduzir, em tempo real, as suas expressões em bonecos virtuais.

Isso leva ao enriquecimento do cinema e da indústria audiovisual como um todo, por exemplo. Tratam-se de métodos mais fáceis para executar efeitos especiais com rostos, o que viabiliza o trabalho de produtores de conteúdo e cineastas independentes, que tem baixos orçamentos.

E essa aplicação não se resume ao cinema ou às séries: será mais simples para pequenas e médias empresas realizar animações e vídeos promocionais com custo reduzido. Como as tecnologias se popularizam de forma rápida, o acesso também se torna mais democrático.

Além disso, uma entrevista do site Mashable com o diretor da empresa MultiComp Lab trouxe outra possibilidade significativa. De acordo com o pesquisador consultado, os softwares podem até mesmo ser utilizados no fornecimento de terapia por videoconferência.

Assim, indivíduos que sofram com problemas psicológicos e se sentem desconfortáveis ao mostrar o rosto poderão se consultar por esse método. Por fim, a tecnologia também poderá ser útil na realização de entrevistas de emprego sem que algum tipo de viés relacionado à raça ou ao gênero seja levado em conta.

Como pudemos ver no artigo, o deepfake é uma tecnologia poderosa. Embora tenha surgido em um contexto antiético, com divulgação de filmes pornográficos com imagens adulteradas, é possível que ele ainda seja utilizado para reforçar a transformação digital pela qual passam as pessoas e empresas. Todos esses fatores impactam diretamente a eficiência de um sistema de segurança, por exemplo.

O deepfake ainda está em seus estágios iniciais: do mesmo modo que a tecnologia é promissora, é preciso tomar cuidado com a evolução das possibilidades. A tendência é de que mais vídeos sejam adulterados e possam comprometer até mesmo os serviços de segurança eletrônica. Para os profissionais da área, é fundamental continuar estudando para se atualizar contra essa ameaça.

E aí, gostou do artigo e quer ler mais conteúdos como este? Então, assine a nossa newsletter para continuar recebendo as nossas atualizações em primeira mão!

Related posts

Deixe uma resposta

Required fields are marked *