Você viu?

Filmes pornô com celebridades? A maioria é fruto de inteligência artificial

Gal Gadot é apenas a mais recente vítima de pessoas que editam vídeos pornográficos substituindo a face dos atores pela de outras celebridades
Gal Gadot é apenas a mais recente vítima de pessoas que editam vídeos pornográficos substituindo a face dos atores pela de outras celebridades - Reprodução


  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

É bem provável que você já tenha visto links suspeitos ou gifs que mostram supostos vídeos pornográficos estrelados por famosos. O que ficou mais famoso recentemente envolve a atriz Gal Gadot (a estrela de "Mulher-Maravilha"), no qual ela pratica sexo incestuoso com um meio-irmão.

O vídeo em questão é falso --até aí, sem grandes surpresas. O que é, de certa forma, interessante (e também assustador) é a maneira como ele foi criado: usando um algoritmo de inteligência artificial.

A obra é criação de um usuário do fórum Reddit com apelido de "deepfakes". Ele usou como base ferramentas de código aberto voltadas para o aprendizado automático, como TensorFlow, criado pelo Google e gratuito para pesquisadores e estudantes. E "ensinou" à sua criação a trocar rostos em vídeos do tipo.

O material disponível para essas alterações é vasto: tanto do lado dos vídeos pornográficos quanto em relação a fotos e vídeos de celebridades fazendo as mais diversas expressões. O resultado não é capaz de enganar quem olhar com mais atenção, mas é o suficiente para espectadores mais empolgados --e menos atentos-- tomarem esses materiais como sendo reais.

E engana-se quem pensa que a tarefa exige um supercomputador: um PC equipado com uma placa de vídeo mediana poderia cumprir a tarefa de pesquisar imagens e trocar o rosto de alguém em um vídeo em algumas horas.

RISCO REAL

É claro que a criação de deepfakes abre um precedente bastante perigoso, que é a utilização de imagens de pessoas para implicá-las em atos ou situações nas quais elas não participaram efetivamente.

Ainda assim, em entrevista ao site "Motherboard", ele disse que só "encontrou uma forma inteligente de fazer troca de rosto", que "qualquer tecnologia pode ser usada para o mal" e que é possível evitar isso.

Em nenhum momento ele se manifesta sobre questões como consentimento de quem tem o rosto manipulado ou, ainda, sobre como isso pode criar problemas nas vidas de qualquer um. Afinal, estima-se, de acordo com dados do Google, que 24 bilhões de selfies foram carregadas no Google Photos entre 2015 e 2016 --sem contar as publicadas em outros lugares, como redes sociais, e também outros tipos de mídia, como vídeos.

O material para esse tipo de manipulação, portanto, é vasto. De acordo com o especialista em inteligência artificial e fundador da creative.ai, Alex Champandard --também em entrevista ao "Motherboard"--, esse tema merece um "sonoro e público debate".

"Todos precisam saber como é fácil manipular fotos e vídeos, ao ponto de que não saberemos distinguir o que é real ou não daqui a alguns meses. E hoje isso pode ser feito por apenas uma pessoa com computadores comuns".

Ainda segundo Champandard, a solução para evitar problemas seria pagar na mesma moeda e usar desenvolvimentos em inteligência artificiar para criar meios de detectar e diminuir a circulação desse tipo de material. Até que isso aconteça, porém, devemos encontrar cada vez mais conteúdo do tipo.

Final do conteúdo
  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Ver todos os comentários Comentar esta reportagem

Últimas Notícias