- Sarah McDermott e Jess Davies
- BBC News
Navegando pelo Twitter uma noite, Kate Isaacs, 30 anos, se deparou com um vídeo perturbador entre suas notificações.
“O pânico tomou conta de mim”, lembra Kate, falando pela primeira vez publicamente sobre o que aconteceu. “Alguém pegou meu rosto, colocou em um vídeo pornô e fez parecer que era eu.”
Kate tinha sido vítima do deepfake, quando alguém usa a inteligência artificial para manipular digitalmente uma imagem — no caso dela, seu rosto foi sobreposto à imagem de uma atriz pornô.
O vídeo de deepfake com o qual ela se deparou no Twitter — com Kate, que já fazia campanhas contra a pornografia não consensual — foi feito usando imagens de entrevistas na TV que ela deu como ativista.
“Fiquei arrasada. Eu não conseguia pensar com clareza”, diz ela. “Lembro de pensar que este vídeo seria visto em tudo que é lugar. Foi horrível.”
No passado, celebridades e políticos eram os alvos mais comuns de deepfakes — mas nem sempre pornográficos, alguns apenas para fins cômicos. Mas, ao longo dos anos, isso mudou: de acordo com a empresa de segurança cibernética Deeptrace, 96% de todos os deepfakes são de caráter pornográfico e não consensual.
Assim como a pornografia de vingança, a pornografia deepfake é uma forma de abuso sexual baseado em imagem, um termo abrangente que inclui a captura, criação e/ou compartilhamento de imagens íntimas sem consentimento.
Na Escócia, já é um delito compartilhar imagens de uma pessoa em situação íntima sem seu consentimento. Mas em outras partes do Reino Unido, isto é considerado um delito apenas se for provado que tais ações pretendiam causar sofrimento à vítima — uma brecha que resulta em frequente impunidade.
Mas no resto do Reino Unido, o aguardado Plano de Segurança Online, de alcance nacional, está passando por intermináveis revisões e arquivamentos.
Kate Isaacs fundou a campanha #NotYourPorn em 2019. Um ano depois, seu ativismo contribuiu para que o site de entretenimento adulto Pornhub derrubasse todos os vídeos em sua plataforma enviados por usuários não verificados — o que era a maioria.
Kate concluiu que foi vítima de deepfake por parte de alguém incomodado com seu ativismo.
Mas ela não tinha ideia de quem era essa pessoa, ou quem poderia ter visto o vídeo. Ela se preocupou também com o fato de que o vídeo era convincente o suficiente para que pessoas realmente achassem que era ela ali.
“Foi uma violação: minha identidade foi usada de uma forma que eu não consenti.”
Alguns usuários também começaram a deixar comentários abusivos, ameaçando-a de muitas coisas horríveis.
“Você começa a pensar em sua família”, diz ela, segurando as lágrimas. “Como eles (parentes) se sentiriam se vissem esse conteúdo?”
A ameaça se intensificou quando os endereços de casa e do trabalho de Kate foram publicados nos comentários, uma prática conhecida como doxing.
“Eu pensei: ‘Estou com problemas de verdade aqui, não são apenas algumas pessoas na internet falando…. Existe um perigo real.'”
A partir de sua experiência apoiando pessoas em situações semelhantes, Kate sabia exatamente o que fazer se alguém se tornasse vítima — mas naquele momento, ela congelou.
“Eu não segui nenhum dos meus próprios conselhos”, lembra. “Kate, a ativista, era muito forte e não mostrava nenhuma vulnerabilidade. E havia eu, Kate, que estava realmente com medo.”
Um colega denunciou ao Twitter o vídeo, os comentários cruéis e o doxing, e todos foram retirados da plataforma. Mas uma vez que qualquer deepfake tenha sido publicado e compartilhado online, é difícil removê-lo completamente de circulação.
“Eu só queria aquele vídeo fora da internet”, diz Kate, “mas não havia nada que eu pudesse fazer sobre isso.”
O que fazer se você foi ‘deepfaked’
- Colete evidências – Pode parecer contraintuitivo, já que você quer que tudo seja apagado, mas é importante baixar vídeos e capturar datas, nomes de usuários e URLs. Coloque-os em uma pasta segura e proteja-os com senha.
- Denuncie – Depois de coletar as evidências, denuncie o ocorrido nas plataformas onde o conteúdo foi compartilhado.
- Contate as autoridades – É importante acionar as autoridades — no Brasil, um começo importante é registrar uma ocorrência em delegacias da Polícia Civil, que em alguns locais tem delegacias especializadas no atendimento à mulher e em crimes cibernéticos — e compartilhar com elas as evidências que você guardou.
Fonte: #NotYourPorn
Há um mercado para deepfakes em fóruns online. As pessoas postam pedidos para que vídeos do tipo sejam feitos de suas esposas, vizinhos e colegas de trabalho, até mesmo suas mães, filhas e primas.
Os criadores de conteúdo respondem com instruções passo-a-passo: de qual tipo de imagem precisarão, conselhos sobre ângulos de filmagem e formas de pagamento.
Um criador deepfakes atuando no sudeste da Inglaterra, Gorkem, falou com a BBC anonimamente. Ele começou a criar deepfakes de celebridades para sua própria diversão. Para ele, essas imagens artificiais permitem que as pessoas “realizem suas fantasias de maneiras que realmente não eram possíveis antes”.
Depois, Gorkem passou a fazer deepfaking com mulheres pelas quais se sentia atraído, incluindo colegas de trabalho que ele mal conhecia.
“Uma era casada, a outra estava em um relacionamento”, diz ele. “Ir trabalhar no escritório depois de ter falsificado as imagens dessas mulheres foi estranho, mas eu me controlei. Eu consigo agir como se não houvesse nada de errado.”
Percebendo que poderia ganhar dinheiro com o que ele chama de hobby, Gorkem começou a receber encomendas de deepfakes personalizados. Imagens de mulheres em perfis nas redes sociais dão a ele bastante material para começar. Gorkem conta que, recentemente, fez um deepfake de uma mulher usando uma gravação de uma reunião online.
“Com uma boa quantidade de vídeo, (com a pessoa) olhando diretamente para a câmera, há um material bom. Então o algoritmo simplesmente trabalha a partir disso e faz a reconstrução do rosto no vídeo de destino.”
Ele reconhece que “algumas mulheres” são prejudicadas psicologicamente por serem vítimas de deepfakes, mas parece indiferente quanto ao impacto de tratá-las como um objeto.
“Eles podem simplesmente dizer: não sou eu, isso foi falsificado. Elas devem apenas reconhecer isso e continuar vivendo sua vida.”
“Do ponto de vista moral, acho que não há nada que me detenha”, continua. “Se eu vou ganhar dinheiro com uma encomenda, eu topo. Não esquento com isso.”
O padrão dos deepfakes pode variar muito e depende tanto da experiência da pessoa que fez o vídeo quanto da sofisticação da tecnologia usada.
Mas o homem por trás do maior site de pornografia deepfake admite que não é mais fácil saber se você está vendo imagens manipuladas ou não. Seu site atrai cerca de 13 milhões de visitantes por mês e hospeda cerca de 20 mil vídeos ao mesmo tempo. Ele mora nos Estados Unidos e raramente fala com a mídia, mas concordou em falar com a BBC anonimamente.
Deepfaking de mulheres “comuns” é um limite, diz ele, para quem hospedar vídeos pornográficos de celebridades, influenciadores de mídia social e políticos é justificável.
“Eles estão acostumados com a mídia negativa, seu conteúdo está disponível por aí. Eles são diferentes dos cidadãos normais”, argumenta.
“Do jeito que eu vejo, eles são capazes de lidar com isso de uma maneira diferente: eles podem simplesmente ignorar. Eu realmente não sinto que o consentimento seja necessário. É uma fantasia, não é real.”
Ele acha que está fazendo algo errado? Parte dele está “em negação sobre o impacto nas mulheres”, admite, acrescentando que sua esposa não sabe dessa sua atividade.
“Eu não contei para minha esposa. Tenho medo de como isso pode afetá-la.”
Até recentemente, os softwares de deepfaking não eram acessíveis e fáceis de serem usados por uma pessoa comum. Mas agora, qualquer pessoa com mais de 12 anos pode baixar legalmente dezenas de aplicativos e fazer deepfakes convincentes com apenas alguns cliques.
Para Kate isso é preocupante e “realmente assustador”.
“Não é a dark web, está nas lojas de aplicativos. Bem na nossa frente.”
Ela também teme que o esperado Plano de Segurança Online do Reino Unido não acompanhe a tecnologia a tempo. Três anos atrás, quando o projeto foi apresentado, a criação de deepfakes era vista como algo que exigia uma habilidade profissional — não bastava apenas baixar um aplicativo.
Para o criador de deepfakes Gorkem, criminalizar a atividade mudaria as coisas.
“Se eu pudesse ser rastreado online, pararia por aí e provavelmente encontraria outro hobby”, diz ele.
Ser alvo de deepfaking e doxing teve um impacto na saúde de Kate e em sua capacidade de confiar em outras pessoas. Ela acredita que aqueles por trás dos ataques não estavam apenas tentando intimidá-la e humilhá-la, mas também silenciá-la. Por um tempo, ela se afastou do seu ativismo, questionando se poderia continuar falando sobre misoginia.
Mas, agora, ela está ainda mais entusiasmada. Ela percebeu que se importava demais para abandonar sua luta.
“Eu não vou deixá-los ganhar.”
Kate afirma que os deepfakes podem ser usados para controlar as mulheres, e as empresas de tecnologia — incluindo aquelas que fazem aplicativos que permitem manipular imagens — devem ser incentivadas a impor restrições e punições.
“Qualquer aplicativo deve ser capaz de detectar conteúdo sexual.”
“Se as empresas não investirem dinheiro, recursos e tempo para garantir que seu aplicativo não seja usado para criar conteúdo de abuso sexual, elas estão sendo deliberadamente irresponsáveis. Elas são culpadas”.
*Nem Gorkem, nem o proprietário de um site de deepfakes entrevistado têm relação com o deepfaking de Kate Isaacs, até onde se sabe.
Você precisa fazer login para comentar.