“O pânico tomou conta de mim”, alega Kate Isaacs, uma britânica vítima de deepfake, ao ver seu rosto circulando em um suposto vídeo pornô pela internet. O deepfake consiste numa inteligência artificial para manipular digitalmente uma imagem, podendo distorcer corpos para incluir rostos ou atributos de outras pessoas. A britânica, que também é ativista contra pornografia não consensual, achou o vídeo ao passear tranquilamente pelo Twitter.
No passado, as celebridades eram os maiores alvos das deepfakes, sendo a maioria era para fins humorísticos, não necessariamente pornográficos. Atualmente, a situação mudou: a empresa de segurança eletrônica Deeptrace, aponta que 96% das deepfakes são pornográficas e não consensuais. Inclusive, era sobre tais práticas que Kate tanto lutava.
Em 2019, a ativista criou a campanha #NotYourPorn, que permitiu que todos os vídeos de contas não verificadas do PornHub fossem deletados, para preservar as vítimas de pornografia não consensual. Por isso, Kate acredita que a deepfake onde foi inserida ocorreu por vingança ao programa, pois, além do vídeo, diversas ameaças surgiram em suas redes sociais.
Hoje, os padrões de deepfakes variam bastante. Assim, é possível conseguir vídeos com o rosto de qualquer pessoa – até mesmo seus familiares. No passado, softwares de deepfakes eram difíceis de acessar, no entanto, eles são atualmente extremamente fáceis de achar em qualquer loja virtual de aplicativos. Kate afirma que isso é preocupante, e que as empresas responsáveis por tais softwares devem ser punidas para evitar essa situação com outras mulheres.