Tecnologia

Não termina com Taylor Swift: como se proteger contra deepfakes de IA e assédio sexual

Алекс Рейн 24 Февраля, 2026
247continiousmusic

Na semana passada, imagens falsas sexualmente explícitas de Taylor Swift supostamente feito usando inteligência artificial foram divulgadas nas redes sociais. Foi apenas o exemplo mais recente – e de maior visibilidade – dos perigos crescentes dos deepfakes e do assédio digital.

Swift não é a primeira mulher com quem isso acontece, nem será a última. É seguro dizer que quase todas as outras vítimas de um deepfake pornográfico têm menos recursos do que uma estrela pop bilionária com milhões de fãs ao redor do mundo que estão muito online e entendem disso. Mas o fato de que isso pode acontecer até mesmo para Taylor Swift trouxe atenção renovada para a questão e para um público mais amplo. Até deu início à legislação federal para combater o abuso, dizem os defensores.

Na terça-feira, os senadores dos EUA apresentaram o acordo bipartidário Lei de interrupção de imagens forjadas explícitas e edições não consensuais de 2024 (Lei DEFIANCE) para abordar e impedir a pornografia falsa e não consensual. O projeto de lei permitiria que as vítimas de «falsificação digital» — «criada através da utilização de software, aprendizagem automática, inteligência artificial ou qualquer outro meio gerado por computador ou tecnológico para parecerem falsamente autênticas» — processassem civilmente os perpetradores, dando-lhes a oportunidade de procurar justiça pela primeira vez.



As vítimas de pornografia deepfake não consensual não tiveram muito sucesso em processar pessoas que criam, distribuem ou solicitam pornografia deepfake, de acordo com Omny Miranda Martone, que trabalhou com legisladores no projeto como fundador e CEO do Associação de Prevenção da Violência Sexual (SVPA) . A tecnologia ainda é relativamente nova e, como acontece com outras questões sociais relacionadas à tecnologia, as leis precisam ser atualizadas. Enquanto isso, a tecnologia avançou para tornar ainda mais fácil para qualquer pessoa fazer deepfakes gerados por IA.

'A quantidade de violência sexual contra indivíduos comuns disparou.'

‘Até cerca de dois anos atrás. . . alguém precisava ter um computador de alta potência, precisava saber muito sobre tecnologia e ser capaz de trabalhar em um sistema confuso e, potencialmente, até mesmo construir o sistema sozinho. E precisavam de muitas fotos da vítima para que parecesse realista”, explica Martone. “Mas a tecnologia de IA avançou significativamente e está no ponto em que qualquer pessoa pode criar pornografia deepfake, não consensual e de aparência realmente realista, usando apenas uma ou duas fotos. Eles não precisam saber muito sobre tecnologia, eles podem simplesmente acessar um aplicativo ou site em seu telefone ou computador e fazer isso em questão de segundos.'

Isso é surpreendente hoje, visto que até 2017, um em cada oito usuários de redes sociais relataram ter sido alvos de pornografia não consensual e um em cada 20 adultos nas redes sociais foi o perpetrador, de acordo com o Iniciativa de Direitos Civis Cibernéticos .

Dados estes avanços tecnológicos – e o facto de “qualquer pessoa com acesso à Internet poder criá-la facilmente” – “a quantidade de violência sexual contra indivíduos comuns disparou”, diz Martone. As celebridades eram o alvo mais comum devido à disponibilidade de suas imagens. “Mas agora [os perpetradores] só precisam de algumas fotos que possam obter no LinkedIn de alguém, nas redes sociais ou no site da sua empresa”, explica Martone.

Isto é desproporcionalmente prejudicial para as mulheres, de acordo com Margaret Mitchell, ex-co-líder da equipe de Inteligência Artificial Ética do Google. 'É extremamente violador, tem um efeito psicológico extremamente traumático em você se você for vítima disso. Também é objetificador, por isso influencia outras pessoas a vê-lo através de lentes sexuais, em oposição a lentes profissionais. Então isso significa que pode afetar as oportunidades”, disse ela ao 247CM.

“As mulheres já lutam para serem vistas como líderes, para serem levadas a sério no local de trabalho. Quando este tipo de conteúdo está circulando, isso pode afetar a forma como as mulheres podem ser promovidas e ocupar mais posições de liderança”, continua Mitchell, que agora é cientista-chefe de ética na Hugging Face, uma plataforma aberta para construtores de IA. 'Isso se infiltra em tantas coisas de uma forma que às vezes pode ser muito difícil de rastrear, mas influencia fundamentalmente como você se vê, como você se sente em relação a si mesmo e como as outras pessoas o tratam.'

No caso de Swift, as imagens originaram-se de 4chan e um grupo no Telegram usado para distribuição de imagens abusivas de mulheres, relatou 404 Mídia . Designer, um gerador gratuito de IA da Microsoft, é frequentemente usado para produzir conteúdo não consensual, de acordo com o veículo. Em resposta ao relatório, a Microsoft fechou uma brecha que permitiu ao Designer fazer pornografia de celebridades gerada por IA.

Mas, enquanto isso, as imagens inundaram rapidamente o X, anteriormente conhecido como Twitter. Em um exemplo incomum de moderação de conteúdo na era Elon Musk, X instituiu um bloqueio temporário na busca por ‘Taylor Swift’, o que retardou a propagação, mas não foi capaz de remover todas as imagens, CBS News relatado . A resposta de X seguiu legiões de Swifties relatando as postagens e exigindo que o site as removesse. Isso também aconteceu depois que as postagens já estavam difundidas - uma delas já havia registrado 45 milhões de visualizações, 24 mil retuítes e centenas de milhares de curtidas e marcadores em 17 horas antes de a conta do usuário verificado ser suspensa, de acordo com A beira . Na segunda-feira, 29 de janeiro, o bloqueio havia expirado.

Embora a SVPA esteja trabalhando com o Congresso há algum tempo - Martone diz que eles enviaram uma carta aberta no ano passado instando-os a abordar o assunto - parece a Martone que 'eles não agiram até que as notícias de Taylor Swift se tornassem realmente grandes'.

'Mesmo que você sinta que ninguém se importa com suas imagens, a IA se importa.'

Ainda assim, a maioria das vítimas de pornografia não consensual não são de destaque. A maioria são mulheres e muitas possuem identidades marginalizadas, seja por raça, etnia e/ou orientação sexual. A SVPA, por exemplo, trabalhou com uma mulher que era estudante universitária e fazia academia quando foi agredida por um homem, que ela recusou. Algumas semanas depois, outro membro da academia puxou a mulher de lado para que ela soubesse que o homem que ela rejeitou havia feito pornografia falsa com ela - e estava mostrando a outros membros da academia e postando no Instagram, onde ela conseguiu retirá-la. Martone diz que recentemente eles fizeram pornografia deepfake com eles, devido ao seu trabalho sobre o assunto.

Sem legislação, é difícil recorrer a qualquer recurso. Como o conteúdo problemático é reconhecido como falso, não é considerado difamação, acrescenta Martone.

Em qualquer caso, como sociedade, todos devemos trabalhar para impedir a criação e partilha de conteúdos não consensuais, dizem os especialistas. A ideia de que o problema está aumentando e de que é impossível colocar o gênio de volta na garrafa não deveria fomentar uma sensação de inevitabilidade ou entorpecimento.

Para quem pensa que nunca se encontraria neste tipo de situação, Mitchell sublinha ainda que a tecnologia permitiu que se tornasse tão comum que qualquer pessoa poderia ser afetada.

Como explica Mitchell: “As pessoas devem estar cientes de que qualquer conteúdo que coloquem online pode ser potencialmente varrido por particulares ou por empresas, a fim de ser utilizado como parte da formação em IA. Portanto, pode não ser que alguma foto de família no Facebook seja algo que interesse ao público em geral. Mas essa não é a questão. A questão é: será que este conteúdo será captado por uma grande empresa tecnológica de uma forma que possa ajudar a promover a objetificação das mulheres?'

Em última análise, é a tecnologia que você precisa estar atento e cauteloso. “Mesmo que você sinta que ninguém se importa com suas imagens, a IA se importa”, diz Mitchell. 'Os sistemas de IA ainda podem varrê-los, ainda podem ser usados ​​para deturpar você e ainda podem ser usados ​​em qualquer tipo de situação de vingança, e qualquer tipo de situação em que você tenha alguém que será um ator malicioso como esse pode prejudicá-lo pessoalmente.'

Como prevenir e combater deepfakes não consensuais

    Eduque-se para poder entender o que está acontecendo. Saiba que compartilhar informações pessoais online é potencialmente compartilhar essas informações com o público. “É preciso que haja uma espécie de reimaginação ou re-compreensão do que é partilhar conteúdo online: quando é apropriado partilhar coisas e quando não é. É também sobre pais conversando com seus filhos sobre por que não é certo fazer pornografia falsa com seus colegas de classe”, diz Mitchell. Apoie o jornalismo. “É importante saber o papel que a imprensa desempenha, porque às vezes é o único contrapeso para comportamentos realmente problemáticos por parte das empresas ou para comportamentos problemáticos que as empresas estão a permitir”, explica Mitchell. «Porque quando há má imprensa que afecta as suas acções, isso afecta o que os accionistas pensam, isso afecta o que os capitalistas de risco pensam e quanto dinheiro podem obter. É assim que fazemos mudanças. Temos jornalistas escrevendo sobre isso. As empresas prestam atenção a isso – isso repercute em todo o mercado”. Seja um bom espectador digital. Se alguém faz ou compartilha pornografia não consensual com você – deepfake ou não – não olhe, não se envolva com ela, não compartilhe ou mesmo pesquise on-line, porque isso treinará os algoritmos para fornecer mais pornografia a mais pessoas, diz Martone. Faça um inventário digital de sua imagem e informações online. Certifique-se de ser proativo ao verificar os sites onde você publica imagens de seu rosto ou corpo. Use os recursos de segurança disponíveis em cada site ou aplicativo, incluindo tudo tão básico quanto garantir que apenas pessoas que você conhece possam ver suas fotos no Facebook. Se algo acontecer, diz Martone, informe os locais imediatamente. SVPA tem um guia para remover conteúdo que você não deseja dos sites, bem como um guia para prevenção da violência sexual digital para criadores de conteúdo, mas esses princípios podem ser usados ​​por qualquer pessoa. Você também pode achar útil revisar os extensos recursos contidos no site da Cyber ​​Civil Rights Initiative, incluindo seus Perguntas frequentes , Leis Estaduais , e resultados da pesquisa . Procure ferramentas e aplicativos que alterem ou protejam imagens. Ainda é uma área nova, mas os desenvolvedores estão trabalhando em tecnologia para proteger e ‘envenenar’ imagens postadas online, incluindo ferramentas como Beladona . Mitchell diz que à medida que a necessidade aumenta, mais e melhores ferramentas serão desenvolvidas para combater estes problemas.