Pular para o conteúdo
publicidade
Foto: Shutterstock
Edição 172

Sexo em tempos de inteligência artificial

O uso de IA em atividades pornográficas levanta questões morais complexas

Dagomir Marquezi
-

Três homens entram num banheiro público. Encontram uma faxineira muito jovem fazendo seu trabalho. Os três dominam sexualmente a garota, ali mesmo. São insaciáveis. E, o mais chocante, a menina gosta daquilo. E pede mais. Quando os rapazes finalmente se dão por satisfeitos, partem do banheiro sem dizer nada. E a jovem funcionária volta a limpar os mictórios.

Qualquer menina que fosse filmada fazendo esse tipo de sexo brutal e pervertido deveria estar protegida pela lei. Mas aquela faxineira de seios fartos não conta com nenhum amparo legal. Isso porque ela não existe. Assim como não existem os homens que entraram naquele banheiro.

Esse é um hentai, um vídeo pornô made in Japan – país onde a obsessão dos homens por meninas com uniforme de colegial é uma marca da cultura nacional. Por ser uma animação, nada daquilo aconteceu. Ninguém abusou, ninguém foi abusada. Uma personagem feita de pixels não vai procurar uma delegacia. Nenhuma ONG vai se preocupar com ela. 

Personagem de hentai | Foto: Reprodução/Pixiv

Essa japonesinha com seu balde e escova é apenas uma das centenas de mulheres e homens praticando sexo bizarro nos meandros da internet. Ninguém liga mais para isso. Mas um novo gênero de pornografia está dando o que falar. E o que pensar.

O jornal Washington Post publicou, na semana passada, uma matéria sobre o aumento do tráfego de imagens envolvendo sexo com crianças. Os fóruns de pedófilos da dark web revelam uma excitação maior que a normal com essas imagens. São fotos realistas criadas em sites de criação de arte por inteligência artificial, como o Dall-e e o Midjourney. Como no caso do hentai japonês, nenhuma criança foi abusada para que aquelas imagens se tornassem possíveis.

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças

A esta altura, é muito ingênuo imaginar que cenas repugnantes para a maioria de nós não sejam produzidas desde sempre e exibidas para quem se interesse por elas. Um programa como a Stable Diffusion, segundo o Washington Post, apenas acelerou o processo: “Aumentaram a velocidade e a escala com que os pedófilos podem criar novas imagens explícitas, porque as ferramentas exigem menos sofisticação técnica do que os métodos anteriores, como sobrepor rostos de crianças em corpos de adultos usando deepfakes, e podem gerar rapidamente muitas imagens de um único comando”.

Foto: Olivia Brown/Shutterstock
“Porcentagem muito, muito pequena”

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças. O executivo-chefe da Stability AI (que criou o programa Stable Diffusion, aparentemente usado na produção de algumas dessas imagens) garantiu que a empresa colabora com qualquer investigação legal, além de criar um filtro para imagens explícitas. Segundo a matéria do Washington Post, é relativamente fácil driblar esse filtro, mudando o código de programação.

O executivo declarou ao jornal: “Em última análise, é responsabilidade das pessoas saber se elas são éticas, morais e legais na forma como operam essa tecnologia. As coisas ruins que as pessoas criam (…) serão uma porcentagem muito, muito pequena do uso total”.

Parece uma declaração omissa, irresponsável e insensível. Mas o dirigente da Stability AI, em outras palavras, individualizou a responsabilidade por atos criminosos. Mal comparando, é a diferença entre os que defendem a ideia do chamado “racismo estrutural” e os que consideram que o preconceito é uma questão que deve ser tratada como um ato criminoso individual (ou grupal, mas não generalizado).

O amparo da lei

A questão é complexa até em termos legais nos Estados Unidos. Ainda segundo o Washington Post, “alguns analistas jurídicos argumentaram que o material cai numa zona legal cinzenta, porque imagens totalmente geradas por IA não retratam uma criança real sendo prejudicada”. Já existe uma lei (a nº 2.256) no código penal norte-americano que determina que “‘pornografia infantil’ significa qualquer representação visual, incluindo qualquer fotografia, filme, vídeo, imagem gerada por computador, feita ou produzida por meios eletrônicos, mecânicos ou outros, de conduta sexualmente explícita”.

Foto: Burdun Iliya/Shutterstock

No Brasil, o Estatuto da Criança e do Adolescente tipifica como crime “produzir, participar e agenciar a produção de pornografia infantil (art. 240); vender, expor à venda (art. 241), trocar, disponibilizar ou transmitir pornografia infantil, assim como assegurar os meios ou serviços para tanto (art. 241-A); adquirir, possuir ou armazenar, em qualquer meio, a pornografia infantil (art. 241-B); simular a participação de crianças e adolescentes em produções pornográficas, por meio de montagens (art. 241-C). Além disso, a atividade de aliciar crianças, pela internet ou qualquer outro meio, com o objetivo de praticar atos sexuais com elas, ou para fazê-las se exibirem de forma pornográfica, também é crime, com pena de reclusão de um a três anos, e multa”. Um projeto de lei de autoria do senador Flávio Bolsonaro (PL-RJ) está em tramitação visando endurecer essas penas.

O crime do deepfake

Outra atividade ligada à inteligência artificial que está provocando reações de revolta é o chamado deepfake. Consiste em encaixar o rosto de uma pessoa (quase sempre o de uma mulher) no corpo de uma atriz de filme pornô em plena ação. O programa encaixa o rosto de uma mulher qualquer no de outra que esteja praticando sexo explícito. O mesmo princípio técnico que fez a falecida Elis Regina “cantar” com sua filha Maria Rita num recente comercial de automóveis. 

YouTube video

A funcionária pública norte-americana Nina Jankowicz, que exercia um cargo numa das agências de segurança do governo Joe Biden, escreveu sobre esse drama para a revista The Atlantic. Ela ficou sabendo que seu rosto havia sido “encaixado” por alguém no corpo de uma estrela de filmes pornô. Sem conhecer o autor do vídeo, não havia muito o que fazer.

No seu artigo, Jankowicz foi honesta o suficiente para não cair no vitimismo político. Ela sabe que qualquer mulher famosa pode ser apanhada num deepfake. Cita filmes que usaram os rostos de Hillary Clinton e da ativista Greta Thunberg, além da cantora Taylor Swift e da atriz Emma Watson. Entre outras vítimas da falsificação estavam políticas do Partido Democrata (Kamala Harris e Nancy Pelosi) e do Partido Republicano (Nikki Haley e Elise Stefanik).

O resultado do deepfake geralmente é meio grosseiro. O tom da pele do corpo nem sempre é o mesmo do rosto, as expressões são forçadas e mudam repentinamente. De maneira geral, fica claro que aquilo é uma falsificação. Mas isso não diminui a violência moral e a covardia de quem o produz.

Exemplo de uso de deepfake em rosto humano | Foto: Shutterstock

Produzir ou ser apanhado com material sexualizando crianças é crime pesado. Idem a produção, o tráfico e a divulgação de vídeos deepfake. Mas quem acha que vai reprimir esse fluxo está dizendo que pode enxugar gelo com uma flanela.

Não existe maneira de eliminar essas atividades criminosas ligadas à inteligência artificial, provavelmente nem em países extremamente controlados, como a Coreia do Norte ou o Irã. Esse material nasce em computadores anônimos e encontra seus caminhos para chegar aos interessados. Faz parte do lado sombrio da natureza humana.

Freud e o pântano pornográfico

Os que acham que combatendo a inteligência artificial vão acabar com imagens de pedofilia ou deepfakes estão querendo desinventar o automóvel para evitar acidentes de trânsito. Voltar no tempo não tem lógica, não tem sentido, é um ato obscurantista e reacionário. 

Os mesmos programas que criam imagens de crianças sexualizadas produzem excelentes livros infantis, histórias e fantasias visuais cheias de imaginação, ainda que artificial. Esses aplicativos estão democratizando a capacidade de produzir cultura. Apenas uma pequena minoria chafurda nesse pântano pornográfico. Mas existem questões mais amplas e sutis para reflexão.

O jornalista Carl Öhman lembrou, na revista Wired, que o simples desejo sexual era considerado um pecado grave durante a Idade Média. Somente no século 17 o pensamento passou a ser uma questão privada, não passível de julgamento moral. Sigmund Freud abriu o caminho para que se tentasse descobrir e entender os desejos e comportamentos que se escondem em nosso subconsciente e, assim, curar a mente das pessoas. O que provocou ondas de choque pelo mundo há um século.

Sigmund Freud, neurologista austríaco conhecido como fundador da psicanálise | Foto: Max Halberstadt/Wikimedia Commons

A questão que se coloca, segundo o artigo da Wired, é o nível de controle que devemos ter sobre a mente dos outros. Alguns nascem com esse desejo de observar crianças em atividade sexual ou gostariam de ver a cara da Lady Gaga ou da Scarlett Johansson no corpo de uma atriz pornô. Esses pensamentos podem ser apagados? As pessoas que desejam essas coisas deveriam ser eliminadas da face da Terra? Como saber o que elas estão imaginando, se mantiverem esses segredos para si mesmas? Espalhar esse material é um crime. Mas e a imaginação, deve ser proibida?

O fato é que ninguém sabe exatamente o que se passa na cabeça de outra pessoa e o que ela deseja de verdade nos porões mais profundos de sua mente. Sabemos que quem forçar alguém — especialmente crianças — a satisfazer seus desejos deve ser preso, julgado e afastado do convívio social. 

Mas uma pessoa que usa um programa de computador para criar as imagens de suas fantasias, sejam elas quais forem, deve ser punida da mesma forma? Ou a satisfação solitária dessas fantasias individuais vai justamente evitar que esses pervertidos procurem vítimas reais? Aquela jovem faxineira num banheiro público do Japão teria incentivado homens a se tornarem predadores sexuais?

Quem achar que existem soluções simplistas para essas questões não está preparado para a época em que vivemos.

Foto: Shutterstock

Leia também “Redes de pedofilia assombram o Instagram”

2 comentários
  1. Giovani Santos Quintana
    Giovani Santos Quintana

    A discussão vai muito além de ser legal ou não…é uma atitude doentia e que deveria ser tratada clinicamente, psicologicamente e por que não juridicamente…

  2. Mauro C F Balbino
    Mauro C F Balbino

    Ensinando valores tradicionais invés de pronomes de gênero, celebrando a família no lugar de shows de dragqueens…

Anterior:
Imagem da Semana: o pátio da Volkswagen
Próximo:
‘O Brasil não pode desistir de lutar pelas liberdades de imprensa e de expressão’
Newsletter

Seja o primeiro a saber sobre notícias, acontecimentos e eventos semanais no seu e-mail.