Pular para o conteúdo
publicidade
Imagens criadas pelo Gemini, inteligência artificial do Google criticada por ser incapaz de retratar personagens relevantes como homens brancos | Foto: Reprodução/EndWokeness
Edição 209

É proibido ser branco

O chatbot de inteligência artificial do Google simplesmente apagou pessoas brancas da história humana

Liz Wolfe
-

Talvez os Founding Fathers, os “Pais Fundadores” da América, na verdade fossem negros. Em janeiro, o Gemini, o gerador de imagens alimentado por inteligência artificial do Google, foi devidamente criticado por ser incapaz de retratar eventos históricos e hipotéticos sem forçar os personagens relevantes a serem não brancos.

“O chatbot de IA do Google simplesmente apagou pessoas brancas da história humana”, escreveu Mike Solana no Pirate Wires.

Não é exagero. Veja:

Os “Pais Fundadores” da América, os vikings e o papa, de acordo com a IA do Google

Basicamente, os chatbots foram treinados com vastas quantidades de texto. Os usuários fazem prompts, ou solicitações, por meio de consultas, para que sejam fornecidas imagens e respostas o mais próximo possível do que um humano (superinteligente) daria. E, pelo jeito, os engenheiros do Gemini em algum lugar do Google queriam fornecer um mecanismo de segurança contra um possível enviesamento em favor de brancos e homens que existiria nos materiais nos quais o bot foi treinado. E, ao que tudo indica, o tornaram… ultra woke, a ponto de cometer imprecisões extremas e hilárias para corrigir esses vieses.

Na narrativa do Gemini, o papa é negro, os antigos romanos são negros, os “Pais Fundadores” da América eram pelo menos em parte negros, e assim por diante. Se você pedir para o Gemini gerar a imagem de um cientista branco, sem chance. Cientista negro? Claro. Um cientista hispânico? Aqui está: um botânico sentado em um campo de flores! No mundo do Gemini, alemães e australianos são muito provavelmente negros ou asiáticos.

O viés também se manifesta de outras maneiras. Se você quiser que o chatbot gere uma imagem dos “males do comunismo”, como alguns tentaram, ele dá um aviso de enviesamento: “Representar uma ideologia complexa como o comunismo apenas por seu ‘mal’ cria um risco de viés e simplificação excessiva”.

Mas tudo isso parece ser um recurso, não um bug. “Estamos cientes de que o Gemini está apresentando imprecisões na geração de algumas representações históricas e estamos trabalhando para corrigir isso imediatamente”, escreveu Jack Krawczyk, chefe de produto do Gemini, no X. “Projetamos nossos recursos de geração de imagem para refletir nossa base de usuários global, e levamos a representação e o enviesamento a sério.” Ele tentou argumentar que não há nada de errado com os resultados do Gemini.

“As imagens ridículas geradas pelo Gemini não são uma anomalia”, escreveu Paul Graham, do blog Y Combinator. “Elas são um autorretrato da cultura corporativa burocrática do Google.” De fato, em tweets que foram posteriormente deletados, Krawczyk parece ser um grande defensor das causas progressistas do momento.

“A censura draconiana e o enviesamento deliberado que se vê em muitos sistemas de IA comerciais são apenas o começo”, escreveu o investidor de capital de risco Marc Andreessen. “A coisa vai ficar muito, muito mais intensa daqui para a frente.” (Vale destacar que nenhum desses luminares da tecnologia prevê um apocalipse da IA.)

O Gemini não é o único que demonstra seu viés politicamente correto de maneira cômica. A famosa apresentadora de podcast e jogadora de pôquer Liv Boeree apontou os problemas que o ChatGPT, da OpenAI, tem nesse aspecto. Maxim Lott, produtor executivo de John Stossel, criou um programa para rastrear o enviesamento político em modelos de IA e descobriu não só que “o Gemini tem se tornado mais de esquerda ao longo do tempo”, mas também que é “uma das inteligências artificiais mais propensas a se recusarem a responder perguntas”. E “as IA menos tendenciosas são o Claude, da Anthropic, e o Llama, da Meta”, de acordo com Lott, que detalha a bateria de perguntas feitas ao Gemini para determinar a extensão de seu viés político.

Enquanto isso, a imprensa de tecnologia encontrou uma maneira criativa de cobrir o escândalo:

Da equipe que trouxe para você “bombardear [os veículos da] Waymos é uma tradição da experiência humana” vem o novo sucesso “apagar literalmente pessoas brancas da história da humanidade é racismo contra pessoas não brancas”

Alguém deveria ter avisado que o Google era uma câmara ecoideológica!


Liz Wolfe é editora associada da Reason.

Leia também “J. K. Rowling e a tirania dos pronomes”

1 comentário
  1. Marcelo Martins
    Marcelo Martins

    Se a “Inteligência” artificial foi alimentada por informações fornecidas por pessoas digamos, não inteligentes, o que poderíamos esperar?

Anterior:
O caráter do pecuarista
Próximo:
Imagem da Semana: teste de força norte-coreano
Newsletter

Seja o primeiro a saber sobre notícias, acontecimentos e eventos semanais no seu e-mail.