top of page
Buscar

O que a IA generativa já decidiu sobre gênero — e por que isso não é (apenas) um problema técnico

  • Foto do escritor: João Vitor Rodrigues
    João Vitor Rodrigues
  • há 3 horas
  • 8 min de leitura

Quando o tema é gênero e inteligência artificial, uma pergunta frequente costuma ser colocada — como corrigir os vieses que reproduzem discriminações, opressões e violência? As respostas mais comuns incluem mais dados, categorias mais representativas, auditorias periódicas e governança responsável. São ações legítimas e com utilidade e aplicabilidade, porém, partem de uma premissa que merece ser questionada. A premissa de que estamos diante de um problema técnico, localizável e, portanto, corrigível.


Penso que a pergunta mais produtiva é outra. Não se esses sistemas produzem discriminação, mas o que eles já decidiram sobre gênero antes mesmo de processar qualquer dado. Esse deslocamento muda bastante o que se pode ver — e o que se pode exigir.


A palavra "viés" carrega consigo a ideia de desvio em relação a um parâmetro correto. Mas e se o problema não for o desvio, e sim o parâmetro? Os sistemas de IA generativa não operam a partir de uma posição neutra que foi contaminada por preconceitos externos. Esses sistemas foram construídos sobre concepções de gênero que não foram postas em questão.


O que os dados mostram

Há um conjunto expressivo de pesquisas documentando¹ como sistemas de IA generativa tratam o gênero de forma discriminatória, fazendo emergir uma lógica consistente.


Uma investigação de Keyes (2018) sobre literatura científica dedicada a sistemas de reconhecimento automático de gênero revelou algo significativo. A esmagadora maioria desses sistemas parte do princípio de que gênero é uma propriedade biológica, atribuível por terceiros a um corpo e estável ao longo do tempo. Não é difícil perceber por que isso é problemático para pessoas transgêneras. O problema não está em como o sistema opera, está no que ele pressupõe antes de operar.


Entre os modelos de linguagem, Gross (2023) testou o ChatGPT e encontrou padrões recorrentes. Perguntas sobre carreiras e trajetórias de vida produziam associações entre feminilidade e dimensões emocionais ou artísticas, e entre masculinidade e autoridade e ciência. Cartas de recomendação geradas pelo sistema usavam linguagem de competência e liderança para perfis classificados como masculinos quase sem exceção.


Na geração de imagens, Ghosh e Caliskan (2023) pediram ao Stable Diffusion que representasse apenas "uma pessoa". O resultado foi em grande medida homens brancos de aparência ocidental, com pouquíssima correspondência a pessoas de gênero não-binário ou a populações de outras regiões do mundo.


O que conecta esses casos não é descuido. É uma concepção de gênero inscrita nas fundações dos sistemas — binária, biologicamente determinada e imutável. Uma concepção que não chegou como erro. Chegou como pressuposto.


A normatividade que a máquina aprende

Para entender como isso acontece tecnicamente, vale pensar em como esses sistemas são construídos.


Tudo começa com dados. Os dados definem o que existe para o sistema, o que é representável, o que pode ser reconhecido. Estruturas de dados transformam essa representação em algo computável. Algoritmos de aprendizado extraem padrões. E os grandes modelos de linguagem generalizam esses padrões para produzir respostas. Em cada camada desse processo, o que se amplifica não é só o conteúdo, mas a lógica que organiza esse conteúdo.


Isso antecede o aprendizado de máquina. Sistemas determinísticos mais antigos já operavam sobre lógica binária — verdadeiro ou falso, 1 ou 0. Um formulário que oferece apenas "masculino" ou "feminino" como opções não está fazendo uma escolha neutra de interface. Está decidindo, na arquitetura do sistema, quem será reconhecido como existente.


O aprendizado de máquina não resolve esse problema — em alguns sentidos, o intensifica. O modelo aprende inferindo padrões a partir dos dados, não a partir de regras escritas por humanos. Mas os dados são registros do mundo social, e o mundo social tem normas que não se restringem ao binarismo técnico. Se pessoas transgêneras aparecem pouco nos dados, ou aparecem mal nomeadas, ou são classificadas segundo categorias que contradizem sua experiência, o modelo não corrige isso. Ele aprende exatamente isso.


Wolfram (2023) descreve o funcionamento de um modelo de linguagem como a capacidade de produzir, a cada resposta, a continuação mais provável dado o que está no corpus de treinamento. O sistema aprende o que é esperado e reproduz o que é esperado. Quando se lê essa perspectiva à luz da teoria de Judith Butler sobre performatividade, a conexão se torna evidente — mas é preciso dar um passo a mais.


Por que corrigir os dados não é suficiente

Nicole Gross (2023) propõe, diante dos resultados que ela mesma documenta, que a IA generativa pode se comprometer com o que Butler (2004) chamou de "desfazer o gênero" — desconstruir normas em vez de reforçá-las. A proposta envolve curadoria de dados, auditorias, regulação e governança responsável. São medidas que fazem sentido dentro de uma certa lógica.


O problema está em uma tensão que a própria autora identifica, mas não desenvolve. Ela reconhece que os modelos refletem os valores e estruturas de poder do mundo que os produziu. Se isso é verdade, a curadoria dos dados não altera a matriz. A normatividade não está em alguns exemplos ruins que podem ser removidos — está na estrutura que organiza o que conta como dado válido, como categoria legítima, como padrão bem-sucedido.


Keyes (2018) dá continuidade ao argumento com pouco mais de precisão. Não importa quantas pessoas trans sejam incluídas nos dados de treinamento de um sistema de reconhecimento automático de gênero, se o sistema parte do princípio de que gênero é atribuível por terceiros a um corpo. A inclusão de mais exemplos não questiona a premissa — e é a premissa o problema.


Ciston (2019) propõe uma distinção útil. Há duas maneiras de usar a interseccionalidade na crítica de sistemas de IA. A primeira — mais comum — entende interseccionalidade como inclusão, mais identidades e mais categorias representadas nos dados. A segunda entende interseccionalidade como crítica das estruturas de poder que produziram esses dados e que determinam o que pode existir dentro deles. A diferença não é pequena. A primeira abordagem reformula os dados; a segunda questiona o que os dados podem conter.


O que os estudos queer e a perspectiva interseccional trazem

Os estudos queer partem de uma pergunta que as abordagens técnicas não fazem. Como as categorias de gênero foram produzidas, para que servem e a quem beneficiam? Não é uma questão sobre dados insuficientes; é uma questão sobre a lógica que define o que pode entrar nos dados.


Colling (2018) sintetiza algumas das orientações centrais do campo. A crítica às normas de gênero como construções históricas apresentadas como naturais; o interesse pelas identidades que escapam ou perturbam essas normas; a recusa de perspectivas que patologizam diferenças; e a análise da heterossexualidade não como orientação entre outras, mas como norma política que organiza o campo do que é inteligível.


Quando um sistema de IA classifica, ele opera dentro de um campo do inteligível. Ele reconhece o que sua arquitetura foi construída para reconhecer — e produz como ilegível, inexistente ou anômalo tudo que fica de fora. Os estudos queer perguntam quem definiu esse campo e por quê.


A perspectiva interseccional, na formulação de Akotirene (2019), adiciona uma dimensão importante. As exclusões produzidas por esses sistemas não operam por uma única dimensão de poder. Gênero, raça e classe se combinam para produzir formas específicas de apagamento. Velasquez (2024) aprofunda esse ponto ao argumentar que a própria ideia de "inteligência" que organiza os sistemas de IA corresponde historicamente a um modelo particular de conhecimento — o do homem branco ocidental. A cisnormatividade, nesse quadro, não é um erro a corrigir. É uma das expressões de uma epistemologia que define o que conta como conhecimento antes de qualquer treinamento.


Além disso, Ciston (2019) observa que comunidades cujas identidades escapam às categorias binárias dos sistemas desenvolvem, por necessidade, um conhecimento sobre como circular nesses sistemas sem ser completamente capturadas por eles — o que chama de passing. Há algo analiticamente relevante nessa experiência. Mas é importante não romantizá-la. O passing não é uma escolha; é uma estratégia de sobrevivência. O conhecimento que produz nasce de uma experiência de exclusão estrutural. Usá-lo como recurso crítico exige reconhecer que ele é sintoma do problema, não resposta a ele.


O que esse conjunto de perspectivas permite ver é que o problema não está na representação — está na pressuposição. Não é que os sistemas têm poucos exemplos de identidades diversas. É que eles foram construídos sobre concepções de gênero que fazem certas identidades simplesmente não caberem.


Performatividade algorítmica de gênero

É aqui que a contribuição de Judith Butler se torna central.


Butler (2003) propõe que o gênero não é algo que se tem ou que se expressa — é algo que se faz, pela repetição de atos que ao longo do tempo produzem a ilusão de uma essência estável. O gênero é performativo. Não revela uma identidade prévia, mas a cria pelo efeito acumulado de sua reiteração. É por isso que a norma precisa ser constantemente repetida — e é por isso que ela pode ser contestada. Onde há repetição, há a possibilidade do desvio.


Quando se examina como os grandes modelos de linguagem funcionam, a correspondência é direta. Esses sistemas aprendem a produzir a resposta mais provável dado o que está no corpus. Cada resposta reforça os padrões aprendidos. Cada enunciado sobre gênero reitera — com a autoridade de um sistema que se apresenta como objetivo — as normas que o corpus sedimentou.


A diferença fundamental, porém, é que nos sistemas de IA o desvio não é bem-vindo. Butler enxerga na reiteração inevitável da norma a possibilidade da subversão — a paródia, o deslocamento, a falha que expõe a artificialidade do que parece natural. Os sistemas generativos são projetados exatamente para eliminar o desvio, para maximizar a coerência com o esperado. O mecanismo que em Butler é abertura para a resistência torna-se, nesses sistemas, seu contrário, uma reiteração blindada, sem atrito, sem espaço para o que escapa.


Chamo isso de performatividade algorítmica de gênero, o processo pelo qual os sistemas de IA generativa não descrevem identidades de gênero, mas as produzem — reiterando, a cada enunciado, uma ordem normativa que se apresenta como natural porque nunca encontra resistência técnica.


AlDahoul, Rahwan e Zaki (2025) forneceram evidência empírica das consequências desse mecanismo. Imagens geradas com estereótipos de gênero e raça reforçam preconceitos em quem as visualiza, enquanto imagens construídas com outros critérios contribuem para atenuá-los — mesmo quando as pessoas sabem que as imagens foram produzidas por IA. Os sistemas não espelham o mundo; participam ativamente da sua produção.


O deslocamento que o conceito propõe é de pergunta. Em vez de "o sistema erra?", a pergunta passa a ser outra. Quem o sistema reconhece como existente — e o que custa para quem não é reconhecido?


Por que isso importa além da IA

A crítica epistemológica tem consequências práticas que vão além do funcionamento dos sistemas em si.


Na regulação, instrumentos focados em detectar e medir vieses mensuráveis deixam intacto o mecanismo que os produz. No direito antidiscriminatório, a lógica jurídica construída para identificar intenções discriminatórias não alcança sistemas que produzem hierarquias de gênero por reiteração estatística. Na proteção de dados, danos relacionados a gênero podem emergir de operações sobre dados que individualmente não contêm nenhuma informação sensível.


Nomear o fenômeno como performatividade — e não como viés — não é apenas uma preferência teórica. É o que torna possível fazer as perguntas certas. E as perguntas certas são o pré-requisito de qualquer crítica que não se dissolva nas respostas técnicas que ela deveria questionar.


Referências

¹ KEYES, 2018; GROSS, 2023; SILVA, 2025; ALDAHOUL; RAHWAN; ZAKI, 2025


  • AKOTIRENE, Carla. Interseccionalidade. São Paulo: Pólen Livros, 2020. (Coleção Feminismos Plurais).

  • BUTLER, Judith. Problemas de gênero: feminismo e subversão da identidade. Tradução: Renato Aguiar. Rio de Janeiro: Civilização Brasileira, 2003.

  • BUTLER, Judith. Undoing Gender. New York; London: Routledge, 2004. (Gender Studies: Philosophy Series).

  • COLLING, Leandro. Gênero e sexualidade na atualidade. Salvador: UFBA, Instituto de Humanidades, Artes e Ciências; Superintendência de Educação a Distância, 2018. 69 p.

  • COLLING, Leandro. Ataques recentes às perspectivas das interseccionalidades. Periódicus, Salvador, n. 17, v. 2, p. 51-62, jan./jun. 2022

  • HORA, Nina da. A lógica dos algoritmos: como o código molda decisões públicas. Organização Instituto da Hora. Rio de Janeiro: Instituto da Hora, 2025. (Cadernos da Hora. A camada lógica, v. 1). E-book

  • VELASQUEZ, Umut Pajaro. Queering AI: uma epistemologia queer para a IA com uma perspectiva de maioria global. Internet & Sociedade, v. 5, n. 1, p. 56-70, jul. 2024

  • WOLFRAM, S. What Is ChatGPT Doing ... and Why Does It Work? 1. ed. Champaign, IL: Wolfram Media Inc, 2023. 102 p

 
 
 

Comentários


Algorit.Nós é um projeto voltado para pesquisas com ênfases nas interserções entre tecnologias, privacidade, plataformas e governança de IA, permeadas pelas questões de gênero e raça e etnias, especialmente aquelas que envolvem a comunidade LGBTQIAPN+. Também é um canal de serviços de educação, mentorias e consultoria.

Quer receber nossa newsletter? (em breve)

É bom ter você com a gente!

  • Instagram
  • LinkedIn

© 2026 Criado com Wix.com

bottom of page