As preocupações com os riscos dos impactos de usos de inteligência artificial têm crescido vertiginosamente, só ficam atrás da velocidade exponencial com que essas tecnologias vêm se desenvolvendo e se espalhando em diferentes usos. Uma das afirmações recorrentes é de que os sistemas de inteligência artificial reforçam desigualdades de gênero, comportamentos homofóbicos, queerfóbicos e transfóbicos.
Mas como a IA perpetua essas discriminações e estereótipos de gênero na prática? E, mais importante ainda: como construir uma tecnologia, ainda enigmática para muitos, que não dissemine preconceitos contra pessoas pretas, queers, mulheres e outros grupos minorizados?
Algoritmos podem perpetuar preconceitos de gênero ao reproduzirem padrões discriminatórios presentes em conjuntos de dados. Por exemplo, sistemas de recrutamento que analisam currículos podem favorecer candidatos do sexo masculino em detrimento das mulheres, devido a viéses incorporados nos dados de treinamento para determinadas áreas. Da mesma forma, os estereótipos que se tem de pessoas LGBTQIA + acabam reforçados pelos dados que constroem inteligências artificiais.
Além disso, o problema tem raízes socioestruturais. O levantamento TIC (Tecnologias de Informação e Comunicação nos Domicílios Brasileiros) 2023 revela que 29 milhões de brasileiros não tiveram acesso à internet por ao menos três meses do ano. A mesma pesquisa mostra dados sobre o acesso à internet exclusivamente por meio de dispositivos móveis. O uso de aparelho celular para acessar a internet é maior entre mulheres (64%), pretos (63%), pardos (67%) e, principalmente, pessoas das classes D e E (84%), ainda segundo o levantamento.
Para enfrentar a desigualdade de gênero na Inteligência Artificial (IA), é fundamental adotar abordagens inclusivas no desenvolvimento de tecnologias. Além disso, dar maior atenção a esses dados sociais e econômicos atrelados às diversidades de gênero. Isso inclui diversificar equipes, realizar auditorias para identificar e corrigir vieses em dados e implementar políticas transparentes para garantir que os sistemas de IA sejam éticos e justos.
IA para todos? Um diálogo
A sede da Fundação Heinrich Böll, em Berlim, promoveu, em maio, o evento "AI Für Alle (IA para todos) - perspectivas de políticas de gênero sobre inteligência artificial. " No sentido de IA for good [IA para o bem], as organizadoras tiveram a intenção de jogar luz no que já está sendo produzido de bom por mulheres e pessoas queers no mundo da tecnologia.
Uma das idealizadoras do evento, especialista no assunto e assessorx do Gunda Werner Institute, Katharina Klappheck diz que ter mulheres nos postos estratégicos de alto nível nas empresas que produzem inteligência artificial já é, por si só, um tema necessário e que vem sendo discutido por pessoas do ramo, mas “quando falamos de mulheres negras ou mulheres não-brancas é impressionante a ausência delas nesses mercados. As mulheres negras são apenas cerca de 1.2% dos funcionários, por exemplo, da Google. Então pensamos que precisamos ter uma lente interseccional para esse tema. E também ver o assunto pela perspectiva queer.”, afirma Klappheck em entrevista à Böll Brasil.
O cenário é ruim, e já foi pior. Há dez anos, em 2014, as mulheres negras eram apenas 0.4%. Segundo o relatório anual de diversidade do Google deste ano, pessoas pretas representam apenas 4.2% dos desenvolvedores de tecnologia da empresa nos Estados Unidos. Por mais que a empresa afirme que tem feito esforços, como, por exemplo, fornecer bolsas de estudos para mulheres negras, os avanços estão longe do desejado. As mulheres hispânicas e latinas também estão sub representadas na área da tecnologia na sede da big tech: somente 1.4% do total.
As grandes empresas de tecnologia e desenvolvedoras de inteligência artificial não têm dados a respeito de pessoas queers ou transgêneros em seus relatórios, que ainda são baseados nas definições binárias de gênero. Mas, por meio dos dados disponibilizados pelo Google, em que 74.1% dos desenvolvedores são homens, é possível ter uma ideia por alto do cenário e da importância de se falar sobre gênero em dados. Pessoas LGBTQIA + estão sub representadas até nas mais básicas bases de dados existentes.
AI for good [Inteligência Artificial para o bem]
Para Katharina Klappheck, é preciso ganhar espaço na área e mostrar que o gênero é uma peça chave neste quebra cabeça.“Não queremos ser vistos como os pobrezinhos, os queers que não podem ter um espaço seguro na internet ou que são as vítimas da história. Claro que é verdade para muitos, mas também temos muita criatividade queer pelo mundo que precisa ser vista e esse era nosso principal objetivo com o evento”, reforça Klappheck.
“Nós queremos criar algo onde as pessoas possam sentir a alegria de ser queer e perceber que a criação de tecnologia não precisa ser algo repressivo e apenas binário em termos de gêneros.” — Katharina Klappheck, Assessorx do Gunda Werner Institute
O encontro AI for All reuniu ativistas, acadêmicos, especialistas e diversos parceiros e parceiras da instituição e teve apresentações da banda futurista Clash Clash Bang Bang
Clash Clash Bang Bang: Evolution of Pop (Official) - Clash Clash Bang Bang
Watch on YouTubeO quarteto tem letras divertidas e ácidas, como uma que diz:
“I’m blaming it on the weather (eu coloco a culpa no tempo)
I’m blaming it on the politics (eu coloco a culpa na política)
I’m blaming it on my parents (eu coloco a culpa nos meus pais)
I’m blaming it on you (eu coloco a culpa em você)
But my knowledge is limited (mas meu conhecimento é limitado)
Cause I'm AI, almost intelligent. A - I: Almost Intelligent (Pois eu sou IA, quase inteligente).
Este conteúdo externo requer o seu consentimento. Observe nossa política de privacidade.
Open external content on original sitePor que a inteligência artificial também é uma questão feminista?
Para Joanna Varon, nossa parceira da Coding Rights, inteligência artificial é uma questão feminista, pois “da mesma maneira que estatísticos, engenheiros e programadores têm a acrescentar sobre o assunto, as feministas também têm algo a portar, do ponto de vista social”, afirma Joanna.
Diretora e fundadora da Coding Rights, Joana Varon conta que a organização analisou um projeto da Microsoft com a prefeitura de Salta, na Argentina. A empresa de tecnologia apresentou, em 2018, um projeto de inteligência artificial que dizia prever perfis de meninas que tinham mais chance de passar por uma gravidez na adolescência. O sistema foi altamente criticado por estigmatizar a população da América Latina, principalmente meninas que moram em comunidades mais pobres.
“São dados de crianças e adolescentes e, no fim, prometiam algo que é impossível de prometer.” pontua Varon. “Essa empresa norte-americana veio testar esses softwares nas nossas populações vulneráveis em vez de testar no próprio país deles.”
O estudo das pesquisadoras da Coding defende a implementação de sistemas com maior curadoria nas bases de dados, que respeitem direitos fundamentais, representem com veracidade os diferentes gêneros e que sejam locais, com o objetivo de usar a tecnologia de maneira menos extrativista, com menos recursos naturais e com menos vieses estrangeiros.
Em contrapartida, as casas legislativas da maioria dos países do mundo precisam de coragem e de vozes ecoantes para que as constituições pensadas para o século passado agreguem este novo ator da governança global, chamado dado pessoal/algoritmo, às regras que nos regem como sociedades, porque eles são a base de todos os sistemas de inteligência artificial e outras inovações tecnológicas que estão por vir. Essa é, entretanto, uma tarefa que exige pulso firme, pois as ‘big techs’, grandes monopólios da tecnologia baseadas no Vale do Silício, se tornaram extremamente poderosas.