Nada artificial
Na trend, deputada aponta racismo ao ser desenhada com arma
Parlamentar questiona resultado gerado por IA
A deputada estadual Renata Souza (PSOL) pediu a um "robô desenhista" da Microsoft para criar uma imagem de uma mulher negra na favela, no estilo Pixar. Surpreendentemente, o resultado gerado pelo algoritmo retratou a figura com uma arma nas mãos, deixando a parlamentar chocada e levantando preocupações sobre o que ela descreveu como "racismo algorítmico".
Renata Souza, doutora em Comunicação e Cultura pela Pontifícia Universidade Católica (PUC/RJ) e ex-moradora do Complexo da Maré, Zona Norte do Rio, não escondeu sua perplexidade diante do resultado.
"Não pode uma mulher negra, cria da favela, estar num espaço que não seja de violência? O que leva essa 'desinteligência artificial' a associar o meu corpo, a minha identidade, com uma arma?", indagou.
A tendência recente de criar personagens no estilo "Disney Pixar" se tornou um fenômeno nas redes sociais, à medida que indivíduos de todo o mundo começaram a explorar a criatividade gerada por um "robô desenhista" desenvolvido pela Microsoft. Esta ferramenta utiliza a inteligência artificial para transformar descrições em imagens que evocam o famoso estilo de animação da Pixar.
"O racismo algorítmico está aí. Essa lógica de criminalização das pessoas negras, nesses territórios de favelas e periferias, também está nos algoritmos", completou a deputada, que também publicou um vídeo relatando a situação.
O termo "racismo algorítmico" refere-se à manifestação de preconceitos raciais em sistemas de inteligência artificial, nos quais algoritmos replicam vieses presentes nos dados de treinamento, levando a resultados discriminatórios.
O que dizem os especialistas
Leonardo Mancini, pesquisador e especialista em Ciência de Dados, esclarece o funcionamento dos modelos generativos, como o "robô desenhista". Segundo o professor de 43 anos, esses sistemas baseiam-se em equações matemáticas que utilizam dados humanos para gerar imagens. Eles analisam um vasto conjunto de imagens, categorizam-nas e identificam padrões, permitindo criar novas representações visuais.
Os algorítmos utilizam dados humanos para gerar imagens.
Contudo, a raiz do problema, conforme explica Mancini, reside no fato de que esses algoritmos, ao se fundamentarem em dados de origem humana, frequentemente tendem a espelhar os preconceitos já existentes na sociedade.
"O viés algorítmico é um fenômeno que reflete os vieses sociais presentes nos dados de treinamento. A máquina não tem consciência ou capacidade de julgamento. Ela simplesmente reproduz os padrões presentes nos dados de treinamento. Se esses dados contêm estereótipos ou preconceitos, o algoritmo irá replicá-los", disse.
Em relação ao caso denunciado pela Renata, Mancini acrescenta: "É possível que as imagens utilizadas no treinamento do 'robô desenhista' continham estereótipos prejudiciais associados a pessoas negras na favela, levando o algoritmo a replicar essas associações em seu resultado".
Os algoritmos operam dentro de um contexto social.
A responsabilidade ética dos desenvolvedores de algoritmos é fundamental, de acordo com Mancini. Ele ressalta que as empresas que desenvolvem essas tecnologias devem aplicar filtros e mecanismos de controle para reduzir o viés algorítmico.
No entanto, ele destaca que os mecanismos nunca eliminarão completamente o viés, uma vez que esses algoritmos refletem a sociedade em que estão inseridos.
"É fundamental reconhecer que esses algoritmos operam em um contexto social. Eles capturam a expressão da sociedade presente nos dados com os quais são treinados. Portanto, se a sociedade tem preconceitos e estereótipos, esses serão refletidos em algum momento nos resultados gerados pelos algoritmos", concluiu.
Perdeu documentos, objetos ou achou e deseja devolver? Clique aqui e participe do grupo do Enfoco no Facebook. Tá tudo lá!