Logo Enfoco


    Nada artificial

    Na trend, deputada aponta racismo ao ser desenhada com arma

    Parlamentar questiona resultado gerado por IA

    Publicado 26/10/2023 às 19:24 | Atualizado em 26/10/2023 às 19:38 | Autor: Lucas Luciano
    Ouça a reportagem
    Siga no Google News Siga o Enfoco no Google News
    'Robô desenhista' foi projetado pela empresa Microsoft
    'Robô desenhista' foi projetado pela empresa Microsoft |  Foto: Reprodução

    A deputada estadual Renata Souza (PSOL) pediu a um "robô desenhista" da Microsoft para criar uma imagem de uma mulher negra na favela, no estilo Pixar. Surpreendentemente, o resultado gerado pelo algoritmo retratou a figura com uma arma nas mãos, deixando a parlamentar chocada e levantando preocupações sobre o que ela descreveu como "racismo algorítmico". 

    Renata Souza, doutora em Comunicação e Cultura pela Pontifícia Universidade Católica (PUC/RJ) e ex-moradora do Complexo da Maré, Zona Norte do Rio, não escondeu sua perplexidade diante do resultado. 

    Aspas da citação
    "Não pode uma mulher negra, cria da favela, estar num espaço que não seja de violência? O que leva essa 'desinteligência artificial' a associar o meu corpo, a minha identidade, com uma arma?", indagou.
    Renata Souza deputada estadual
    Aspas da citação

    A tendência recente de criar personagens no estilo "Disney Pixar" se tornou um fenômeno nas redes sociais, à medida que indivíduos de todo o mundo começaram a explorar a criatividade gerada por um "robô desenhista" desenvolvido pela Microsoft. Esta ferramenta utiliza a inteligência artificial para transformar descrições em imagens que evocam o famoso estilo de animação da Pixar.

    "O racismo algorítmico está aí. Essa lógica de criminalização das pessoas negras, nesses territórios de favelas e periferias, também está nos algoritmos", completou a deputada, que também publicou um vídeo relatando a situação.

    O termo "racismo algorítmico" refere-se à manifestação de preconceitos raciais em sistemas de inteligência artificial, nos quais algoritmos replicam vieses presentes nos dados de treinamento, levando a resultados discriminatórios. 

    O que dizem os especialistas

    Leonardo Mancini, pesquisador e especialista em Ciência de Dados, esclarece o funcionamento dos modelos generativos, como o "robô desenhista". Segundo o professor de 43 anos, esses sistemas baseiam-se em equações matemáticas que utilizam dados humanos para gerar imagens. Eles analisam um vasto conjunto de imagens, categorizam-nas e identificam padrões, permitindo criar novas representações visuais.

    Os algorítmos utilizam dados humanos para gerar imagens.

    Contudo, a raiz do problema, conforme explica Mancini, reside no fato de que esses algoritmos, ao se fundamentarem em dados de origem humana, frequentemente tendem a espelhar os preconceitos já existentes na sociedade.

    "O viés algorítmico é um fenômeno que reflete os vieses sociais presentes nos dados de treinamento. A máquina não tem consciência ou capacidade de julgamento. Ela simplesmente reproduz os padrões presentes nos dados de treinamento. Se esses dados contêm estereótipos ou preconceitos, o algoritmo irá replicá-los", disse. 

    Em relação ao caso denunciado pela Renata, Mancini acrescenta: "É possível que as imagens utilizadas no treinamento do 'robô desenhista' continham estereótipos prejudiciais associados a pessoas negras na favela, levando o algoritmo a replicar essas associações em seu resultado".

    Os algoritmos operam dentro de um contexto social.

    A responsabilidade ética dos desenvolvedores de algoritmos é fundamental, de acordo com Mancini. Ele ressalta que as empresas que desenvolvem essas tecnologias devem aplicar filtros e mecanismos de controle para reduzir o viés algorítmico.

    No entanto, ele destaca que os mecanismos nunca eliminarão completamente o viés, uma vez que esses algoritmos refletem a sociedade em que estão inseridos.

    "É fundamental reconhecer que esses algoritmos operam em um contexto social. Eles capturam a expressão da sociedade presente nos dados com os quais são treinados. Portanto, se a sociedade tem preconceitos e estereótipos, esses serão refletidos em algum momento nos resultados gerados pelos algoritmos", concluiu. 

    Tags

    Grupo achados e perdidos do facebook Enfoco Grupo achados e perdidos do facebook Enfoco
    Achados e Perdidos

    Perdeu documentos, objetos ou achou e deseja devolver? Clique aqui e participe do grupo do Enfoco no Facebook. Tá tudo lá!

    Entrar no grupo
    Artigo anterior
    <

    Orquestra alemã visita Niterói para conhecer projeto cultural

    Próximo artigo
    >

    Viradouro terá loja no Mercado Municipal de Niterói

    Relacionados em Cidades