PL da regulação de inteligência artificial discute discriminação no ambiente digital 

PL da regulação de inteligência artificial discute discriminação no ambiente digital

Especialistas veem avanços com o projeto de lei, mas identificam um longo caminho para a fiscalização dos sistemas de inteligência artificial 

Por Everton Victor e Manoela Oliveira

 
Racismo algorítmico e os desafios da inteligência artificial / Imagem: Fractal Pictures (Shutterstock)

Racismo algorítmico é uma expressão nova para nomear como uma prática antiga, a discriminação, se reproduz no ambiente digital. É o que acontece, por exemplo, quando o aplicativo do banco não reconhece um rosto negro, buscas de pesquisas relacionam pessoas negras a pessoas feias ou imagens clareiam automaticamente a pele negra. Debates assim, que envolvem os vieses dos dados, a autorregulamentação por grandes empresas e a falta de segurança no ambiente digital, estão em curso hoje no mundo. No Brasil, a discussão passa pelo Projeto de Lei 2338/23, que institui um marco legal com mecanismos e orientações para regulamentar a inteligência artificial no Brasil. A votação do PL 2338/23 foi adiada três vezes e, até o momento, não foi definida uma nova data. 

O PL 2338/23 é de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), e tem relatoria do senador Eduardo Gomes (PL-TO). O texto preliminar que deu origem ao projeto foi sugerido por uma comissão de especialistas no tema, coordenada por Ricardo Villas Bôas, ministro do Superior Tribunal de Justiça (STJ). As propostas apresentadas neste projeto agregam sugestões de outros nove PLs sobre regulamentação do ambiente digital.

Reunião da Comissão Temporária Interna do Senado que analisa o PL 2.338/2023 Foto: Lula Marques / Agência Brasil

O pesquisador Pablo Nunes, doutor em Ciência Política pelo Instituto de Estudos Sociais e Políticos (IESP-Uerj), diz que o projeto chega num momento decisivo, porque não existe uma neutralidade nos dados. Eles  partem de um contexto e de um histórico ligados à realidade. “Esses bancos de dados nada mais são do que a história da sociedade humana materializada em números”, afirma. E isso tudo permite falar em racismo algorítmico, o que é, segundo o pesquisador, “a forma atualizada e repaginada do racismo se expressar, permitindo que o racismo estrutural consiga sobreviver neste mundo digital e tecnológico”.

Apesar do termo racismo algorítmico não aparecer na proposta inicial do PL, o projeto discorre sobre discriminação de raça, cor, etnia, gênero e origem geográfica. O documento reforça o combate a preconceitos como um dos fundamentos da implementação de inteligência artificial. Estudar racismo algorítmico permitiria não é só descobrir e analisar os impactos, mas também fornecer sugestões de políticas públicas para os danos serem mitigados, afirma Tarcízio Silva, doutorando em Ciências Humanas e Sociais da Universidade Federal do ABC (UFABC) e autor do livro Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais.

Os efeitos do racismo algorítmico são sentidos, por exemplo, no tratamento de saúde de pessoas negras. Um estudo realizado em Boston, nos Estados Unidos, examinou cerca de 57 mil pacientes com doença crônica renal em centros médicos acadêmicos e clínicas comunitárias. E mostrou que, entre 2.255 pacientes negros, 743 seriam hipoteticamente realocados para o estágio de doença grave se fosse utilizado o mesmo algoritmo de pacientes brancos. 

Ao não serem classificados como pessoas que precisam de atendimento hospitalar emergencial, eles não têm prioridade no encaminhamento para transplantes e no acesso à diálise, procedimento de recuperação da função renal. Na avaliação de Pablo Nunes, esse caso é um exemplo de racismo algorítmico, que explicita os prejuízos sofridos pela população negra em comparação com outros grupos. 

Para o pesquisador, o desafio é equilibrar a utilização desses mecanismos, tendo em vista os bancos de dados já terem todos esses vieses. “As tecnologias, por serem frutos da história humana, não vão romper com o racismo, muito pelo contrário, elas vão procurar reproduzir”. Outro exemplo citado por ele vem da Bahia, onde a Polícia Militar utiliza uma ferramenta de inteligência artificial visando reconhecer pessoas com mandados de prisão decretados. Mas os casos de erro não são raros. Em 2023, um trabalhador foi identificado pela ferramenta e preso erroneamente por 26 dias em 2023. Sobre o caso, a Secretária de Segurança Pública da Bahia (SSP-BA) argumentou que as câmeras constataram 95% de similaridade entre ele e o verdadeiro infrator. “A gente tá falando de vidas humanas que são destroçadas”, reforça Pablo Nunes.

Para Tarcízio Silva, há uma divergência entre o que os legisladores consideram ser o desejo dos brasileiros com a inteligência artificial e a perspectiva real da população. Na análise do professor da XXX, a maioria dos brasileiros desconfia desses sistemas, especialmente no campo da segurança pública, área com grande utilização  de IA pelo governo. Uma pesquisa do Instituto IDEA com a colaboração do Brazil Forum UK conta que 73% de 1.073 entrevistados apoiam a criação de regras para o uso de IA no Brasil.

 
Gráfico interativo: Quem ou qual órgão os brasileiros acreditam que deveria regularizar a IA
Fonte: Reprodução de Manoela Oliveira, com dados do Instituto IDEA

O projeto de lei 2338/2023 prevê a supervisão e a fiscalização das inteligências artificiais pelo Poder Executivo, com base em critérios como a gravidade da infração, a condição socioeconômica e a cooperação do infrator. Caso uma empresa ou uma pessoa física não obedeça aos fundamentos de igualdade, não descriminação, proteção ao meio ambiente e privacidade no desenvolvimento de uma IA.

Até hoje (13), a Consulta Pública sobre o PL realizada pelo Senado acumulava mais de 66 mil votos, sendo 47,1% contra o projeto. Os debates de como regular o ambiente do tema não estão restritos apenas ao Brasil. Nos grupos de engajamento do G20, foi recomendado para os líderes das 20 maiores economias do mundo a criação de um grupo de governança global para dados, o Data20 (D20). Países da União Europeia, o Canadá e outras nações que participam do bloco já regulamentaram ou estudam como regulamentar.

PL da regulação de inteligência artificial discute discriminação no ambiente digital 

You May Also Like