As causas e as consequências do enviesamento da inteligência artificial

A inteligência artificial (IA) transformou numerosos sectores, trazendo eficiência, inovação e melhores capacidades de tomada de decisões. No entanto, descobriu-se também que alguns sistemas de inteligência artificial têm preconceitos incorporados que têm consequências importantes que afectam os resultados, a equidade e até a fiabilidade dos sistemas.

É importante compreender por que razão e como ocorre o enviesamento da inteligência artificial, quais as suas consequências e como evitá-lo ou, pelo menos, reduzi-lo, de modo a beneficiar da inteligência artificial, tendo em conta os seus possíveis inconvenientes.

Causas do enviesamento da inteligência artificial

Existem causas técnicas e sociais para o enviesamento da inteligência artificial. Uma delas é o enviesamento dos dados. Há inferências a partir de dados maciços e, se esses dados forem enviesados ou contiverem informações limitadas, o sistema de inteligência artificial aprende e repete os enviesamentos. Por exemplo, a informação histórica que contém vários preconceitos contra grupos específicos de pessoas pode causar discriminação quando incorporada no sistema de tomada de decisões da inteligência artificial.

Outra causa é a conceção algorítmica. Verifica-se que as escolhas de conceção dos algoritmos, tais como as características seleccionadas, as técnicas de formação e as métricas de otimização utilizadas, podem introduzir enviesamentos. Por vezes, podem exacerbar preconceitos já incorporados nos dados de formação ou excluir certas categorias de pessoas.

Impactos do enviesamento da inteligência artificial

O enviesamento da inteligência artificial pode ter efeitos graves na sociedade e nas empresas em diferentes áreas da atividade humana. No caso da contratação e do recrutamento, os algoritmos de inteligência artificial tendenciosos têm o potencial de discriminar os candidatos de determinado sexo, raça ou outros indicadores de baixo estatuto socioeconómico. Isto só serve para perpetuar as desigualdades existentes no seio da força de trabalho.

Os preconceitos podem ser igualmente aproveitados em aplicações que utilizam a inteligência artificial para a avaliação de riscos ou para a construção de uma base de referência para a aplicação de penas nos sistemas de justiça penal, um aspeto que pode levar a que as minorias sejam prejudicadas. A inteligência artificial nos cuidados de saúde que não seja desenvolvida para ser neutra pode afetar o doente e o seu plano de tratamento, incluindo diagnósticos errados ou recomendações injustas de procedimentos preventivos, afectando assim a confiança dos doentes nas soluções de inteligência artificial nos cuidados de saúde.

Além disso, é evidente que a parcialidade da inteligência artificial nos serviços financeiros pode resultar numa classificação discriminatória do crédito, uma vez que as decisões de crédito se baseiam em características irrelevantes para a solvabilidade, como a origem étnica ou o género. Estes efeitos adversos não só são prejudiciais para as pessoas afectadas, como também diminuem a aceitação das tecnologias de inteligência artificial.

Estratégias de atenuação

Para abordar o problema do enviesamento na inteligência artificial, o problema deve ser encarado do ponto de vista da recolha de dados, da conceção algorítmica e da avaliação. Eis as principais estratégias para atenuar o enviesamento da inteligência artificial:

Dados diversificados e representativos

É crucial garantir que o conjunto de dados de treino expõe a população com a qual o sistema de inteligência artificial irá provavelmente interagir. Isto é útil para reduzir os enviesamentos que possam existir no conjunto de dados, uma vez que faz com que os algoritmos de inteligência artificial aprendam num ambiente diversificado.

Transparência do algoritmo

Aumentar a interpretabilidade do processo de tomada de decisão dos algoritmos de inteligência artificial para que este processo possa ser explicado a todos os interessados. As técnicas de alta disponibilidade também podem ajudar os utilizadores a compreender o processo através do qual a inteligência artificial chega à sua decisão e também a eliminar preconceitos.

Auditorias e revisões regulares

Recomenda-se a realização periódica de auditorias e avaliações de risco nos sistemas de inteligência artificial para detetar enviesamentos que se possam desenvolver ao longo do tempo. Para resolver esta questão, é utilizada a seguinte abordagem proactiva para garantir que os sistemas de inteligência artificial são justos e equitativos à medida que as normas sociais e o contexto mudam.

Equipas diversificadas e envolvimento das partes interessadas

Promover a inclusão de diversidades culturais e de género no desenvolvimento de aplicações de inteligência artificial e incorporar as partes interessadas nas fases de desenvolvimento e nos ensaios. Isto ajuda a identificar pontos cegos comuns nas organizações em que a equipa de desenvolvimento não tem representação de grupos sub-representados e garante que os sistemas de inteligência artificial desenvolvidos não discriminam as previsões destes grupos.

Directrizes éticas e governação

Assegurar a existência de normas éticas e regras de empenhamento bem definidas para a criação e utilização da inteligência artificial. Estes quadros devem ser compostos pelos princípios que regulam a utilização correcta da inteligência artificial, pelos procedimentos para tratar as queixas relativas à presença de preconceitos e pelos processos regulares de melhoria e monitorização.