Uma solução para o problema da inteligência artificial obscura

A inteligência artificial (IA) está entre os avanços tecnológicos mais profundos e proporciona uma série de benefícios e oportunidades em muitos sectores. No entanto, o facto de surgirem novos problemas, como o desafio da inteligência artificial sombra, não pode ser ignorado a par do desenvolvimento de todas estas inovações recentes.

Compreender o problema da inteligência artificial secreta

A inteligência artificial secreta, supomos, a inteligência artificial encoberta que é operada sem transparência ou controlos, é o maior problema que tem de ser resolvido para que a inteligência artificial possa ser utilizada de forma segura e útil. No entanto, verificamos que estes sistemas inteligentes operam sobretudo em segundo plano, tomando decisões que controlam o resultado e o destino das vítimas do sistema, sem que estas tenham uma ideia do seu caso. Sob a cor da inteligência artificial, podem surgir duas formas, como algoritmos desonestos, modelos tendenciosos e programas de inteligência artificial não autorizados.

A controvérsia da inteligência artificial obscura é alimentada por software e hardware de inteligência artificial cada vez mais potentes e acessíveis. Com a inteligência artificial a tornar-se mais barata e mais simples de implementar no dia a dia, as entidades podem utilizar sistemas de inteligência artificial sem conhecer as suas implicações ou sem se preocuparem com ramificações éticas e regulamentos legais.

Implicações do problema da inteligência artificial sombra

O poder pseudónimo da inteligência artificial coloca várias questões prementes, nomeadamente para a sociedade, as empresas e os particulares.

Preocupações éticas

Os riscos de um tratamento tendencioso, como o da inteligência artificial sombra, podem conduzir a uma desigualdade ainda maior. Por exemplo, estes sistemas podem reforçar preconceitos ou ser movidos pelos mesmos preconceitos, uma vez que foram construídos com base em dados tendenciosos ou, ainda, porque não foram submetidos a uma supervisão e a um controlo suficientes.

Riscos regulamentares

Os sistemas de inteligência artificial autónoma não monitorizados e não controlados que não estejam em conformidade podem levar a uma violação dos requisitos de privacidade de dados, segurança e outros regulamentos, pelo que as consequências legais e financeiras podem seguir a lei.

Danos à reputação

Os exemplos de tecnologia de inteligência artificial desactivada que falhe em termos éticos ou que proporcione resultados prejudiciais para as empresas podem trazer uma luz negativa para a marca. Tais situações podem resultar numa perda de confiança dos consumidores, de notoriedade da marca, entre outros.

Ameaças à segurança

Pode surgir uma ameaça quando um sistema de inteligência artificial é acedido por uma entidade com intenções maliciosas, mesmo que não tenha intenções militares ou de aplicação da lei. Esses sistemas de inteligência artificial, por detrás de paredes impermeáveis, podem tornar-se um ponto de entrada para atingir sistemas críticos, o que pode resultar em violações de dados, divulgação de infra-estruturas críticas, etc.

Estratégias para lidar com o problema da inteligência artificial oculta

Estratégias para gerir a inteligência artificial oculta, garantindo uma inteligência artificial segura, conforme e eficiente.

Transparência e responsabilização

As empresas e os governos devem comprometer-se a aumentar a transparência e a responsabilidade pela criação e utilização de aplicações e sistemas de inteligência artificial. Isto porque implica a criação de mecanismos para documentar os algoritmos de inteligência artificial, as fontes de dados e os processos de tomada de decisão, de modo a torná-los rastreáveis e auditáveis.

Governação ética da inteligência artificial

A criação de quadros sólidos de governação ética da inteligência artificial pode, assim, ser um passo crucial para ultrapassar alguns dos inconvenientes da inteligência artificial paralela. Para tal, é necessário não só estabelecer um quadro ético claro e normas a seguir, mas também dispor de arquitecturas de revisão e supervisão.

Educação e sensibilização

O desenvolvimento da cidadania em matéria de inteligência artificial pode ser conseguido através de uma maior compreensão da ética, dos riscos e das melhores práticas da inteligência artificial por parte dos criadores, cientistas de dados e decisores. Esta é a única forma de evitar a disseminação da inteligência artificial paralela. As actividades de formação e tutoria, os workshops e as ajudas à educação podem ser factores-chave para garantir a ética da inteligência artificial.

Conformidade regulamentar

As organizações devem garantir a conformidade com as leis, os regulamentos e as normas relevantes no que respeita ao desenvolvimento e à implementação da inteligência artificial. Estes podem ser regulamentos de proteção de dados (como o RGPD), instrumentos de direito privado e abordagens jurisdicionais, bem como o novo desenvolvimento da governação da inteligência artificial.

Colaboração e parcerias

A participação de todos os intervenientes da indústria, dos legisladores, do meio académico e da sociedade civil ajudará a ser mais eficiente na luta contínua contra o problema da “inteligência artificial sombra”. Através do trabalho conjunto, as partes interessadas terão a oportunidade de partilhar as melhores práticas, colaborar nas normas actuais e criar orientações que manterão o desenvolvimento da inteligência artificial tão responsável quanto possível.

Monitorização e avaliação contínuas

Deve ser efectuado um controlo periódico do desempenho, comportamento e implicações dos sistemas de inteligência artificial. Este mecanismo de controlo permitirá a deteção e a resolução de casos de inteligência artificial obscura. As organizações precisam de construir formas de monitorização contínua, feedback e avaliação do desempenho para garantir que as ferramentas de inteligência artificial funcionam de forma ética e funcional.