Porque é que os sistemas de inteligência artificial alucinam
Atualmente, a inteligência artificial (IA) funciona sob a forma de assistentes virtuais, dispositivos domésticos inteligentes, diagnósticos de cuidados de saúde e automóveis autónomos. No entanto, surge um problema com o desenvolvimento desta tecnologia crítica, porque causa o que é referido como “alucinações de inteligência artificial”.
Porque é que os sistemas de inteligência artificial têm alucinações?
Em termos simples, a alucinação da inteligência artificial refere-se a casos de sistemas de inteligência artificial que geram ou inferem informações incorrectas que não existiam durante a recolha de dados de treino. Por outro lado, a incapacidade de resolver as alucinações da inteligência artificial pode resultar em problemas como a disseminação de falsidades e a realização de julgamentos tendenciosos, o que pode causar problemas económicos e de segurança. Vamos explicar porque é que os sistemas de inteligência artificial têm alucinações, as suas causas e a sua prevenção.
É provável que os sistemas de inteligência artificial tenham alucinações quando um modelo de linguagem de grande dimensão consegue observar características ou objectos que nunca foram vistos ou que nunca existiram. Isto leva-o a gerar informações de saída incorrectas que não fazem sentido na vida real, mas que, em alguns casos, se baseiam em padrões/objectos percebidos por ele próprio.
Por outras palavras, os sistemas de inteligência artificial têm alucinações quando os modelos fazem afirmações falsas ou dependem de padrões e preconceitos triviais nos dados de treino para produzir ou defender respostas controversas, mas isto ocorre a um nível de complexidade mais elevado.
Causas das alucinações da inteligência artificial
Existem algumas razões fundamentais que explicam as alucinações dos sistemas de inteligência artificial:
Enviesamento dos dados
A maioria dos modelos apresenta dados em falta e/ou amostras de dados de treino incompletas ou que contêm elementos tendenciosos/prejudiciais, porque a inteligência artificial não tem forma de avaliar a justiça ou o preconceito em causa.
Por exemplo, houve casos em que os algoritmos de reconhecimento facial não foram capazes de reconhecer rostos não brancos – este facto foi atribuído a conjuntos de dados de treino que foram compilados com base em tais preconceitos.
Ajuste excessivo
O excesso de informação na base de dados é outra razão pela qual os sistemas de inteligência artificial têm alucinações. Alguns dos problemas relacionados com as redes neuronais identificadas são o facto de, ao aprenderem a partir de padrões neste conjunto de dados limitado, poderem “memorizar” ou “sobreajustar” padrões demasiado ruidosos. Isto, por sua vez, torna mais provável que tenham alucinações quando expostas a entradas diferentes das que encontraram durante o treino.
Acumulação de erros
Pequenos erros ou ruído nos dados de entrada serão ampliados na sua forma hierarquicamente processada e, em grandes modelos de transformadores com alguns milhares de milhões de parâmetros, por exemplo, podem levar à geração de resultados distorcidos ou mesmo fabricados.
Loops de feedback
O problema das alucinações pode mesmo agravar-se em sistemas auto-supervisionados se não for corrigido. Por exemplo, uma inteligência artificial pode criar uma fotografia com base numa rede neural, e um deepfake pode fazer com que outra inteligência artificial acredite que a informação é real.
Possíveis danos causados pelas alucinações da inteligência artificial
As alucinações da inteligência artificial colocam sérios desafios. Eis os seguintes casos que podemos esperar se não forem resolvidos:
Desinformação
A falta de veracidade combinada com a natureza de falsificação da inteligência artificial dos bots significa que as estatísticas falsas e a desinformação podem tornar-se virais e distorcer a capacidade das pessoas de encontrar dados fiáveis. Isto é muito preocupante se os sistemas forem utilizados nos domínios do jornalismo, da educação ou da elaboração de políticas públicas.
Violações da privacidade
Os dados privados sensíveis sobre indivíduos que nunca foram observados podem invadir profundamente a privacidade e corroer a confiança, se esses sistemas forem aplicados às tarefas correspondentes, como os cuidados de saúde, a aplicação da lei, etc.
Danos a grupos marginalizados
Como já foi referido, nos conjuntos de dados de inteligência artificial, os enviesamentos de seleção podem discriminar grupos socialmente desfavorecidos e transformar a justiça social num problema ainda maior.
Riscos para a segurança
As alucinações da inteligência artificial têm informações incorrectas sobre as notas ou guias dos automóveis autónomos ou dos aparelhos de diagnóstico médico, o que pode provocar acidentes, lesões ou decisões médicas erradas, uma vez que esses sistemas de inteligência artificial dependem de informações imperfeitas.
Custos económicos
A falta de inovações e de crescimento resultante da utilização de inteligência artificial alucinante para múltiplas instalações e prestações de serviços pode levar à perda de confiança dos clientes, bem como a uma redução do valor das organizações e instalações associadas. Nem sempre é possível atribuir um valor tangível a estes custos, mas os perigos são demasiado grandes.
Prevenir as alucinações da inteligência artificial
Eis as medidas proactivas que os investigadores tomam para prevenir as alucinações da inteligência artificial:
Grande variedade de dados imparciais
A recolha de conjuntos de dados de treino que não contenham preconceitos ou favoreçam uma secção da sociedade em detrimento de outra ajuda a inteligência artificial a treinar-se bem. As bases de dados públicas têm de ser limpas e verificadas para evitar a disseminação de dados falsos.
Pré-processamento de dados
Medidas como a remoção de observações flagrantes, a anonimização dos dados, a redução de características, etc., podem ajudar a eliminar o ruído e os padrões indesejados dos dados antes de os alimentar com o sistema.
Avaliação do modelo
Os sistemas de inteligência artificial devem ser sujeitos a uma verificação constante utilizando novos conjuntos de dados de avaliação cuidadosamente concebidos para identificar novas alucinações.
Monitorização do modelo
Para explicar uma resposta indesejada da inteligência artificial, mecanismos como cartões de modelo ou declarações de dados podem permitir registar o comportamento da inteligência artificial ao longo do tempo.
Inteligência artificial explicável
Utilizando metodologias como os mapas de atenção e os valores SHAP, é possível compreender porque é que os modelos deram essa resposta, bem como identificar análises simples baseadas em características compatíveis com padrões em comparação com padrões aleatórios.
Implementação conservadora
Os sistemas de inteligência artificial devem ser limitados a domínios específicos e ter uma utilização limitada e controlada, com humanos a supervisionar a utilização até que a inteligência artificial prove ser segura, fiável e duas vezes mais justa no tratamento com os humanos.
Para ajudar a inteligência artificial a continuar a gerar benefícios para a sociedade e evitar o perigo de danos relacionados com alucinações, as organizações devem enfrentar antecipadamente os problemas de qualidade dos dados e dos modelos. Ser cauteloso e responsável para evitar as graves ramificações que podem surgir das alucinações da inteligência artificial e das falácias relacionadas.
Em suma, os riscos de alucinação com a inteligência artificial podem ser controlados se forem implementadas estratégias correspondentes para os atenuar. No entanto, evitar possíveis resultados negativos exige uma observação persistente por parte dos criadores de tecnologia e daqueles que influenciam as mudanças políticas. Só após estas tentativas conjuntas é que poderemos desenvolver um sistema de inteligência artificial que tenha um impacto positivo nos seres humanos, garantindo simultaneamente a sua proteção.
Por fim, preparámos para si as perguntas mais frequentes e as respectivas respostas
O que são alucinações de inteligência artificial?
As alucinações de inteligência artificial referem-se a casos em que os sistemas de inteligência artificial geram informações falsas ou sem sentido, muitas vezes devido à má interpretação de dados ou padrões.
Porque é que os sistemas de inteligência artificial têm alucinações?
Os sistemas de inteligência artificial podem ter alucinações devido a vários factores, incluindo sobreajuste, enviesamentos nos dados de treino e elevada complexidade do modelo.
Quão comuns são as alucinações da inteligência artificial?
As alucinações podem ser bastante comuns na inteligência artificial, especialmente em modelos linguísticos de grande dimensão e ferramentas generativas que não têm restrições quanto aos resultados possíveis.
As alucinações da inteligência artificial podem ser evitadas?
A prevenção das alucinações da inteligência artificial implica a definição de limites claros para os modelos de inteligência artificial, utilizando ferramentas de filtragem e estabelecendo limiares probabilísticos.
Quais são as consequências das alucinações provocadas pela inteligência artificial?
As consequências podem ir desde a disseminação de desinformação até causar danos no mundo real, como diagnósticos médicos incorrectos.
Como é que as alucinações da inteligência artificial afectam a confiança nos sistemas de inteligência artificial?
As alucinações podem minar a confiança na inteligência artificial, uma vez que tornam difícil confiar nos resultados do sistema sem verificação.
Existem exemplos famosos de alucinações de inteligência artificial?
Sim, exemplos notáveis incluem chatbots que geram trabalhos académicos falsos ou fornecem informações incorrectas em interacções de serviço ao cliente.
As alucinações da inteligência artificial ocorrem tanto em sistemas de linguagem como de imagens?
Sim, as alucinações de inteligência artificial podem ocorrer tanto em modelos de linguagem como em sistemas de visão por computador.
Que papel desempenham os dados de treino nas alucinações da inteligência artificial?
Os dados de treino são cruciais – dados enviesados ou não representativos podem levar a alucinações que reflectem esses enviesamentos.
Existe investigação em curso sobre as alucinações da inteligência artificial?
Sim, existe investigação significativa centrada na compreensão e atenuação das alucinações da inteligência artificial para melhorar a fiabilidade dos sistemas de inteligência artificial.