Planeamento da resposta a incidentes com recurso à inteligência artificial

Com o rápido progresso da inteligência artificial, existe uma grande probabilidade de fracasso. Não há desenvolvimento tecnológico sem fracasso, apenas o resultado do fracasso não deve ser desastroso. Os fracassos da inteligência artificial podem ser agrupados com base na segurança, em violações da privacidade ou na falta de transparência e responsabilidade. As empresas devem estar preparadas para responder a falhas maciças que podem envolver apoio jurídico.

As bases de dados de incidentes de inteligência artificial fornecem informações sobre os vários incidentes ocorridos e a importância de atualizar os dados. As falhas da inteligência artificial podem causar enormes perdas financeiras e também prejudicar a reputação da empresa. Aqui, os planos de resposta a incidentes de inteligência artificial vêm em socorro. Os planos de resposta a incidentes são necessários porque a inteligência artificial é diferente de outro software tradicional.

Os dados de entrada com que a inteligência artificial trabalha são dados históricos, pelo que têm de ser constantemente actualizados com o tempo. A complexidade da inteligência artificial, especialmente dos sistemas que envolvem inteligência artificial generativa ou aprendizagem profunda, tem muitos nós interligados, o que torna difícil identificar onde ocorreu o erro. Pequenas imprecisões no sistema podem levar a falhas maciças que afectam a humanidade.

Os planos de resposta a incidentes de inteligência artificial têm de tomar medidas avançadas de cibersegurança que ultrapassam as medidas tradicionais de cibersegurança que são tomadas principalmente para ameaças específicas, como as violações de dados.

Eis alguns passos que podem ser seguidos para a resposta a incidentes de inteligência artificial:

Preparação

  • Devem ser seguidas determinadas políticas e procedimentos para dar resposta a um incidente específico. A resposta deve definir o termo e a ameaça que causou, bem como as funções e responsabilidades assumidas.
  • Incluir o evento e o erro que levou à ocorrência desta ameaça, bem como o resultado do ataque externo.
  • Enquadrar as políticas e procedimentos que envolvem a falha em todas as fases do modelo ou ciclo de vida do sistema.
  • Iniciar a formação na organização para operar e executar as políticas para consciencializar as pessoas do incidente.

Identificação

  • Seguir os padrões da indústria para detetar o incidente.
  • Monitorizar as plataformas de inteligência artificial para descobrir os danos que a inteligência artificial pode causar.
  • Procurar obter feedback dos consumidores ou das organizações que a operam.

Contenção

  • Tomar medidas para resolver os danos imediatos e, em seguida, fazer uma pausa nas operações e procurar apoio para resolver a situação.
  • Siga as instruções de procedimento para avaliar o incidente, caso contrário pode causar danos graves.
  • Tentar corrigir tecnicamente o problema, tal como identificado pelos engenheiros, para minimizar os danos causados pelo mesmo.

Erradicação

  • Remova o sistema que causou o incidente e não efectue qualquer atualização no sistema até que este seja revisto e seja dado feedback de que não ocorrerão mais incidentes no sistema no futuro.
  • Efetuar testes documentados no sistema revisto ou substituído, especialmente nos sistemas que estiveram na origem do incidente.

Recuperação

  • O sistema revisto deve ser reforçado antes de ser implementado.
  • Avaliar o sistema substituído e os resultados antes de efetuar qualquer desenvolvimento ou atualização adicional.

Uma das melhores formas de mitigar os danos causados pela inteligência artificial é incluir equipas interdisciplinares na organização. Os gestores de riscos podem desempenhar um papel vital na coordenação entre os tecnólogos e os profissionais do sector jurídico, o que nos pode ajudar a atenuar essas perdas.