Planification de la réponse aux incidents à l’aide de l’intelligence artificielle

Avec les progrès rapides de l’intelligence artificielle, le risque d’échec est important. Il n’y a pas de développement technologique sans échec, mais le résultat de l’échec ne doit pas être désastreux. Les échecs de l’intelligence artificielle peuvent concerner la sécurité, les violations de la vie privée ou le manque de transparence et de responsabilité. Les entreprises doivent être prêtes à réagir à des défaillances massives, ce qui peut impliquer une aide juridique.

Les bases de données sur les incidents liés à l’intelligence artificielle fournissent des informations sur les différents incidents qui se sont produits et sur l’importance de la mise à jour des données. Les défaillances de l’intelligence artificielle peuvent entraîner d’énormes pertes financières et nuire à la réputation de l’entreprise. C’est là que les plans de réponse aux incidents liés à l’intelligence artificielle viennent à la rescousse. Les plans de réponse aux incidents sont nécessaires car l’intelligence artificielle est différente des autres logiciels traditionnels.

Les données d’entrée sur lesquelles l’intelligence artificielle travaille sont des données historiques et doivent donc être constamment mises à jour. La complexité de l’intelligence artificielle, en particulier des systèmes qui font appel à l’intelligence artificielle générative ou à l’apprentissage profond, comporte de nombreux nœuds interconnectés, ce qui rend difficile l’identification de l’endroit où l’erreur s’est produite. Des imprécisions mineures dans le système peuvent conduire à des défaillances massives affectant l’humanité.

Les plans de réponse aux incidents liés à l’intelligence artificielle doivent prendre des mesures de cybersécurité avancées qui vont au-delà des mesures de cybersécurité traditionnelles qui sont principalement prises pour des menaces spécifiques telles que les violations de données.

Voici quelques étapes à suivre pour la réponse aux incidents liés à l’intelligence artificielle :

Préparation

  • Certaines politiques et procédures doivent être suivies pour répondre à un incident spécifique. La réponse doit définir le terme et la menace qu’il a causée, ainsi que les rôles et les responsabilités qui en découlent.
  • Il faut inclure l’événement et l’erreur qui ont conduit à l’apparition de cette menace ainsi que le résultat de l’attaque externe.
  • Encadrer les politiques et les procédures impliquant la défaillance à tous les stades du cycle de vie du modèle ou du système.
  • Mettre en place une formation au sein de l’organisation pour appliquer les politiques et sensibiliser les personnes à l’incident.

Identification

  • Suivre les normes industrielles pour détecter l’incident.
  • Surveiller les plateformes d’intelligence artificielle pour déterminer les dommages que l’intelligence artificielle peut causer.
  • Recherchez les réactions des consommateurs ou des organisations qui exploitent l’intelligence artificielle.

Confinement

  • Prendre des mesures pour remédier aux dommages immédiats, puis interrompre les opérations et chercher des renforts pour faire face à la situation.
  • Suivre les procédures d’évaluation de l’incident, faute de quoi de graves dommages pourraient en résulter.
  • Essayer de résoudre les problèmes techniques identifiés par les ingénieurs afin de minimiser les dommages causés par l’incident.

Éradication

  • Retirer le système à l’origine de l’incident et ne procéder à aucune mise à niveau du système tant qu’il n’a pas été examiné et qu’un retour d’information n’a pas été fourni, indiquant qu’aucun autre incident ne se produira à l’avenir avec le système.
  • Effectuer des tests documentés sur le système révisé ou remplacé, en particulier sur les systèmes à l’origine de l’incident.

Rétablissement

  • Le système révisé doit être renforcé avant d’être déployé.
  • Effectuer une analyse comparative du système remplacé et de ses résultats avant de poursuivre le développement ou la mise à niveau.

L’un des meilleurs moyens d’atténuer les dommages dus à l’intelligence artificielle est d’inclure des équipes interdisciplinaires dans l’organisation. Les gestionnaires de risques peuvent jouer un rôle essentiel dans la coordination entre les technologues et les juristes qui peuvent nous aider à atténuer ces pertes.