Planlægning af hændelsesrespons ved hjælp af kunstig intelligens

Med de hurtige fremskridt inden for kunstig intelligens er der en betydelig risiko for fejl. Der er ingen teknologisk udvikling uden fejl, men resultatet af fejlen bør ikke være katastrofal. Fejl med kunstig intelligens kan være baseret på sikkerhed, krænkelse af privatlivets fred eller mangel på gennemsigtighed og ansvarlighed. Virksomhederne skal være parate til at reagere på massive fejl, som kan involvere juridisk bistand.

Hændelsesdatabaser for kunstig intelligens giver indsigt i de forskellige hændelser, der har fundet sted, og vigtigheden af at opdatere dataene. Fejl i kunstig intelligens kan forårsage enorme økonomiske tab og også skade virksomhedens omdømme. Det er her, beredskabsplanerne for kunstig intelligens kommer til undsætning. Hændelsesresponsplanerne er nødvendige, da kunstig intelligens er forskellig fra anden traditionel software.

De inputdata, som den kunstige intelligens arbejder med, er historiske data, så de skal konstant opdateres med tiden. Kompleksiteten i kunstig intelligens, især systemer, der involverer generativ kunstig intelligens eller deep learning, har mange sammenkoblede knudepunkter, hvilket gør det svært at identificere, hvor fejlen er opstået. Mindre unøjagtigheder i systemet kan føre til massive fejl, der påvirker menneskeheden.

Planer for håndtering af hændelser med kunstig intelligens skal indeholde avancerede cybersikkerhedsforanstaltninger, som ligger ud over de traditionelle cybersikkerhedsforanstaltninger, der primært træffes i forbindelse med specifikke trusler som f.eks. databrud.

Her er et par trin, der kan følges for at reagere på hændelser med kunstig intelligens:

Forberedelse

  • Visse politikker og procedurer skal følges for at håndtere en specifik hændelse. Responsen skal definere begrebet og den trussel, det forårsagede, samt de roller og det ansvar, der blev taget for det.
  • Inkluder hændelsen og fejlen, der førte til denne trussel, samt resultatet af det eksterne angreb.
  • Udform politikker og procedurer, der inddrager fejlen i alle faser af modellens eller systemets livscyklus.
  • Igangsæt træning i organisationen for at betjene og udføre politikkerne for at gøre folk opmærksomme på hændelsen.

Identifikation

  • Følg branchestandarderne for at opdage hændelsen.
  • Overvåg platformene for kunstig intelligens for at finde ud af, hvilke skader den kunstige intelligens kan forårsage.
  • Se efter feedback fra forbrugerne eller de organisationer, der bruger den.

Inddæmning

  • Tag skridt til at afhjælpe den umiddelbare skade, sæt derefter driften på pause, og led efter backup til at tackle situationen.
  • Følg proceduremæssige anvisninger for at evaluere hændelsen, da den ellers kan forårsage alvorlige skader.
  • Forsøg at udbedre tekniske fejl, som ingeniører har identificeret, for at minimere den skade, de forårsager.

Udryddelse

  • Fjern det system, der forårsagede hændelsen, og udfør ikke nogen opgradering af systemet, før det er gennemgået, og der er givet feedback om, at der ikke vil forekomme yderligere hændelser med systemet i fremtiden.
  • Udfør dokumenterede test i det gennemgåede eller udskiftede system, især de systemer, der førte til hændelsen.

Genopretning

  • Det reviderede system skal hærdes før ibrugtagning.
  • Benchmark det udskiftede system og output, før der udføres yderligere udvikling eller opgradering.

En af de bedste måder at afbøde skader på grund af kunstig intelligens er at inkludere tværfaglige teams i organisationen. Risikomanagere kan spille en vigtig rolle i koordineringen mellem teknologer og jurister, som kan hjælpe os med at mindske sådanne tab.