Planlegging av hendelseshåndtering ved hjelp av kunstig intelligens

Med den raske utviklingen av kunstig intelligens er det en betydelig risiko for feil. Det finnes ingen teknologisk utvikling uten feil, bare at utfallet av feilen ikke blir katastrofalt. Svikt i den kunstige intelligensen kan dreie seg om sikkerhet, brudd på personvernet eller mangel på åpenhet og ansvarlighet. Selskapene må være forberedt på å reagere på massive feil, noe som kan innebære rettshjelp.

Hendelsesdatabaser for kunstig intelligens gir innsikt i de ulike hendelsene som har oppstått, og viktigheten av å oppdatere dataene. Svikt i kunstig intelligens kan føre til store økonomiske tap og svekke selskapets omdømme. Her kommer beredskapsplanene for kunstig intelligens til unnsetning. Planene for hendelsesrespons er nødvendige fordi kunstig intelligens skiller seg fra annen tradisjonell programvare.

Inngangsdataene som den kunstige intelligensen jobber med, er historiske data, så de må oppdateres kontinuerlig over tid. Kompleksiteten i kunstig intelligens, spesielt systemer som involverer generativ kunstig intelligens eller dyp læring, har mange sammenkoblede noder som gjør det vanskelig å identifisere hvor feilen har oppstått. Små unøyaktigheter i systemet kan føre til massive feil som påvirker menneskeheten.

Planer for håndtering av hendelser knyttet til kunstig intelligens krever avanserte cybersikkerhetstiltak som går utover de tradisjonelle cybersikkerhetstiltakene som først og fremst iverksettes ved spesifikke trusler, for eksempel datainnbrudd.

Her er noen få trinn som kan følges ved håndtering av hendelser knyttet til kunstig intelligens:

Forberedelser

  • Visse retningslinjer og prosedyrer må følges for å håndtere en spesifikk hendelse. Responsen må definere begrepet og trusselen den forårsaket, samt hvilke roller og ansvarsområder som er knyttet til den.
  • Inkluder hendelsen og feilen som førte til at trusselen oppstod, samt resultatet av det eksterne angrepet.
  • Utarbeid retningslinjer og prosedyrer som omfatter feilen i alle faser av modellens eller systemets livssyklus.
  • Iverksett opplæring i organisasjonen i bruk og utførelse av retningslinjene for å gjøre folk oppmerksomme på hendelsen.

Identifisering

  • Følg bransjestandardene for å oppdage hendelsen.
  • Overvåk plattformene for kunstig intelligens for å finne ut hvilke skader den kunstige intelligensen kan forårsake.
  • Se etter tilbakemeldinger fra forbrukere eller organisasjoner som bruker den.

Begrensning

  • Ta skritt for å håndtere den umiddelbare skaden, sett deretter driften på pause og se etter backup for å håndtere situasjonen.
  • Følg prosedyreanvisninger for å evaluere hendelsen, ellers kan den forårsake alvorlige skader.
  • Forsøk å utbedre tekniske problemer som er identifisert av ingeniører for å minimere skadene.

Utryddelse

  • Fjern systemet som forårsaket hendelsen, og utfør ingen oppgradering av systemet før det er gjennomgått og det er gitt tilbakemelding om at det ikke vil oppstå flere hendelser med systemet i fremtiden.
  • Utfør dokumenterte tester i det gjennomgåtte eller erstattede systemet, spesielt i de systemene som førte til hendelsen.

Gjenoppretting

  • Det reviderte systemet bør herdes før det tas i bruk.
  • Benchmark det erstattede systemet og resultatene før videre utvikling eller oppgradering.

En av de beste måtene å redusere skader som følge av kunstig intelligens på, er å inkludere tverrfaglige team i organisasjonen. Risk Managers kan spille en viktig rolle i koordineringen mellom teknologer og jurister som kan hjelpe oss med å redusere slike tap.