人工知能を活用したインシデント対応計画

人工知能の急速な進歩に伴い、失敗の可能性も大きくなっている。失敗のない技術開発はないが、失敗の結果が悲惨なものであってはならない。人工知能の失敗は、セキュリティ、プライバシー侵害、または透明性と説明責任の欠如に基づいて群がることができる。企業は、法的支援を伴う可能性のある大規模な失敗に対応できるよう準備しなければならない。

人工知能インシデント・データベースは、発生した様々なインシデントに関する洞察と、データを更新することの重要性を提供する。人工知能の不具合は、莫大な金銭的損失をもたらすだけでなく、企業の評判を落とすことにもなりかねない。ここで人工知能のインシデント対応計画が救いの手を差し伸べる。人工知能は従来のソフトウェアとは異なるため、インシデント対応計画が必要となる。

人工知能が働く入力データは過去のデータであるため、時間と共に常に更新される必要がある。人工知能の複雑さ、特に生成的人工知能やディープラーニングを含むシステムは、多くのノードが相互に接続されているため、どこでエラーが発生したかを特定するのが難しい。システム内の些細な不正確さが、人類に影響を与える大規模な障害につながる可能性がある。

人工知能のインシデント対応計画では、主にデータ漏洩などの特定の脅威に対して取られる従来のサイバーセキュリティ対策を超えた、高度なサイバーセキュリティ対策を取る必要がある。

ここでは、人工知能のインシデント対応に従うことができるいくつかのステップを紹介する:

準備

  • 特定のインシデント対応に対処するためには、一定の方針と手順に従わなければならない。その対応では、用語とそれが引き起こした脅威、それに対する役割と責任を定義しなければならない。
  • 外部からの攻撃による結果だけでなく、この脅威の発生につながった出来事とエラーも含める。
  • 方針と手順をフレーム化し、モデルまたはシステムのライフサイクルの全段階における障害に関与させる。
  • インシデントを認識するために、ポリシーを運用し実行するためのトレーニングを組織内で開始する。

識別

  • 業界標準に従ってインシデントを検知する。
  • 人工知能が引き起こす可能性のある損害を見つけるために、人工知能プラットフォームを監視する。
  • 人工知能を運用している消費者や組織からのフィードバックを探す。

封じ込め

  • 当面の被害に対処するための措置を講じた後、業務を一時停止し、事態に対処するためのバックアップを探す。
  • 手順を踏んでインシデントを評価する。
  • エンジニアが特定した技術的な問題を解決し、被害を最小限に抑える。

根絶

  • インシデントの原因となったシステムを撤去し、今後そのシステムでインシデントが発生しないことが確認されるまで、システムのアップグレードを行わない。
  • 特にインシデントの原因となったシステムについては、レビューまたはリプレースされたシステムで文書化されたテストを実施する。

復旧

  • 改訂されたシステムは、配備前に堅牢化されるべきである。
  • 更なる開発やアップグレードを行う前に、リプレースしたシステムとアウトプットのベンチマークを行う。

人工知能による損害を軽減する最善の方法の一つは、組織内に学際的なチームを含めることである。リスク・マネジャーは、このような損害を軽減するのに役立つ技術者や法律専門家の間の調整において、重要な役割を果たすことができる。