利用人工智能制定事件响应计划
随着人工智能的飞速发展,失败的可能性也很大。没有不失败的技术发展,只是失败的结果不应该是灾难性的。人工智能的失败可能集中在安全、侵犯隐私或缺乏透明度和问责制等方面。公司必须做好应对大规模失败的准备,这可能涉及法律援助。
人工智能事件数据库可以让人们深入了解已发生的各种事件以及更新数据的重要性。人工智能故障会造成巨大的经济损失,也会损害公司的声誉。在此,人工智能事件响应计划可以提供帮助。由于人工智能不同于其他传统软件,因此有必要制定事件响应计划。
人工智能工作所依赖的输入数据是历史数据,因此它们需要不断随时间更新。人工智能的复杂性,尤其是涉及生成式人工智能或深度学习的系统,有许多相互关联的节点,因此很难确定错误发生在哪里。系统中的微小误差就可能导致影响人类的大规模故障。
人工智能事件响应计划需要采取先进的网络安全措施,这超出了主要针对数据泄露等特定威胁采取的传统网络安全措施。
以下是人工智能事件响应可遵循的几个步骤:
准备工作
- 必须遵循某些政策和程序来应对特定事件。响应必须定义术语及其造成的威胁,以及为此承担的角色和责任。
- 包括导致该威胁发生的事件和错误,以及外部攻击的结果。
- 在模型或系统生命周期的所有阶段,制定涉及故障的政策和程序。
- 在组织内开展操作和执行政策的培训,让员工了解事件。
识别
- 遵循行业标准检测事件。
- 监控人工智能平台,找出人工智能可能造成的损害。
- 从消费者或运营机构处寻找反馈。
遏制
- 采取措施处理直接损害,然后暂停操作,寻找后备力量来处理这种情况。
- 按照程序指示对事件进行评估,否则可能会造成严重损失。
- 尝试从技术上修复工程师发现的问题,将其造成的危害降至最低。
根除
- 移除导致事故的系统,在对系统进行审查并得到反馈表明该系统今后不会再发生事故之前,不要对系统进行任何升级。
- 对已审查或更换的系统,尤其是导致事故发生的系统,进行有记录的测试。
恢复
- 修订后的系统应在部署前进行加固。
- 在进行任何进一步开发或升级之前,对被替换系统和输出进行基准测试。
减轻人工智能造成的损害的最佳方法之一是在组织中加入跨学科团队。风险经理可以在协调技术专家和法律专业人士方面发挥重要作用,帮助我们减少此类损失。