(图:路透社/Dado Ruvic)
人工智能(AI)和机器学习(ML)正在改变各个行业,从金融、医疗保健到网络安全和供应链。然而,这些发展也带来了巨大的风险 – 道德困境、虚假信息、数据隐私问题以及网络威胁。风险管理专家处于识别、缓解和应对这些挑战的最前沿。这篇文章将探讨风险专家该如何应对AI面临的最大漏洞,并在创新与安全和道德之间取得平衡。
人工智能在维持推动效率和创新的同时,也带来了组织必须有效管理的风险。来自不同行业的风险专家分享了她们如何应对即将浮现的新挑战并塑造负责任的人工智能实践。
令风险专家提高警惕的紧迫风险
Maplecrest Group治理与风险主管Christine Kempeneers分享了令她夜不能寐的AI风险。
“网络安全一直会是重中之重。AI可以增强我们的流程,但威胁行为者同样可以利用它来自动化和扩大网络攻击。AI甚至可以用来制造新型威胁,让本已快速演变的网络风险格局更加复杂。此外,AI系统容易受到攻击,这可能导致数据泄露或系统故障。在AI融入我们的系统和运营时,我们必须对此保持警惕。”
Christine也指出AI偏见的风险,也可能导致歧视性结果。
“例如,一些面部识别系统在识别肤色较深的人时,错误率更高,这会导致误认和潜在的不公正 – 尤其是在执法和安全领域。我们还发现,生成式AI模型生成的刻板印象反映了其训练数据中嵌入的偏见。”
国际SOS数据与技术主管Phuong Tran Le分享了她对人工智能新兴风险的看法。
“如果说在围绕AI做出决策时,没有清晰地了解其优势和局限性,就会产生风险。”
构建更智能的AI风险防御体系
为了应对与AI相关的复杂风险,Christine提倡采用分层集成的方法。从技术角度来看,组织应为AI系统实施强大的安全协议,包括定期漏洞评估、渗透测试和安全的数据处理实践。值得一提的是,AI本身也可以用来防御AI驱动的威胁。
“这为风险团队与网络和信息安全团队合作创造了宝贵的机会,一同制定量身定制的技术控制措施。”她说道。
教育同样重要。“我们需要教育用户了解与AI相关的网络风险,并推广安全使用AI的最佳实践。强调人类判断力和批判性思维的重要性也至关重要。AI是一个强大的工具,但它并非灵丹妙药。”
Phuong则持相反观点,主张以问题为先的方法来应用AI。
“通常,正确的解决方案并非AI — 但如果是,我们会确保采取正确的保障措施。”这包括使用高质量、有代表性的训练数据,并实施最后一道人工监督,以便在AI生成的洞察为决策提供信息之前对其进行审核。”
评估与AI决策相关的风险
在评估与AI驱动的决策相关的风险时,Christine建议从背景入手 — 规划决策流程,并确定AI的参与环节和方式。这包括明确正在使用的具体AI模型、他们所依赖的数据以及它们所支持的决策。
接下来,评估数据和模型至关重要:
- 数据质量:数据是否完整,并且尽可能地避免偏见和不准确之处?
- 模型可靠性:模型是否经过全面测试,以识别漏洞和故障点?
- 可解释性:模型的决策过程是否清晰易懂和能够独立审计?
AI如何重塑风险管理
展望未来,Christine认为AI将在未来五到十年内深刻变革风险管理。一个重大转变是AI在自动化风险评估、异常检测和威胁预测方面的应用将不断增加,从而使风险专家能够更快地做出数据驱动的决策。
“随着AI的发展,我们将看到更多用于持续监控和预测风险分析的专业工具。”
风险专家为“守门人”
AI既能带来变革的潜力,也带来了重大挑战。对于组织而言,强大的风险管理策略不再是可有可无,而是必要的。随着AI的发展,管理其使用的框架也必须同步发展。
风险专家将会继续扮演AI治理守门人的关键角色 — 以确保科技将以负责任、合乎道德的方式部署,并维护安全和人文价值。