金融服务越来越数字化,金融行业正在向在线银行产品和服务的转变,而金融科技(fintech)在银行数字化趋势中起着举足轻重的作用。金融科技依赖于高度自治的算法模型,近些年,由人工智能(AI)驱动的模型已初具规模。整个数字化进程也在影响金融科技公司的风险管理模式。
金融科技面临的独特风险是算法风险。算法(algorithm),是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令。算法代表着用系统的方法描述解决问题的策略机制。算法中的指令描述的是一个计算,当它执行时能从一个初始状态开始,经过一系列有限而清晰定义的状态最终产生输出一个终态。
算法一旦出现故障,金融科技公司将面对各种管理风险、名誉风险和法律风险。为了降低算法风险,金融科技公司应遵循风险管理准则,并围绕透明度、可解释性、安全性和问责制建立框架。现在让我们仔细研究这些原则。
算法必须透明
要求算法具有透明性,是出于双重考虑。一方面美国已经立法,要求在零售客户利益受损时,企业必须解释他们的决策过程为何会导致客户利益受损。对于金融科技公司而言,算法具有透明性能清晰地说明,系统通过算法做出决策,而不是人为做出决策。
另外一方面,增强透明度不仅可以加强人工智能系统内部运行机制,还可以提高其准确性、可靠性和整体性。通过提供有关算法模型的开发、培训和操作,金融科技模型开发人员可以为管理层和监管机构提供数据和决策的准确信息。
如果管理层、监管机构和客户想了解算法的制定原则,透明度可以帮助他们了解算法的数据结构和工作原理。从风险管理的角度而言,增加透明度可以获得各方的信任。
算法必须可以解释
模型解释是相对于黑箱式的机器学习而言的。黑箱式的机器学习让人无法解释为什么某些算法能达到某些成果。而模型解释是连接算法与人类认知的一座重要桥梁。
要了解任何算法,必须从建模角度出发,通过分析多种指标(例如标准化均值差和Shapley值),捕获影响算法的因素。对于技术人员而言,这些指标可以帮助识别算法中存在的偏差,以便及时采取补救措施、进行纠正,改善模型性能,使模型和算法变得可靠。
算法出现歧视(例如针对不同客户有不同定价)会导致重大的声誉和经济损失。就风险管理而言,可解释性解决了算法产生的不利后果。算法可解释,就可以即时纠正偏差,金融科技公司因此可以避免出现算法歧视,从而降低法律风险。同时,金融科技公司应该制定人工智能的使用标准,以清晰的方式记录算法流程的发展。
算法必须安全保存
毫无疑问,黑客对SolarWinds系统的攻击是长期存在的最大网络威胁之一(注:SolarWinds是网络安全管理软件产品,是目前美国使用最广泛的网络安全解决方案)。因此,金融科技公司除了需要遵守金融服务公司的产品安全标准外,还面临着额外的黑客入侵风险。
开发AI驱动的产品,投入成本是巨大的。如果AI项目被窃取代码和算法,则会使金融科技企业损失大量投资。算法一旦被黑客入侵,那么后果是不可估量的。黑客通过更改算法或向系统加载数据来操纵运算过程。对于复杂的黑盒算法而言,即使是很小的数据更改都会使结果产生巨大偏差。在金融科技行业,偏差将产生一系列复杂的后果。
在算法安全性问题上,金融科技企业必须为人工智能产品安全性建立超前的数据标准。风险管理人员在风险评估过程中需要纳入网络安全。同时,他们必须使用防范和降低风险的工具,例如机器学习(即machine learning)、隐私差异性和联盟学习(federated learning),实现全面的风险管理。
算法必须有问责制
许多金融科技产品和服务的算法都会影响客户的利益。因此在开发产品和服务时,技术人员应该确保决策具有一定程度的人工监控、监督和授权。
问责制分两个方面。首先,金融科技公司应该限制算法模型的一些自动决策,对某些算法决策进行人工审批。其次,对于一些金融科技产品和服务,监督的重点应该放在数据的准确性和模型的稳定性上。模型中一旦输入 不准确或不及时的数据,会出现错误的预测和运行结果。保持数据的完整性和准确性是数据工程的关键。同时,要使模型稳定运行,就需要不断人工评估其性能,并用基准进行测试,以即时调整。对于那些决策取决于数据质量和基线算法的模型而言,持续监测是非常重要的。
问责制是在算法的透明性和可解释性的技术基础上,加强人工监控,进一步进行风险管理。
展望未来
目前,各国尚未建立通用的国际和国家算法准则,许多组织已经开发了特定行业的算法标准。从长远来看,先行考虑算法的潜在风险将为金融科技公司创造竞争优势。