蚂蚁集团三项可信AI实践方案入选中国信通院标杆案例
8月17日消息(邵忱)中国信息通信研究院主办的“2022可信AI峰会”在京举行。会上公布了“2022年可信人工智能实践案例”评选结果,蚂蚁集团共有三项可信AI实践方案入选标杆案例。
蚂蚁集团入选的三项标杆案例,分别是基于可信AI技术支撑的“蚂蚁可解释机器学习平台FinINTP”、“蚂蚁可解释AI的安全风控实践”及“蚂蚁AI安全检测平台”。
图:蚂蚁集团三案例入选中国信通院“2022可信人工智能实践案例”标杆案例
近年来,安全和可信性已成为制约下一阶段人工智能技术发展的瓶颈所在。早在2017年,国务院《新一代人工智能发展规划》中,就重点提及人工智能的安全可信性。今年5月起,中国信通院面向全社会征集2022年可信人工智能实践案例,最终选出35项优秀案例、13项标杆案例,为行业开展可信AI应用工作提供了示范指引。
当下,AI越来越多参与到重要决策中,它的思考不能是“黑盒”。蚂蚁集团自主研发的“蚂蚁可解释机器学习平台FinINTP”,结合规则学习、机器学习等技术,不仅实现了智能风控等多种场景的可解释模型和规则建设,还开发了多种基于扰动的可解释器和基于梯度的事后解释器,可实现对批量异常风险要素的提前感知。
蚂蚁集团基于可解释AI的安全风控实践,沉淀了一套可解释AI系统。该系统采用基于特征、基于模型到基于逻辑的分布式可解释框架,将百万量级预测样本的可解释计算速度提高100倍以上;同时通过人工经验和机器学习交互结合的方法,确保AI决策结果的天然可解释。目前,这套系统已在蚂蚁智能风控、投诉审理,反洗钱等场景应用。
如何提高AI的鲁棒性,即抗攻击对抗能力及稳定性,以应对复杂多变的数据环境,也是可信人工智能的重要议题。此次入选标杆案例的“蚂蚁AI安全检测平台”,是业内首个面向工业场景全数据类型的AI安全检测平台。该平台可自动化评估不同数据和攻击类型的AI安全风险,并提供安全性增强方案,将于9月免费对外开放鲁棒性测评,并将持续增加可解释性、算法公平性、隐私保护的检测能力。
清华大学副教授李琦表示,人工智能可信问题广受学术界和工业界关注,AI可解释性是实现可信AI的关键技术,但目前行业探索较多停留在理论层面,缺少通用的可解释框架。蚂蚁集团在可信AI技术领域上的创新应用,为可信人工智能技术的发展提供了更加广阔的思路。
公开资料显示,蚂蚁集团自2015年起投入可信AI技术研究,2016年全面启动人工智能风控防御战略,目前已在反欺诈、反洗钱、反盗用、企业联合风控、数据隐私保护在内的多个场景落地,形成了新一代智能风控体系“IMAGE”,支撑全风险域的防控。