旷视联合中信所发布AI治理报告,探索负责任AI实践路径
人工智能是新一轮科技革命和产业变革的重要驱动力量,为促进人工智能健康发展,我国相继发布《新一代人工智能治理原则》《新一代人工智能伦理规范》等文件,明确提出发展负责任的人工智能。企业作为技术创新应用的关键主体,将负责任理念融入人工智能基础研发到应用的全生命周期,既是人工智能企业树立“科技向善”理念、实现可持续发展的重要表现,更是构建多元共治的人工智能治理体系的需要。
今天,旷视联合中国科学技术信息研究所(简称:“中信所”)发布了《企业负责任的人工智能实践》报告。经过近一年的研究,双方从国内外企业负责任的人工智能实践现状出发,探索企业开展人工智能治理应具备的责任框架和行动路径,推动企业自觉践行负责任的人工智能理念,使之成为企业、行业和经济社会可持续发展的内生动力。
企业负责任的人工智能概念和框架构建
【资料图】
负责任的人工智能属于人工智能伦理治理的重要内容,要求人工智能活动不仅满足法律规范的底线,也要符合社会的伦理期待。它是一种在管理、研发、供应、使用人工智能时综合考虑伦理、法律、文化和社会经济等影响的动态治理框架,包含可信、公平、非歧视、决策自主等多种伦理原则,在实践中根据政府、企业、研究机构等不同主体的目标定位而采用不同的实施机制。
企业负责任的人工智能治理理念与企业社会责任密切相关。环境、社会及公司治理(ESG)不仅能展现企业履行社会责任的情况,也是衡量企业负责任的人工智能实践状况的重要标准。“AI+ESG”使得负责任的人工智能由外在要求转化为企业治理内生动力。企业负责任的人工智能具有双重目标,一方面以合法合规经营为基础,防范人工智能研发应用风险,促进企业自身发展;另一方面,推动环境、社会和经济的可持续发展,增进人类福祉。
以我国相关政策文件、国际组织发布的共识性规范文件为依托,以实现企业自身发展与增进社会福祉为目标,企业负责任的人工智能实践框架可从三个层次进行设计。一是人工智能全生命周期的ESG理念,在人工智能全生命周期活动中融合环境保护、社会责任及公司治理三大维度协同增效。二是企业内部多层治理设计,包括绿色化的基础设施、负责任的数据使用、负责任的模型设计、负责任的开发部署、负责任的伦理审查以及问责制等。三是内外双循环的治理网络,除了企业内部治理多层设计之外,还需推动形成“政府监管—行业服务—企业自律—公众参与”的协同治理网络。
企业负责任的人工智能实践框架
实践路径:承担共同但有区别的治理责任
在国家人工智能治理原则宏观指导下,企业践行负责任的人工智能既存在普适性、共识性的框架,也受企业具体业务类型、规模大小、治理能力等因素影响,不同企业践行负责任的人工智能的能力和具体路径存在一定差异,承担“共同但有区别的治理责任”。
从人工智能产业链环节看。基础层人工智能企业注重数据收集处理、计算基础设施应用等方面的伦理治理。技术层人工智能企业主要围绕技术研发开展,重点关注研发端强化负责任实践。应用层人工智能企业的业务开展同时聚焦产品的研发和市场化两大阶段,除关注研发端的治理外,还应强化在应用端贯彻负责任理念。
从人工智能全生命周期环节看。研发端企业关注重点包括:(1)数据处理的脱敏机制、被遗忘机制等;(2)算法模型的可解释性、算法影响评估、算法安全测试、算法适用边界、监督审查算法实现过程和结果;(3)建立数据集选择、算法选取等关键决策的记录和回溯机制。人工智能产品生产商关注重点包括:(1)为用户提供解释算法结果的服务,针对不同背景知识和要求的用户提供常识性与个性化定制相结合的解释;(2)针对人工智能产品或服务的使用建立日常监测机制。使用人工智能产品和服务的企业,主要从以下四方面开展治理:(1)坚持决策自主可控,不盲目依赖算法决策结果;(2)坚持善意使用相关产品及服务,不违规恶用;(3)主动反馈使用人工智能产品与服务过程中发现的技术安全漏洞、伦理风险等问题;(4)积极学习人工智能相关知识,提高使用能力。
从企业规模大小和资源能力水平看。人工智能领军企业、中小企业和初创企业可以采取“规定动作”(在遵守法律法规、监管政策、行业自律规范等基础上,开展治理实践)与“自选动作”(重构一套完整的负责任治理战略和组织架构,或采用渐进式治理模式,以将伦理原则纳入商业伦理制度和日常运营)相结合的方式开展负责任的治理。
企业践行负责任的人工智能的一般路径
旷视致力于发展负责任的人工智能,坚持人工智能向善向上
目前,国内外人工智能企业纷纷围绕负责任的人工智能开展治理实践。一直以来,旷视致力于发展负责任的人工智能,以“长期主义的态度、理性的关注、深度的研究、建设性的讨论和坚持不懈的行动”为指引,务实推动负责任的人工智能治理落地,促进企业及行业可持续发展。一是建立组织管理架构。旷视搭建了以人工智能道德委员会和人工智能治理研究院为核心,研发学术、产品工程、客户渠道、公司运营共同参与的组织结构,推动人工智能治理在公司落地。二是制定制度规范。2019年旷视在业界率先公布基于企业自身管理标准的《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正向有序发展作出明确规范。三是注重全流程治理。基于人工智能治理特点,优化产研集成产品开发流程,在多个关键阶段嵌入伦理风险、个人信息影响评估,并开发了面向产品人员、技术人员、客户等不同角色的治理评估工具。搭建与客户充分交流的“Know-Your-Customer”客户管理流程,在合同签订、产品运维等过程中向客户和合作伙伴积极倡导《正确使用人工智能产品倡议书》《人工智能技术合规应用指引》等文件。四是开展治理技术研究和落地。旷视自主研发的前端图像脱敏方案,是业内率先实现在采集端完成图像的不可逆脱敏,且脱敏数据仍可用于算法调优升级的创新技术方案,从数据源头消除个人信息泄露风险。五是参与行业共治。旷视作为主要单位参与《网络安全标准实践指南——人工智能伦理安全风险防范指引》《生物特征识别信息保护基本要求》《机器学习算法安全评估规范》等多项国家和行业标准规范的制定。连续三年在全网发起“全球十大人工智能治理事件”评选,共同探讨人工智能治理实践方向。
旷视负责任的人工智能治理实践
负责任的人工智能:企业发展的内在动力和行业可持续发展的共同愿景
发展负责任的人工智能作为世界主要人工智能国家和国际组织共同的治理愿景,越来越受到重视。未来,企业负责任的人工智能将呈现出五大趋势:一是负责任的人工智能治理将与ESG进一步融合。将人工智能系统的透明度、可解释性等数据、算法治理指标纳入ESG评价体系中,能够建立负责任的人工智能客观衡量标准,更好地建立用户信任,推动企业可持续发展。二是以技治技的源头治理将进一步强化。加强人工智能安全可信、隐私保护等技术研发,做好技术检测与故障应对,是进一步强化人工智能伦理治理和风险防范的技术支撑,实现源头治理的重要举措。三是全生命周期交叉治理将进一步完善。随着技术的发展,企业内部和产业链各环节之间的联系将更加密切,以完备的组织架构、人员、流程及工具形成人工智能技术全生命周期的一体化治理。四是领军企业治理将进一步带动行业实践。通过领军企业先行探索,带动众多缺乏治理体系和治理能力的人工智能初创企业、中小企业进行负责任的人工智能治理实践,最终实现整个行业的健康发展。五是负责任的人工智能生态将进一步塑造。企业实现负责任的人工智能目标需要多方协同共治,政府、行业、智库、公众等多主体将结合自身发展,运用政策法规、伦理规范、技术标准手段等多种方式,对人工智能进行积极引导、风险控制和源头治理。