重点聚焦!标准和规范之外,需要工具和平台把生成式AI治理落到实处
(相关资料图)
生成式人工智能已经成为新一代AI的基础设施,短短几年的时间,大模型已经从2018年的一亿参数,发展到百亿、千亿、万亿的规模。生成式人工智能展现了诸多的能力,甚至带来了一定的智能涌现,但它是一把双刃剑,面临着恶意使用、指令攻击等广泛的安全问题。
4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,提前介入生成式人工智能的管理。4月21日,“生成式人工智能及大模型伦理与治理专题研讨会”在清华大学举行。清华大学计算机科学与技术系长聘副教授、智能技术与系统实验室副主任黄民烈表示,除了标准和规范,需要工具和平台把生成式AI治理落到实处。
黄民烈表示,因为生成式人工智能的低使用门槛,让其面临更高的潜在风险,因此AI治理非常重要。人工智能产业在扩大应用场景的同时,必须要实现数据、算法和应用三个层面的安全可控,并从认知安全、政治安全、社会安全和信息安全等方面进行全面保护。
他透露,近期团队做了一个类别安全的体系,从攻击、防御和检测三个维度进行了资源建设的工作,希望能建立安全性研究的标准和规范,推出安全风险的评估平台,建立可控、可信、可靠的AI系统。在大模型安全分类体系中设定的不安全对话场景,包括犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论等方面。科研人员针对这些安全场景对大模型进行升级,使之具备基本的安全性,能够在遇到安全问题时给予正确的回复策略,不进行判断误导。
黄民烈团队还从防御体系的角度做安全风险评测,形成模型攻防的迭代,就是让模型能防止一些漏洞,也让它的预防能力变得更强,并从更全面的角度对大模型的能力进行综合评价,在中文方面者是非常欠缺的,没有标准和规范。他希望这一系列举措能促进生成式人工智能生态健康发展,推动人工智能研究和应用向更有用、更可信、更安全迈进。
黄民烈还表示,从伦理治理的角度,数字生命也是未来比较重要的方向。
关键词: