人工智能伦理建制进入新阶段 如何实现“嵌入式”治理?
记者/李览青
自2018年上海首次举办世界人工智能大会以来,“人工智能伦理治理”相关内容已连续5年作为重点议题被提及。
在2022世界人工智能大会上,21世纪经济报道记者关注到,共有2022人工智能治理论坛、2022世界人工智能大会法治论坛、亚洲科技伦理治理与可持续发展论坛、智能社会论坛、数字时代的技术责任等至少5个论坛,聚焦人工智能伦理与法治问题。
人工智能产业经过5年快速发展,治理进程如何?下一阶段的AI治理重点在哪些方面?
从关注伦理到落地治理
回顾5年前,人工智能技术的安全应用话题进入大众视野。
在2018人工智能大会上,李彦宏提出“遵循AI伦理”,他认为真正的AI公司不仅在技术层面与AI紧密结合,文化也必须“AI化”。他表示AI的四大原则,分别是安全可控、促进人类平等获得技术能力、教人学习让人成长、为人类带来更多的自由和可能,其中“安全可控”是AI的最高原则。
也是在这一年的人工智能大会上,《人工智能安全发展上海倡议》发布,提出面向未来、以人为本、责任明晰、透明监管、隐私保护、算法公正、和平利用、国际合作等八大方面。
2019年5月,上海国家新一代人工智能创新发展试验区揭牌,明确了建立健全政策法规、伦理规范和治理体系的相关任务。6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》,突出了负责任和开放协作的主题。在2019世界人工智能大会治理主题论坛上,发布了《中国青年科学家2019人工智能创新治理上海宣言》,强调人工智能发展需要遵循的四大责任,包括伦理责任、安全责任、法律责任和社会责任等。
2020年,新一代人工智能技术从“感知智能”迈向“认知智能”,让机器实现理解、推理、决策、可解释的认知智能正在成为AI研究的热点和趋势。在机器智能进一步升级的背景下,如何发展“负责任的人工智能”成为重要议题,在当年的世界人工智能大会上,多个论坛对AI法治、安全、伦理问题进行了集中讨论。
2021年,人工智能治理监管趋严、立法加速已成为大势所趋。
一方面,我国对网络安全、数据安全、个人隐私保护的立法逐步完善。2021年8月,国内首个针对人脸识别的司法解释《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》正式实施;9月,《中华人民共和国数据安全法》实施;同年11月1日,《中华人民共和国个人信息保护法》正式实施;同月,《网络数据安全管理条例(征求意见稿)》发布。全国各地也加快了数据立法、数据交易场所建设的进程。
另一方面,我国进一步推动算法治理,印发《关于加强互联网信息服务算法综合治理的指导意见》,《互联网信息服务算法推荐管理规定》也在2022年3月正式实施。
同样在这一年,科技伦理问题迎来集中治理。
2021年11月,联合国教科文组织大会第41届会议审议通过《人工智能伦理问题建议书》,这是全球首份人工智能伦理问题的全球性协议,呼吁各国政府加快能力建设,推动科技发展,呼吁充分尊重人权与人的尊严,环境保护与可持续性并致力于创建一个公平、包容的社会,呼吁制定人工智能发展路径,并关注人工智能的全生命周期等。
“目前人工智能带来的主要风险不一定是技术的不成熟,而是AI技术的快速发展对伦理和社会文化上的影响已超越了我们的认知。”在2022世界人工智能治理论坛上,联合国教科文组织驻华代表处社会科学及人文科学项目专员洪智伟表示,要减少使用AI技术带来的社会和伦理风险,如加剧不平等现象、隐私侵犯、造成偏见等问题,需要在社会和文化价值观的嵌入治理,亟需进行国际合作,形成多边、灵活的AI治理政策,实现更有预见性的AI治理。
同时,我国科学伦理治理进程也在加速。今年3月,《关于加强科技伦理治理的意见》正式出台,进一步强调要健全科技伦理体制,压实创新主体科技伦理管理主体责任。
“《关于加强科技伦理治理的意见》推动了我国科技伦理建制进入了新阶段。”在亚洲科技伦理治理与可持续论坛上,上海现代服务业联合会会长、原上海市人大常委会副主任郑惠强指出,必须抛弃先发展后治理的模式,而应坚持在规范中发展、在发展中规范的模式,政产学研互通探寻可持续发展议题下的治理新模式。
为进一步建设人工智能产业发展“上海高地”,上海在人工智能立法方面同样充分考虑了AI伦理建制。今年8月30日,在2022世界人工智能大会开幕前,《上海市促进人工智能产业发展条例(草案)》正式公开征求意见,其中提及设立人工智能伦理委员会,提倡创新分级治理,并对开发者伦理进行规范,要求企业合理应用人工智能技术,强化劳动者保护和特殊群体关照。
在“2022世界人工智能大会法治论坛—数字法治:供给和适用”主题论坛上,上海有关部门领导介绍了关于上海人工智能立法考虑的三大重点因素,包括以良法善治引领产业创新与深化改革发展、将相关产业实践经验固化为法律制度条文,促进人工智能技术创新与防范风险相统一等。尤其在立法保障产业安全,加强规范治理方面,上海条例前瞻预判,致力于平衡好产业发展与安全规范之间的关系,在规制的同时,为新赛道、新产业在可控范围内预留出发展空间。
共议“嵌入式”科技伦理治理模式
“随着人工智能技术的创新突破和加快应用,人工智能的治理出现了三大新特点。一是人工智能加速应用,产生了更加复杂多元的治理问题,治理的维度和广度不断拓展。二是正在形成更加体系化的人工智能治理模式,治理的方法和手段日益丰富。三是人工智能治理的国际交流与合作更加活跃,积极推动形成人工智能治理的国际共识和国际机制。” 科技部战略规划司副司长邢怀滨在2022世界人工智能大会治理论坛致辞中指出。
在政府与行业协会的引导下,企业的AI伦理治理提升到了新高度,建立“嵌入式”科技伦理治理体系或是一大方向。
所谓“嵌入式”的科技伦理治理,即在科技创新发生初期,科技伦理就应当有所介入,对新兴科技的发展和风险进行有效干预和管理。
“随着AI产业的爆发式增长,AI领军者们已经开始意识到,在技术投入使用之前,必须把道德切实纳入考量,需要把AI治理原则置于整个部署过程之中。”澳鹏Appen全球高级副总裁、大中国区及北亚区总经理田小鹏指出,如果要部署负责任的AI,就必须要有负责任的数据。澳鹏Appen在全球提供AI训练数据服务已逾26年,田小鹏在接受21世纪经济报道记者专访时提到,机器是对人工劳动力的补充,但机器的训练依然需要大量人力尤其是专家能力的辅助,如何以高质量数据正确地训练计算机,推动计算机学习与发展,是AI治理的一大难点。
上海交通大学凯原法学院院长、特聘教授彭诚信在发言中表示:数字社会中伦理之治的根本还在于人,企业伦理、科技的可信向善,归根结底还是人的可信向善,因此需要完善法律监管、理清法律基本责任,确立人们的行为规范。
为进一步规范“人”在科技伦理治理中的作用,在今年3月发布的《关于加强科技伦理治理的意见》中要求,从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。
目前,国内多家大型企业已深度开展人工智能伦理与治理工作。
在2022世界人工智能大会上,阿里巴巴集团宣布成立科技伦理治理委员会,并引入7位外部顾问委员,强化三方监督。委员会提出“以人为本、普惠正直、安全可靠、隐私保护、可信可控、开放共治”六大科技伦理准则,重点推动算法治理、隐私保护、伦理制度建设等工作,探索相关前沿技术,提升公司整体科技自省和自律的水平。
商汤科技则是在2020年1月统筹推进人工智能伦理治理工作体系建设,在今年发布《“平衡发展”的人工智能治理白皮书——商汤人工智能伦理与治理年度报告(2022年)》。报告指出,当前人工智能治理已进入到以技术验证为主的落地实践阶段。基于此,商汤科技在去年“平衡发展”的人工智能伦理观的基础上,进一步提出了发展“负责任且可评估”的人工智能,并将其作为商汤开展人工智能治理的愿景目标,打造伦理治理闭环。
与本文内容相近的文章: