日前,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》(以下简称《意见》),中国科技伦理治理顶层设计与治理体系又迈出关键一步。作为国家层面科技伦理治理的第一个指导性文件,体现了我国加强科技伦理治理的坚定决心。《意见》涵盖了哪些主要内容?旷视科技等企业又是如何践行科技向善,发展负责任的AI?
明确科技伦理原则,指明治理工作发展方向
《意见》首先对科技伦理的基本原则作出明确表述,包括增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明等五项,体现出以人为本、兼顾发展与安全的核心理念,为从事人工智能相关活动的各方提供明确的指引。
据了解,旷视是一家聚焦物联网场景的人工智能企业,在2019年发布基于企业实践的《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯和数据隐私保护六个维度对公司开展AI治理工作提出要求。这与《意见》所确立的原则在底层逻辑上是高度一致的。旷视一直以“长期主义的态度、理性的关注、深度的研究、建设性的讨论、坚持不懈的行动”为指导,务实推动AI治理工作的落地。
完善科技伦理治理体制,提出治理工作实施路径
当前,加强科技伦理制度化建设,推动科技伦理规范全球治理,成为全社会的共同呼声。《意见》对健全科技伦理治理体制,加强科技伦理治理制度保障进行条分缕析地说明。《意见》指出,要压实创新主体科技伦理管理主体责任,建立常态化工作机制。
旷视是国内最早成立“人工智能道德委员会”和“人工智能治理研究院”的企业之一,借助这2个公司内部组织统筹AI伦理治理工作,深入开展治理课题研究。在产品研发方面,旷视在产品立项阶段通过风险自评估系统以及专人评审,最大程度降低产品潜在风险。在治理技术上,旷视自研前端图像脱敏方案,更好的践行数据隐私保护。与此同时,旷视积极参与各项国家行业标准的制定,比如《生物特征识别信息保护要求》《人工智能伦理安全防范指引》等。
开展科技伦理教育和宣传,助推治理工作可持续发展
开展科技伦理工作是一项长期工程。《意见》提出,要深入开展科技伦理教育和宣传,从重视科技伦理教育、推动科技伦理培训机制化、抓好科技伦理宣传三方面强化公众对科技伦理风险及应对之道的认识。
为此,旷视充分发挥“内外合力”,对内面向员工开展《AI道德制度培训》,出台《员工信息安全守则》等,持续提升员工伦理治理素养。对外,在产品使用说明书之外增加《正确使用人工智能产品倡议书》,倡导客户和合作伙伴共同关注和践行人工智能治理。从2019年起,旷视连续三年发起“全球十大人工智能治理事件”评选,吸引众多产学研的行业专家和关注AI伦理治理的大众参与。通过多元交流,一起推动AI伦理治理工作稳步向前发展。
在中国科技伦理治理建设的新发展时期,旷视将一如既往发展负责任的 AI,为人们创造向上向善的正向价值,推进AI更好地造福大众。