【老外谈】我们需要对人工智能采取预防性措施

来源:中国日报网
2018-05-15 10:57:03

对于任何一个国家的政策制定者而言,不论可用的数据有多么不完美,作出决策的最佳方式都是基于证据之上。但是,当证据缺乏或者根本不存在时,国家领导人们应该如何做呢?这就是那些不得不应对“高级预测算法”带来负面影响的人们面临的窘境。所谓“高级预测算法”,是一种关于机器学习和人工智能的二进制构建模块。

在学术圈里,关注人工智能的学者不是“奇点主义者”就是“现代主义者”。前者认为虽然人工智能会对人类构成一定威胁,但总体而言利大于弊;后者关注新技术的公平性、可追责性和透明度,譬如,他们担忧自动化将对劳动力市场造成何种影响。

基于目前的研究结果,不存在“可供使用的真相”来支持两者中任何一方的观点。显然,世界需要一个新的框架来分析和管理人工智能造成的技术扰动。

当前,绝大多数关于人工智能的决策都发生在“北半球”,这使得欠发达国家的担忧没有得到足够的重视,管理军民两用技术也变得更加困难。更糟糕的是,政策制定者往往没有考虑潜在的环境影响,仅仅关注对自动化、机器人和机器的人为影响。

而在人工智能领域采取预防性措施,将帮助重新平衡全球政策讨论,在当前被企业利益垄断的辩论中给予弱者更大的影响力。同时,决策过程也会变得更具包容性、更加深思熟虑,产出更能反映社会需求的解决方案。

此外,通过应用预防性原则,治理机构可以将责任的重担转移至算法创建者的身上。要求解释算法决策过程可以改变诱因、防止“黑箱操作”,使得商业决策变得更加透明,令公共部门在技术研发方面有机会追赶上私营部门。与此同时,通过强迫企业和政府识别和考虑多种选项,预防性原则将会使得此前被忽视的问题,比如环境影响,受到关注。

在算法、机器学习和人工智能领域,人类承受不起等待的代价。预防性原则的美妙之处不仅在于它是建立的国际公共法的基础上,还在于它在各种各样的科学场景里构建了一种管理创新的框架。在进步带来的益处无法众人平等共享时,或者尚未造成不可逆转的伤害时,我们应当欢迎它。

(本文作者为欧洲大学学院跨国管理学院政策问题学者马切伊·库兹穆斯基。)

标签: