中央政法委机关报法制日报社主办

您所在的位置:首页 > 文学副刊

何时才能以法之名,守住人工智能的底线

2020-03-19 09:11:26 来源:法制日报·法治周末

  

  法律试图规范人工智能的愿景至今还没有成功的迹象。目前主导人工智能伦理原则和准则的仍然是技术界

  丁玮

  人工智能引发的伦理问题,反映的是人类设计、制造、使用和对待人工智能的道德关怀,所关注的是人工智能可能对人类带来的益处和伤害。总的挑战是,如何在享受技术进步带来的好处的同时,能够对其所带来的风险作出充分的反应。

  在人类技术发展史上,平衡利益和风险的需要总是反复发生,一再出现的。但是人工智能以一种全新的、潜在的、大规模的形式对人的工作、生活、教育、社会交往等各个方面产生全面影响,甚至影响如何理解和重新定义人本身。同时,人工智能也促使人们思考:是否应该运用这些新技术去追求提升、超越人类的自身条件?

  为人工智能建立道德准则和边界

  目前,人工智能从用途上大致可分为两类:一类是通过预先设定的程序由自上而下的算法控制的机器人行为;另一类是自下而上的算法,让机器人从过去的经验中学习并不断地修正它的算法,达到自我学习和自我发展的目的。

  无人驾驶汽车、人脸识别、模拟人脑的神经网络模式等,都是后一类人工智能的最新发展。与第一类人工智能需要依赖人类的决策相比,第二类人工智能的发展不依赖于人类设置的程序、控制和干预。因而,从理论上说,此类人工智能的发展将难以被预测和控制。

  人工智能技术在很多领域的应用有益于人类社会。但过去两年间的实践明显地表明,人工智能的发展可能会有许多意想不到的后果,更不用说可能被用于反人类的目的。

  人工智能被滥用或者失去控制,无疑与人工智能服务于人类的目标背道而驰,不仅为人类未来命运带来不确定性,也增大了安全隐忧。因此,为人工智能建立道德准则和边界是引起业界和学界广为关注和讨论的热点问题。

  宣言和倡议中的人工智能伦理原则

  近两年来,全球发布了数量可观的关于人工智能伦理原则的宣言和倡议。其中,普遍认可的原则包括透明度、平等(非歧视)、责任、安全、隐私等内容。

  因为人工智能技术如此深刻地对人类产生影响,人工智能的研发人员应该负有道德义务向公众保持一定的透明度。尽管有人担心,将人工智能释放给公众可能有害,但美国电气和电子工程师协会(Institute of Electrical and Electronics Engineers,简称IEEE)致力于在多个层面为用户提供开放资源和透明度服务。2019年6月26日,欧盟人工智能高水平专家组公布的《值得信任的人工智能政策和投资建议》,认为欧盟国家人工智能研究竞争力来自于保持开放、透明度和创新。

  伴随着真实社会中的偏见和不平等,算法偏见被算法操作者植入人工智能系统中。在人脸识别、声音识别等系统中,随处可见算法偏见。随着机器学习技术扩展到医学和法律等关键领域,机器学习中的偏见问题可能会变得更加严重。鉴于这种情况,谷歌、IBM等大公司在自己的人工智能原则中将公平作为重要原则,并开始在实践中搜寻和定位算法偏见。

  安全与责任是人工智能发展的核心原则。与之相关联的原则包括可靠性、控制性等。人工智能不能对人造成伤害,这是基本的、也是终极的原则。虽然人类尚不能预见人工智能超出人类控制的情形,但在理论上存在这样的可能性。因此,人工智能的研发终究要以安全为本位。

  2019年5月,《人工智能北京共识》(以下简称《北京共识》)发布15条原则,从研发、使用、治理三方面规范人工智能。

  在研发方面,《北京共识》提倡要有益于增进社会与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现多样性与包容性,尽可能地惠及更多人,对潜在伦理风险与隐患负责,提升技术水平控制风险,共享人工智能发展成果。在使用方面,提倡要善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的变化。在治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持沿着对社会有益的方向发展。

  除《北京共识》外,有的倡议从更为抽象的层面表达人工智能的伦理原则,还有倡议认为,人工智能的最高原则是安全可控;其创新愿景是促进人类更加平等地获得技术能力;人工智能存在的价值是教人学习,让人成长,而不是取代人,超越人;人工智能的终极理想是为人类带来更多的自由和可能。

  就具体公司而言,英特尔公司的人工智能原则包含了促进创新和开放发展,创造新的人类开发机会和保护人的福祉的理念;谷歌的人工智能原则表明人工智能要有利于社会。

  规范人工智能目前主要依赖行业自律

  以上全球人工智能伦理原则各有侧重,不尽相同,但又有共同的特点。根据算法观察的统计分析,关于人工智能伦理原则的文件大多是在2018年和2019年发表的。可见,人工智能伦理是近两年引起全球高度关注的问题。且许多倡议的发起者多为技术界、学界联盟或机构,大多采取声明的形式,属于行业自律性质。

  法律试图规范人工智能的愿景至今还没有成功的迹象。目前主导人工智能伦理原则和准则的仍然是技术界。脸书的行政总裁马克·扎克伯格曾在美国国会就减少网络仇恨言论作证时宣称,脸书将承担更广泛的责任,制定前瞻性的针对内容的政策。

  其中,人工智能的使用是这一模式的基石。这一声称引发了人工智能局限性的争议,诸如提前删除内容缺乏透明度、算法歧视、仇恨言论涉及价值判断,以及如何应用人工智能的伦理原则和规范等。然而,国会议员对其没有足够的理解,以至于不能对扎克伯格的人工智能技术提出有效反对。挑战不熟悉的事情几乎是不可能的,这也是脸书不再等待最高法院而是自己决定人工智能应用规则的原因。

  然而,目前的人工智能伦理原则缺乏内部执行或治理机制。伦理原则仅是宣言式的倡议或承诺,缺乏具体程序和规则。当企业和其他组织承诺遵守道德准则,而不建立任何治理机制时,我们当然有理由认为,它们只是在做做样子。在技术乐观主义和巨大现实利益的裹挟下,未来人工智能领域,法律的作用会非常重要。

  (作者系哈尔滨工程大学人文社会科学学院副教授)
 

责编:王硕

关于我们 | 诚聘英才 | 广告征订 | 本站公告 | 法律声明 | 报纸订阅

版权所有 Copyrights © 2014-2019 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1 京报出证字第0143号

京公网安备 11010502038778号