中央政法委机关报法制日报社主办

您所在的位置:首页 > 文化历史

新科技战“疫”,公平与正义不能缺席

2020-02-12 21:20:57 来源:法制日报·法治周末

  数字时代的疫情防治没有国界,需要全球各国的合作协助。对前沿科技的有效运用以及相关法律法规的配套运行,对人类早日打赢这场攻坚战颇有裨益


视觉中国  

  申军

  新年伊始,新型冠状病毒肺炎疫情吸引了全球的目光。可以说,这是数字时代背景下的疫情,因此新科技的介入不可或缺。
 

  新科技如何助力抗击疫情
 

  实际上,近年来新科技已在数起地区性病毒的疫情防治中发挥作用,包括应对具有国际影响的公共卫生紧急事件。结合既有的抵御疫情的技术实践以及相关科技的发展态势,诸多新科技手段或可被用于如下情形。

  其一,使用机器人进行消毒杀菌。如果须对搭载因病毒感染者或死亡者的运输工具实施消毒灭菌,或是对存有大量病毒的场所采取同样措施,配备紫外射线装置的机器人可被用来替代人力执行相关任务。这样既可提高工作效率,又可极大减少人员感染的机率。

  其二,使用无人机进行运输及航拍。如果得向疫情严重的街区或社区运送药物及物资,可以选择无人机进行相关投送,这比派出人员驾驶的货车要便捷很多。

  同样,如果某个边远乡村出现疫情但交通闭塞难行,使用无人机运药运货无疑亦是明智之举。另外,使用配有航拍设备的无人机对相关区域进行低空拍摄,以识别特定的街道、房屋乃至人员,所拍照片相较卫星图像的制作成本要低,传输速度要快,且同样具备高分辨率。

  其三,运用人工智能测析新药的有效性。如果要在众多抗病毒的假设性新药中发现最为有效的药物,可以运用人工智能技术来加速对这些候选药物的分析。

  比如,运用基于人的视觉皮层模式而设计的虚拟人脑,可对某种药物在过去如何治疗某种疾病的数百万个相关数据点进行研究。藉由这些信息,虚拟人脑可将其感知的药物有效运作模式用来预测候选药物的潜在效能,并对既有药物的新用途提出建议。不言而喻,此种人工智能技术的运用,与依托于超级计算机的算法息息相关。

  其四,运用算法对疫情的预测提供帮助。如果要对一个前所未有的疫情之发生进行合理预测,运用功能强大的算法来收集、分析海量及多样的数据,堪为一种可资考虑的方法。

  通过使用多种机器学习及自然语言处理的技术,相关算法可以审阅不同国家及国际卫生机构的官方出版物、动物性传染病及植物性病害的追踪报告、航空公司的数据、社交网站的信息、全球的时事新闻等,并依靠超级计算机实时分析数以亿计的数据。

  算法做出的相关自动化预测性结论随后可由专门的疫情专家予以核实。在全球日益城市化及一体化的今天,对前述数据的高速萃取和高效分析,无疑会使事先示警或有病毒疫情的发生成为可能。
 

  个人健康数据与隐私权保护
 

  在了解新科技可以助力抗击疫情的防治之同时,与之相关的法律及伦理问题也值得我们思考及探讨。结合欧盟及法国相关法律及思潮,笔者试就以下两点进行析评。

  首先是“关于健康的数据”。依照欧盟通用数据保护规章(GDPR)第4条中对“关于健康的数据”之定义,该类个人性质的数据是有关一个自然人的生理和精神健康的数据(包括提供健康护理服务),不管是其过去、现在与将来的数据。该类数据揭示了当事人健康状况的信息。

  因此,“关于健康的数据”可以包括三种:一为自然性的与健康相关的数据,比如当事人的疾病、疾病风险、残障、病历、临床治疗、已实现的医疗护理、身体局部或身体物质的检查结果(包含从基因数据和生物样本中获取的信息)。

  二为与其他数据交叉而形成的与健康相关的数据,比如测出的体重与其他如步数、卡洛里摄入值等数据的交叉而构成的数据,以此可以推论出一个人的健康状态或健康风险。

  三为因其用途而变成与健康有关的数据之数据。比如,被用在一个疾病治疗计划中的数据,即构成此类数据。

  一旦相关数据被认定为“关于健康的数据”,根据法国公共健康法典的规定,不同的法律条款可能会因此适用。比如,该法典法律编第1110-4条规定,除去法律明确规定的例外情形,对于任何被医疗机构或医护专业人员治疗的个人而言,其私生活及与私生活有关的信息秘密应当被予以尊重。所有相关医护人员均需受御于职业秘密的法定要求,他们不仅包括直接参与治疗的人员,也包括其他各种介入到治疗过程中的专业人员,甚至包括相关医疗机构或服务组织的全体人员。

  由此可以看出,法国法对必须服从职业秘密要求的医疗专业人员的范围设定很广,以最大程度地实现对相关医患的个人健康数据及个人隐私权的保护。同时,违反职业秘密将会导致对泄密人员的刑事处罚,即可能获刑1年监禁及被处15000欧元的罚金。

  此外,若要在医疗专业人士之间分享相关医患的信息,前述条款规定,相关人员有权利但无义务进行此种信息分享。相关信息只能在直接参与有关医患治疗的专业人员之间分享,并仅严格限于为了治疗协作、持续护理、疾病预防等目的所必需的信息。另外,对于此类信息交换与分享,医患当事人应事先被告知其拥有相应的反对权,并可在任何时刻执行此种权利。

  就商业性转让或开发“关于健康的数据”之事宜,法国公共健康法典法律编第4113-7条明确规定,严禁出于转让或推销数据的目的,创立及使用直接或间接源于医疗处方或信息的文件(即便相关病患被匿名设定),只要藉由这些文件可以直接或间接地辨别出开立处方的医疗专业人士。

  据此,法国医生被严禁向第三方出售其病人的医疗数据,比如向银行或保险公司等,以免造成当事人可能会被歧视性对待。可以推断的是,获得相关资料的银行,可能会对一个有过特定病史的借款申请人强加较短的还款期限和较大的按月还款金额。而获得同样资料的保险公司,则可能会对投保候选人强加更高的保险费率。

  值得一提的是,在欧盟GDPR的法律框架之下,此类属于个人性质的健康类数据原则上不得被传输到欧盟以外的国家或地区,除非一些例外的法定情形。比如,数据接收的目标国亦有被欧盟委员会认可的相关立法,能够提供与现有的欧盟法相等同的对于个人数据的保护。或者,如果欧盟境内的数据传送方与境外的数据接收方签署了欧盟委员会制定的相关标准合同条款等。

  毋庸置疑,这类与健康相关的数据具有高度敏感性,如果被非法传送到欧盟境外,对其的不当或不法使用或会造成不可估量的负面影响。

  结合来势汹汹的新型冠状病毒肺炎疫情,各国当局如何在各自的法律框架下,有效地保存、使用及传输相关医患的“关于健康的数据”,以及因此如何加强对当事人隐私的保护、对此类敏感性数据的保护,严禁此类数据被滥用篡用,将极大地考验各国的法律智慧。
 

  应警惕算法导致的伦理风险
 

  其次是关于算法导致的伦理风险。如前所述,与人工智能相结合的算法或可在健康领域帮助人类研发药物、治疗疾病,但诚如法国国家信息技术与自由委员会(CNIL)所言,算法可能引发偏差、歧视,甚至是社会排斥。

  质言之,算法毕竟是由人类研发,开发者的价值判断必然附着其上,因此它并不像人们通常想象的那么客观中立。更为重要的是,算法的运行依赖于大量的数据资料,因此相关数据采集类别的多样性及完整性与否,对算法作出的相应结论是否公允必有影响。

  就生物学与健康领域而言,一个潜在的与算法有关的伦理问题是:是否人们在面对一种治疗战略时都是平等的?不难想见的是,当一种机器学习算法对新药物的风险因素进行评估时,如果其依据的医疗样本数据具有偏向性,该算法得出的相关结论也势必存有偏颇。

  因此,在对一种新型病毒进行诉诸算法的疫苗研发时,如果能够采集到涵盖的范围更广泛、体现的特性更丰富的病患医疗样本,显然十分重要。只有作出这般努力,才能让算法尽可能在不偏颇、无歧视的基础上运行,而得以研制出一种大众型的、而非个别化的药物。对于在全球范围内防治此种病毒,这显然意义重大。

  最后,需要指出,数字时代的疫情防治没有国界,需要全球各国的合作协助。对前沿科技的有效运用以及相关法律法规的配套运行,对人类早日打赢这场攻坚之战颇有裨益。

  (作者系法国执业律师、法学博士)

责编:王硕

关于我们 | 诚聘英才 | 广告征订 | 本站公告 | 法律声明 | 报纸订阅

版权所有 Copyrights © 2014-2019 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1 京报出证字第0143号

京公网安备 11010502038778号