数字技术的指数级增长推动了第四次工业革命。毫无疑问,数字技术将驱动医疗卫生的变革,并具有提升全球人口生命质量的潜能。当下数字医疗的发展已经远超伦理和规制框架的发展,而后者是确保技术合理使用的重要基石。
为此,我们需要在对数字医疗技术本身进行深入了解的基础上,讨论其应用中所引发的伦理学问题,并结合现有框架完善对数字医疗的治理,引导数字医疗有序发展和合理应用。结合现有对数字医疗的研究,笔者梳理出当下数字医疗应用中的6项伦理学挑战。
第一,隐私问题。数据的指数级增长、数字关联机会的增多,使得数据完全匿名化已成为幻想,保护隐私无疑将成为一项复杂的挑战。例如,保险公司可以通过大数据和数据关联获得个人隐私信息,评估个体的健康风险,以此提高保额或拒保。在以商业保险为主的国家中或在大力推广商业保险的政策之下,这将会对人群造成巨大的潜在负面影响。
第二,数据安全。数据安全是与隐私有关的另一项伦理挑战。患者的病历资料在黑市的价格并不低于信用卡信息,数据泄露和索要赎金的黑客攻击逐渐增加。2016年非营利性医疗组织MedStar Health所属的10家医院遭受勒索软件攻击,电子病历系统和邮件系统完全瘫痪,对方要求医院支付比特币以恢复这些系统,其间,一些癌症患者的放疗被迫中断。我们不难想象数据安全对于个人、机构和国家的重要性。因此,必须通过立法、政策和技术手段来确保数据安全。
第三,知情同意。数字医疗可能会削弱个人自主性,削弱个人对数据的控制。一些医疗健康类软件的用户协议长达数十页,协议的“签署”成为使用该软件的必要条件。用户独立阅读协议并理解其中的关键信息似乎是不现实的,且协议制定的出发点更多是出于企业的自身利益,而非患者的利益。如果这些软件是某些患者的必备软件,如病情监测,对自愿同意构成的压力必将增加。此外,当数据收集和存储用于研发时,难以预知未来所有的使用场景和目的,因此不太可能通过明确充分的知情同意获得个人信息。个人是否有权利仅使用软件,而拒绝企业/医疗机构将自己的信息用于研发是目前争论的焦点问题之一。
第四,责任认定。自动数据挖掘和机器学习在临床和公共卫生决策上的应用逐渐增加,如AI临床辅助诊断、治疗决策、手术机器人以及疫情监测和预测等,这些应用使责任认定成为数字医疗中极为重要的伦理和法律问题。当前这些技术更多是作为人类的辅助工具,但总有一天它能够脱离人类监控开展独立工作。这些AI技术的发展可能会提升疾病治疗和预防的效果,但与此同时,医务人员干预AI决策的能力将被削弱。当出现问题时,如误诊或错误判断疫情时,追究个体医务人员或公共卫生工作者的责任将更加复杂。
第五,信任。信任是所有利益攸关方从数据医疗中获益的基础。公众信任对于健康医疗数据的使用至关重要。值得信赖的数字医疗不只是需要隐私保护,除此之外还应包括透明、负责、利益分享以及数据所有权和数据控制等要素。企业、医疗机构和政府必须意识到,赢取公众信任必定要从多方面进行努力。
第六,公平问题。尽管数字医疗在一定程度上能降低医疗成本,但与此同时也可能加剧个体之间的不平等。数字医疗中不少功能都需要通过智能手机或可穿戴设备实现,但对于偏远地区或低收入人群,他们可能难以承受这些智能设备的价格,或缺少使用这些设备的指导,而这些都会影响他们能否从数字医疗的发展中受益。并且,当数字医疗技术代替某些现有医疗过程时,这种可及性的问题也许会加剧,对该人群的健康造成更深远的负面影响。此外,无论是算法设计者有意无意引入的偏见,抑或是机器学习过程中获得的偏见,都可能引发算法歧视,降低脆弱人群的医疗可及性,增加医疗的不公平性。
总体而言,当前我们对数字医疗领域中伦理和治理问题的研究还远远不够,还需要有更多的利益攸关者参与到对这些问题的讨论之中,促进数字医疗伦理框架和治理框架的形成和完善,引导技术的合理发展,提升个体和人群健康。