以下文章来源于中外法学编辑部 ,作者赵鹏
科技治理“伦理化”的法律意涵
作者:赵鹏(中国政法大学法治政府研究院教授、博士生导师)
出处:《中外法学》2022年第5期
|目录
引 言
一、 科技伦理治理的兴起及其意义
(一)科技治理:从物理风险到社会伦理
(二)科技治理“伦理化”与治理任务的扩容
二、 科技治理“伦理化”给法律提出的课题
(一)反思割裂科技与科技应用的方法论
(二)推动科技治理的适度民主化
三、 法律介入科技伦理议题的挑战
(一)科技与社会关系的不确定性
(二)开放决策考虑维度的难题
(三)伦理立场的多元性与变动性
四、 法律介入科技伦理议题的立场
(一)对科技研发、设计的“上游”进行原则性、程序性规制
(二)更具回应性地规范涉及科技使用的行为
五、 结 语
|摘要
传统上,科技治理主要聚焦健康、环境等物理性风险;但在当代,科技治理开始关注并回应科技对人的主体性、社会交往规则、价值观念的影响等伦理问题,并不断呈现出“伦理化”态势。这要求我们反思将科技与科技使用行为相割裂的方法论,推动科技治理适度民主化、社会化。但这一任务面临科技与社会关系的不确定性、开放决策维度的难题、伦理立场的多元性与变动性等挑战。为应对这些挑战,法律需要警惕技术决定论的思维和行为模式,需要为人类活动面对新兴科技的调适能力提供制度环境。科技治理的伦理化,一方面要求在科技研发、设计等“上游”,设计原则性、程序性的要求,推动伦理考量结构化地嵌入科技研发过程,确保科技研发不仅仅考虑工具性价值,而且关注复合性的科技-伦理探究;另一方面,这也要求法律对“下游”的涉科技使用行为进行回应性规制。通过创造一种科技治理的制度生态,法律可促成技术的工具价值与社会价值体系之间的持续对话和不断调适。
|关键词
科技;风险治理;伦理;法律
|正文
引 言
科技发展在带来巨大社会变革的同时,也引发了人际交互方式的变革,动摇了传统道德观念发挥作用的环境,带来了现实的伦理问题。随着技术不断应用到现实生活场景,过去主要作为理论问题的“科技伦理”,开始进入公共政策的议程。例如,国家科技伦理委员会开始组建;近期,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,明确科技伦理治理的制度框架。伦理议题已经出现“公共政策转向”,即伦理不仅要作为个体层面道德反思的指引,也要成为公共层面政策制定的参考,并形成对科技研发、应用活动有约束力的治理架构。与之相呼应,决策层亦强调要完善相关法律法规、伦理审查规则及监管框架。
就理论回应而言,在一些具体的领域,法学界已经开始关注科技伦理议题与法律的关联。然而,在更为抽象的层面,对于科技伦理治理的兴起对法律提出了何种课题,法律介入科技伦理议题意味着何种挑战、又如何回应等问题,理论界还缺乏系统的分析。本文正是基于这一问题意识,试图论证一个基本命题:科技伦理治理的兴起,意味着科技治理内涵的扩容。这种新的治理需求,给法律带来了某种范式转换的压力,法律需要适当调整规制立场及手段。
一、 科技伦理治理的兴起及其意义
新的科技嵌入社会,总会对既有的人与人、人与社会环境的关系产生冲击,与规范社会活动的法律和政府监管产生连接,引发相应的规范议题。然而,将关注重点置于何处,将形成不同意义的建构,这又会在相当程度上引导甚至规定法律的回应方式。在这个意义上,对科技的治理过去聚焦于对健康、环境的物理性风险,而当下开始叠加更多的社会伦理视角,这种转换值得法律关注与回应。
(一)科技治理:从物理风险到社会伦理
科技是创新的结果,其在投入应用之初,社会无法掌握其全部影响,因而经常会在一段时间后才显现出非预期的损害。上个世纪中期,这些损害(如核电站泄漏、化学物质污染等)引发了社会广泛关注,最终被概念化为“风险”问题,并形成了风险社会理论。
由于保障安全是国家最重要的职能,这种科技风险问题很快引发了政策回应。需要强调的是,风险本身是一个扩展性很强的概念,它可以用来描述所有非预期后果。但是,法律和政策的回应不可能如此泛化,它们关注的核心还是对健康、环境等领域有威胁的、可能影响人类生存物理基础的风险,本文称之为“物理风险”。而且,也正是在这个领域,法律和监管层面形成了相对稳定的规范方式,即以科学性的风险评估为基础建立对风险性质的判定,并根据这种判断采取对应的干预措施(参见表1),理论将其概括为风险规制。
实践中,有关风险规制的法律并不仅仅针对科技,也包括其他人类活动。但是,在现代社会,风险的产生或者放大与科技应用有着密不可分的关系,因此,这些法律从另一个侧面来看,就是有关科技治理的法律。
然而,近年来,科技对人类交互方式的影响日益深远,科技研发、应用产生的隐私、平等、公正等问题也逐步现实化。这些问题用“风险—安全”的概念难以完全囊括,围绕科技伦理的治理架构逐渐兴起。
一方面,围绕科技伦理形成的治理架构不断形成并扩大覆盖范围。关于科技伦理虽然很早便有学术和社会层面的讨论,但是作为一种治理架构,其发展相对较晚。这一治理架构最早出现在生物医学领域。改革开放后,我国生物医学加入全球化网络,国际交流的需要也促使学术界和行业组织引入这套治理机制。此后,这种从伦理上的善出发设计治理架构的经验开始被其他领域所吸收借鉴。以当下受到广泛关注的个人信息保护为例,其源起就是学术界、产业界率先探索的伦理治理框架,这种治理框架后来演化成有广泛影响的公平信息实践(Fair Information Practices, FIPs)。作为其延伸,当下,全球范围内在人工智能领域也已经形成了由政府、行业组织等推动形成伦理准则进行治理的趋势。此外,除了上述具体领域,在整体意义上讨论科技伦理的国际组织也开始组建并发布相应的伦理指导文件。
另一方面,科技伦理治理与国家法律和监管体系开始发生嵌合。上述科技伦理治理架构在早期多属指导性或者自律性。但是,伴随科学技术逐步深入地嵌入社会、经济、政治和文化机理中,其对社会核心价值和利益分配机制的冲击日益深远,国家开始通过法律手段介入,伦理治理日渐与国家法律和监管体系产生嵌合。首先,一些曾经属于社会自我规制性质的伦理治理架构开始被立法确认、强化,开启了法制化的进程。在生物医学领域,伦理原则、伦理审查等被立法引入、确认,从而在一定范围内成为法律的强制要求。近年来,包括我国在内的一些国家推进个人信息保护立法,其诸多内容也可以视为对早期公平信息实践形成的伦理规范予以法律确认与发展。其次,科技伦理日益制度化地影响立法和监管规则的制定过程。越来越多的国家成立专门的伦理咨询委员会,对相关议题进行审议讨论,为立法和监管规则提供咨询建议。这意味着,科技伦理开始制度化地嵌入到法律和公共政策的形成过程中。就我国而言,这种探索发端于生物医学领域。2019年,中央全面深化改革委员会通过国家科技伦理委员会组建方案。由此,相应的机制建设覆盖到更广泛的科技领域。近期,决策层面进一步强调,要加快推进科技伦理治理法律制度建设,及时推动将重要的科技伦理规范上升为国家法律法规。
(二)科技治理“伦理化”与治理任务的扩容
上述发展表明了科技治理的“伦理化”趋势,即科技发展引发的社会争议越来越多地被解释和界定为伦理问题,并在伦理思维的引导下形成治理方案。这种治理架构的特殊意涵,可以在与传统风险规制架构的比较中得以明确。实际上,有研究已经指出,用“风险”和“伦理”两个不同解释框架界定问题,将导致关注重点、信息组织方式的不同,形成不同的意义建构,引导出不同的制度回应。
如前所述,风险可以在非常宽泛意义上用于描述某种非预期的后果。在这个意义上,科技引发的伦理挑战也可以视为一种风险,一些学术和政策文件也的确在这一意义上使用“科技伦理风险”这一概念。实际上,风险社会理论也是在这个意义上使用风险概念。从法律制度设计来看,这种社会学意义上的风险概念,主要功能在于提示关注潜在不利后果,但并无明确的规范功能。按照这个概念,一切均可风险化,因此,其无法作为规则设计基准。
在法律制度中,拥有具体规范功能的风险概念并非如此宽泛。因为,如果强调将风险判断作为决策依据,它就不能是不证自明的,必须能服务于测量和预测。由此,风险概念受到数学、保险、自然科学技术等领域的深刻影响,逐渐狭义化为一个在“科学”能够证实的范围内,量化评价潜在危害的性质、规模,为干预措施提供科学基础的概念。法律重点关注并形成了稳定调整范式的“风险”,就聚焦于前文所称的健康、环境等领域的“物理风险”。传统科技风险治理关注的核心也在这个方面,并以此形成了成熟的风险规制方法。
就科技伦理的讨论而言,其源于科技发展使曾经无可改变的自然基础成为人力可以操纵的领域,这就要求我们回答,如何将科技“能为”(can do)的面向与伦理“当为”(should do)的面向结合起来,形成一种“谦卑的技术”(technologies of humility)。科技伦理更多在描述意义上被使用,并未成为一个精确的法律概念。但从讨论范围来看,它涵盖的范围比物理风险更广。
例如,我国政策层面强调的科技伦理原则,除了包括合理控制风险、尊重生命权利等指向物理性风险规制的原则外,还包括增进人类福祉、公平公正、保持公开透明等更广泛的维度。再比如,涉及人的生物医学研究伦理审查既要保护人的生命和健康,从而有控制风险原则;也要致力于维护人的尊严,从而有知情同意、免费和补偿、保护隐私等原则。
因此,科技伦理治理兴起的意涵在于,科技治理从传统上局限于回应健康、环境等物理层面的直接影响,到开始增加关注并回应科技对人的主体性、社会交往规则、价值观念等相对间接但更加深远的影响。
正是这种新的治理任务要求我们思考是否需要新的制度安排。因此,为了方便比较,下文的讨论将“风险”限定于科技在健康、环境等方面的物理性风险,正是在这个维度,科技治理形成了传统的、相对稳定的规范方式。而本文所称“伦理”问题则主要指向科技对人的主体性、社会交往价值观念等方面的社会性影响,虽然现实的科技伦理讨论包括了物理性风险,但既有理论已经提供了相对完善的解释框架,需要重点关注的是新增加的这部分治理任务。
本文如此定义,核心是为了比较不同治理任务所提出的不同制度需求。现实中,“风险”“伦理”无疑是可伸缩的概念,出于不同目标和语境,会有不同的定义和使用,难免交叉重叠,本文并不否认这些使用的意义。但可以强调的是,实践中不同的概念使用并不会否认下文分析的意义。
例如,在个人信息保护这一涉及科技社会性影响的领域,有理论提出了风险控制的思路,欧盟《通用数据保护条例》(General Data Protection Regulation, GDPR)也引入了基于风险(risk-based)的保护方法。但是,正如有研究指出的,针对在涉及个体尊严、表达自由等领域的“风险”规制,无法套用传统针对物理风险、基于科学分析的风险规制架构:这一领域风险无法量化,而无法量化的风险概念,其意义就不再明显;在这一领域,风险的功利考虑和基本权利的道德边界也难以调和等等。这就说明,即使我们用“风险”来描述科技对社会关系的影响,它所面对的问题性质也和传统物理性风险不同。就此而言,本文从科技伦理治理角度提出的分析同样具有参考意义。
二、 科技治理“伦理化”给法律提出的课题
由于科技伦理治理的框架日益与国家法律和监管体系发生嵌合,决策层也释放了推动科技伦理法制建设的政策信号。理解科技治理“伦理化”对法律提出的新课题,意味着我们需要反思传统上法律介入科技议题的基本立场和方法。
(一)反思割裂科技与科技应用的方法论
虽然传统上法律对科技本身的治理聚焦于其潜在的物理风险,但是,从整体来看,法律并非全然不顾及科技使用带来的其他社会影响,而采取了一种将科技和科技使用行为相区分的规范方式。
对科技本身,法律主要借助风险规制体系评价其工具价值。一项科技能否被法律许可投入使用,判断的核心就是成本效益分析或者说风险收益比这种工具性的标准。其基本逻辑是,如果某项科技能够带来相应的收益,而且其正常使用对一些相关法益如环境、健康、财产等的影响是可以接受的,那么该项科技就应当被法律允许使用。至于说个体是否会“非正常”的使用这些科技,科技大规模部署后人际交互关系又会发生何种实质性的变化等等问题,则并非针对科技规制的法律需要考虑的事项。它们要么由规范相关活动的其他法律调整,要么被交由未来或者其他社会机制调整。
以药品监管为例,对任何新的药品进入市场前的注册申请,法律关注的核心就是安全性、有效性和质量可控性等工具性标准。至于药品使用可能产生诸如药品成瘾、用于运动竞赛者的身体增强等问题,则交由其他法律部门或者其他社会机制来解决。
这种将科技与科技使用行为相割裂的方法,依据的是工具主义的科技观或者说“技术中立”原则。即科技被视为一种中立的、工具性的存在,“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人,人将其置于什么条件之下”。在这种观念下,使用者的责任被强调按照一般规则对人使用科技的目的和实际后果进行调控即可。
科技伦理治理的兴起,在相当程度上是对这种工具主义科技观及由此发展出来的治理框架的修正。科技伦理这一概念本身就承认科技与科技的使用无法截然分离,科技并非价值中立,而是具有价值负载的。人在科技使用中的自主性不应被夸大,不同科技相互嵌入形成的技术结构也会引导甚至设定未来的行为,从而形成一种软性的决定。
具体而言,在这种软性决定机制下,如果法律仅仅着眼于调控科技的使用行为,往往并不能达到预期的目标:其一,科技如何被使用取决于社会结构、文化等非常复杂的因素,法律的调控只能覆盖有限范围。仍然以前述药品监管为例,假设某种创新药品在治疗疾病方面具有某些非常有限的功效,但其更大的功能是令使用者相对其他社会成员获得体能或智力上的竞争优势。可以设想,当其被批准使用后,社会的竞争结构很可能促进技术运用的军备竞赛,使扩散不可避免,从而带来有关维护平等、保护人的尊严等议题。
而且,一旦科技深度地嵌入社会,形成相应的使用文化,再进行矫正就变得十分困难。对此,有技术哲学家就提出了“反向适应”(reverse adaption)的悖论:科技作为方法本应当服务于人的目的,但是,法律制度往往无法有效地矫正技术的使用行为,现实的情况因而往往是人的目的不得不被迫调整以适应既有方法。以数据驱动的算法决策技术为例。最初,该项技术意在形成更智能的决策辅助,将人解放出来,使技术成为人的辅助、人的延伸。但是,当这些技术大规模应用并产生效用后,它本身就成为社会变化的驱动力量。过度收集个人信息、算法对人的支配便成为不可回避的问题,人反而成为技术的延伸。而当生活更多地与技术交织,技术也将更多地影响我们的价值体系、行为规范、利益和文化。
其二,法律规则因应新科技的调整存在时滞,新的科技也很可能改变执法能力和违法成本的对比,因此,仅仅规范个体的使用行为可能面临系统性的失灵。例如,P2P文件分享技术系统性地方便了传播淫秽物品、侵犯版权等违法行为。但是,鉴于执法成本,法律却很难追究技术使用者的责任。最终,在该技术使用形成较严重的社会问题后,执法者不得不在某种程度上放弃了技术中立原则,而在“快播”案中追究技术设计和管理者的责任。尽管该案的刑事责任认定不乏争论,但至少说明,忽视对技术设计和管理者的规范,这样的法律是存在缺陷的。
由此,科技伦理治理的兴起,意味着法律至少在某些场景中需要反思其基本方法,不能完全割裂科技本身和科技的使用行为。
(二)推动科技治理的适度民主化
在传统风险规制的框架下,法律为科技在市场准入、使用条件等方面设定要求,确保科技使用所产生的风险是较低的、可以接受的。但是,这种风险的判断主要是以科学方法和经验证据的应用为基础,使用量化、统计分析等正式工具,对风险的性质、规模、概率等形成尽量精确的判断。
这是一种强调技术理性的规制架构,依赖专家判断,相关讨论也主要在科学框架内展开。在这一过程中,规制决策的科学基础具有关键意义,专家的角色因而举足轻重,其要承担“向权力诉说真理”(speaking truth to power)的责任。因此,这是一种从科学内部出发来寻求科技治理方案的思路。
这种规制框架并不过多考虑科技使用的文化和社会环境,也相对忽略在科学与社会之间建立系统的对话、商谈机制,一直以来都遭到批评。一方面,从风险这一议题本身而言,风险指向非预期的后果,这一概念包含了损害的不确定性,科学本身无法消除这种不确定性。由于相关决策的后果是由社会来承担,不考虑社会观念就难以具备合法性。而从社会的角度来看,风险本身具有社会建构的特征,一定的社会文化背景决定了生活于该社会中的人们是如何认识风险的,有关风险的决策实际上应当是一个社会选择何种生活方式的决策。另一方面,科技具有建构某种社会场域(social domains)的作用,其普及过程将参与建构社会条件,从而强化或者扭曲社会中的参与者看待自身及其活动的方式。这意味着,科技对社会发展和人类行为的影响往往是以难以预测的方式,“我们先是塑造了工具,而后工具塑造了我们”,这进一步导致了仅从“科学”角度评价科技的局限性。
针对这些批评,现行的风险规制架构也在探究改进方案。例如,有理论提出了通过强化规制过程中的公众参与,增强风险沟通。问题在于,风险这一概念已经被赋予太强的技术属性,其概念容量不足撬动更广泛的议题。在这种狭义风险概念的主导下,缺乏科学证据的公众焦虑,往往被描述成对规制过程的误解,对事实的忽视。所谓的风险沟通,也更多是对公众的教育,用于解决公众的非理性问题,技术专家的地位实际上被强化,对科学技术本身的反思变得更加不容易。
由此可见,以技术化的风险概念为基础形成的治理架构,对科技的评价容易被科技自身所主导。在这种单一尺度下,科技容易被塑造成为一种支配方式,排除了其他思考、对话和行动的可能性。就此而言,从伦理角度形成的治理架构,有推动科技研发设计考虑更加广泛的社会价值、从而推动科技治理适度民主化的功能。因为,伦理本身就是呈现社会价值体系的概念。它认可社会子系统存在不同的理性、操作逻辑和参与者的世界观。非科技专家的观点不应视为非理性,即使在潜在损害大小、发生损害的概率等科学维度基本达成了一致,仍然可以开放出辩论的空间。
因此,科技伦理治理的兴起给法律提出的另外一个任务是,要推动有关科技的决策不仅仅依赖专家技术理性,而要求更多地考虑社会价值,即推动科技治理的适度民主化。
三、 法律介入科技伦理议题的挑战
(一)科技与社会关系的不确定性
社会对科技的治理一直面临所谓“科林格里奇困境”(Collingridge’s Dilemma),即在某项科技发展的初期,存在多种方案来引导科技未来的走向。然而,这一阶段存在大量未知问题,不同方案的影响很难评估。在后期,科技的影响逐渐明确,但技术的锁定效应又使得选择十分有限。
科技伦理治理的兴起,意味着仅仅从“下游”科技使用行为进行规制已经不能提供充分的保护,而需要通过恰当的机制引导负责任的科技研发。这势必在反方向上遭遇挑战,即面对大量的不确定性,法律如何提出和证成其规范性要求。
这种“面向未知而决策”的问题亦是风险规制的主要挑战,但其解决方案却不能被科技伦理治理所照搬。在回应健康、环境等物理性损害问题时,由于科技本身是通过作用于物理世界而产生作用的,这些风险是可以借助科学方法评价的。尽管这种评估不可避免地存在不确定性,法律仍然可以通过程序的规范来尽可能有效利用既有知识,减少或者至少掌握不确定性的范围。
然而,科技伦理治理需要评价科技的社会性影响,由于科技创新广泛地嵌入社会机制和政治安排之中,社会对待技术的使用方式又是持续变动的,故很难像风险规制那样,基于预测评价而采取规制措施,因为这需要一种能够准确考虑非常复杂变量的超级理性,而这在现实中是不存在的。
(二)开放决策考虑维度的难题
传统上,法律制度对社会问题的回应,往往是基于某些关键视角的、有限度的回应。它通过将决策需要考虑的要素限定于一些法定要件,构建一个相对独立于外部环境的“隔音空间”,确保决策能够及时且依照可预见的方式做出。
科技伦理指向科技的社会性影响,势必牵涉出非常广泛的考虑维度。以生命伦理为例,除了获益与伤害、环境与生物多样性影响等与传统风险考虑有重叠的维度外,其关注的议题还涵盖人的尊严、自主、隐私、平等与非歧视、利益共享等更广泛的维度。这些不同考虑之间存在很多复杂的、经常冲突的面向,很难提炼出可以普遍适用的、稳定的决策要件。
例如,从经常被使用的从“尊重人”或者“人性尊严”这个原则出发,既可能得出应当尊重人的理性,从而尊重其自主决策的面向;也可能得出防止人被利用、操纵而工具化,而需要适当父爱主义干预,限制其自主决策的面向。很多决策都需要在具体语境中权衡且仍然不乏分歧。
这一问题在科技风险治理中虽也有一定程度的反映,但还是有质的差异。在风险规制的框架下,“风险”无法在立法事先的想象中被充分认识,法律决策需要考虑的信息范围就需要伴随科学知识的增进而动态调整。但是,法律毕竟划定了需要探究的问题边界,即聚焦于对健康、环境等产生物理性影响的风险的性质、范围以及损害发生的概率等。尽管这些考量因素的实质判断需要开放给科学知识、伴随科学知识的演进而不断调整,但是,何种知识是决策相关的,仍然需要满足一定的科学共识。由此,决策需要考虑的信息边界虽轮廓模糊但仍然可视为存在,法律对这种活动仍然能够进行部分的规范。
但是,如前所述,科技伦理治理的兴起的问题意识之一,即传统的科技治理将问题限定于风险,甚至将一些政策考虑、价值权衡的问题都风险化,限制了思考的维度。而开放决策考虑的维度后,也就将上述问题进一步放大。因此,要判断科技对某种社会价值的影响,就很难采取风险规制这种模式化的方式。
实际上,即使对其中某一个伦理考量维度进行评估,亦是如此。例如,有学者主张像环境影响评价那样,引入技术对社会公平影响的评价。然而,生态环境的影响固然已经高度复杂,但其至少遵循某种物理规律。相较而言,科技的研发、利用和发展是嵌入在一个变动不居、犬牙交错的社会现实中的,社会对技术的使用显然更加复杂、动态。因此,将何种要素作为评价的核心,很难找到一个客观、有共识性的标准。
(三)伦理立场的多元性与变动性
伦理思考基于一定的道德观念,而在当下社会,道德观念是多元而难以统一的。以人胚胎基因编辑技术的研发为例,虽然在“基因编辑婴儿事件”中,涉事科学家因研究条件不成熟等原因而广受批评。但是,对于是否需要发展人胚胎基因编辑技术这一根本伦理立场而言,仍存在广泛的分歧。
与此同时,科技本身的特点加剧了这一问题的复杂性。因为,伦理观念以一定的世界观和社会交往方式为基础,而科学研究和技术的应用总是会改变我们的认知和社会交往方式。因此,从科技工作者的角度来看,以既定世界观和社会交互方式作为不可挑战的、固定的准则,并无根据。以生命科学为例,问题的重点即在于,当科技能够从遗传层面介入生命后,就意味着科技的发展不但触及生物存在的形式,同时也已经松动人类长期依赖的对人的本质的理解,而对人的理解实际上是一切伦理考虑的重要出发点。
虽然在风险规制框架下,也会存在共识难以达成的情况,但其与伦理议题下的困境并非一个层次。在风险议题下,社会在“科技应当安全”这一原则层面存在共识,对于“多安全是足够安全的”亦可通过诸如民主决策程序安排来形成法律认可的共识。因此,相关分歧主要出现在一些相对技术的层次,例如,该项技术是否会导致某种损害,哪些是可接受的证据等等。这些分歧大多可以还原为知识问题,并凭借对专家意见的适当安排而得以解决。即使不同群体对风险认知存在一定的主观偏好差异,各方观点仍然围绕安全这一基本价值展开。
然而,在伦理议题下,分歧是在基础规范层次或者说原则层次的。例如,对于生命伦理领域关于是否应当放开人类胚胎体外培养不得超过14天的限制,以给科学研究以更多空间的争论,其实质就是如何在保护作为有潜质发展为人的胚胎的尊严和科学研究自由间的复杂权衡。这些争论无法用知识的增进予以解决或者视为已经解决,法律必须直面这种价值冲突。
一定程度的共识是整个法律规制体系运行的基础。否则,法律的干预可能导致某种单一伦理观念的强化,无法及时回应科技和社会关系的变迁,也很可能催生规范和社会现实之间的不一致,从而损害法律的权威。由此,如果法律不希望其介入带来僵化或者激化冲突,就需要确保整个规制程序能够调和相互冲突的主张,并对分歧保持足够的尊重。这也给法律的介入方式和介入强度提出了挑战。
四、 法律介入科技伦理议题的立场
上述挑战的根源在于,在健康、环境风险规制中,法律是从“安全”这一相对明确、稳定的社会价值出发,对科技建立规制架构。而科技伦理治理意在回应科技引发的更为广泛、深刻的社会影响,问题就不能简单地定位为科技与社会价值体系的背离,不宜由法律向科技发出单方性的呼吁。相反,应当理解为科技与包括伦理、法律在内的社会秩序具有相互影响、共同演化的特质。
这种相互塑造的关系意味着,法律固然需要对科技的社会关系建构能力保持敏感,但也不能滑向技术决定论,不能忽视人类活动面对新兴科技的调适能力,也不能贬低在具体使用场景中衡量处理方式的重要性。由此,法律需要采取一种相对折衷的立场:既在整体上尊重科技发展过程中个体使用技术的自主性,并维护市场机制在技术选择中的基础性地位;也要意识到科技是具有价值负载的,充分地辩论科技发展所影响的利益,识别出其中最为关键的,并尝试新的法律方法来保护。从这一点出发,法律需要采取综合性的调控方案,一方面,适度介入科技研发、设计等“上游”过程;另一方面,也更具回应性地规范“下游”的涉科技使用行为。
(一)对科技研发、设计的“上游”进行原则性、程序性规制
在传统技术中立观念的影响下,法律对科技的研发、设计限于在一个狭小范围内评价其工具价值,规范的压力主要被推至“下游”的科技使用环节。这种规范模式对科技本身所具有的社会关系建构能力未能保持足够敏感,需要适度修正。
对于一些具有重要变革意义的、可能深刻影响社会交往方式的科技,法律在研发、技术设计这一“上游”就需要适当介入。法律需要引导利益相关方对一些重要伦理问题进行思考,例如,我们为什么需要这项科技,它们对家庭关系、社区关系意味着什么,它们对处于弱势的人群意味着什么等等;同时,推动基于这些思考而选择科技研发的方向,实现负责任的创新。
实际上,科技的研发本身并不是一个自我规定、客观的进程。优先选择何种科学研究、技术路线等都暗含了价值选择。在过去,这种选择是隐而不述,未经充分检讨的。而一旦进入“下游”的使用环节,法律往往只能聚焦于使用细节,而难以基于前述问题而调整。这既会给“下游”使用行为的规范带来巨大的成本,在某些情况下本身也会阻碍社会对这些技术的接受。
以农业转基因生物技术为例,这项技术的应用既涉及健康、环境等方面的风险议题,又涉及经济权力、利益分配等更广泛的社会议题。但是,现有法律制度几乎聚焦于前者,并未充分讨论这项技术的社会目的。从现实来看,社会对整个科技研发的过程缺乏讨论、控制,在很大程度上影响了对该技术的信任。
但是,在科技研发、设计中,法律对科技伦理议题的介入需要采取与风险规制不同的强度。在风险议题下,物理性的风险一旦现实化,会威胁生存根基。社会在“维系安全”这一点上已经形成共识,法律需要进行较强程度的干预,确保基本权利保护义务的履行,其方法,就是法律授权监管部门进行评估、预测,进而采取规制行为。
在科技伦理治理架构中,科技的研发和使用应当关注、回应何种价值,需要与社会持续商谈、调试,其需要遵循的实体性义务是弹性的、取向具体情景并且因应现实变化而不断调整的。这意味着,法律需要对一些具体的道德争议保持相对中立,其功能主要在于提供制度框架和程序机制,促成不同观点的沟通、对话。
因此,法律除了在一些已经具有高度共识、形成常态化行为准则或者涉及重大伦理挑战而需要暂时性管制的领域可以设定具体、细致的行为规则外,要重视通过确立原则来引领科技伦理治理。实践中,以人工智能领域为代表,新兴科技治理领域涌现了大量伦理原则治理文件,其核心考虑就是既引导科技发展的基本方向,又给相关研发机构和企业根据具体的技术场景进行选择的灵活空间。
当然,如何强化这些伦理原则的约束力亦需要有所考虑,否则宽泛的原则无法带来实质性的改变,也就无法引导科技稳序地嵌入社会。对此,一个可供参考的思路就是将相关制度设计理解为一个程序而非确定的规则。原则的文本并非包含了所有的答案,也不可能通过一个清单式样的合规要求来保证完美的合规。但是,法律和监管部门需要推动监管对象将其义务理解为一个持续评估并不断反思调整的过程,从而通过这种程序法治的进路推动伦理考量嵌入到科技研发、应用的过程中。
在这种程序性规制路径中,法律对科技创新与应用的相关主体并不规范特定的技术要求或绩效结果,而是为其提供关于内部管理的基本程序框架,引导其建立符合企业文化特征与场景特征的内部伦理反思计划、管理流程及行为决策规则,从而将伦理原则的价值要求转化为匹配科技创新与应用场景的具体行为规范。具体而言,这种程序性的规制可以从以下方面推进。
一方面,扩张科技伦理评估范围。“科技伦理评估”指要求相关主体在开展科学研究和技术开发项目前,按照法律的程序要求对所涉项目的价值影响与利益冲突开展伦理审查,属于在科技创新上游阶段执行伦理原则的重要程序节点。
过去,我国法律强制要求的伦理评估覆盖面不广,主要限于临床医学研究领域。当下纳米科技、认知与神经科技、人工智能科技等新兴科技具备重新塑造逻辑、生命、物质与大脑神经的潜力,而且以融合性的方式相互赋能、共同发展,对社会生活构成重大潜在影响。因此,确有必要将伦理评估扩展至新兴科技创新领域,使这种程序化的规范机制能够实现更为全面的覆盖。
实际上,近年来的立法已经有扩展相关制度的趋势。例如,《个人信息保护法》规定了个人信息保护影响评估制度,要求在特定情况下,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录。虽然有学者将其描述为一种风险控制措施,但实际上,这一制度更类似于生物医学研究中的伦理审查。从制度设计来看,这种评估是由个人信息处理者自行进行的,法律也仅仅提示了这些评估需要考虑的主要原则。这就是一种克制的程序化规制,即要求个人信息处理者在内部建立评估、发现问题并采取措施的机制,从而改变机构内部的决策程序以及其决策偏好。这与传统风险规制领域监管部门直接从外部施加相对统一、标准化的控制有很大差异。
另一方面,要求大型科技企业进行伦理组织化保障。要求程序性管理标准真正内化为企业机制的一部分,还须课予企业相应的“组织化保障义务”,即成立专门组织、建立相应的内部治理架构负责相关管理制度的实施。就此而言,《个人信息保护法》要求处理个人信息达到规定数量的企业设立个人信息保护负责人,就是一个很好的尝试。这种方式意在企业内部创造一种类似于任期制的特殊管理职位,课以其超越对公司忠诚的法律义务,其核心任务是依据法律要求从企业内部来监督企业执行相关规范,同时作为监管部门和被监管部门之间的联络点,确保在之后的执法活动中配合监管部门。
整体而言,在这种程序化规制的思路下,法律并不授权监管部门从外部构建管制框架。相反,法律意在推动规范对象自身建立对现状和可能的选择进行反思的制度能力。通过要求利益攸关方在做出重要的技术选择时考虑更广泛的因素,有意识地思考相关选择所具有的伦理意涵,更深入的探究是否存在其他替代性的设计方案,法律可以推动伦理考量结构化地嵌入到科技研发、设计和使用的过程中,最终确保科技的研发考虑工具性的价值,而成为复合性的科技-伦理探究。
(二)更具回应性地规范涉及科技使用的行为
科技伦理治理并非滑向技术决定论,而需要承认人的自主性、市场对技术选择的基础性意义。因此,通过部门法规范科技的使用行为,仍然具有重要意义。但是,部门法的回应,也需要对科技应用带来的社会交互关系的实质变化保持敏感,更具回应性地规范相关的行为。
传统上,部门法虽然也调整科技的使用行为,但其对新兴科技的回应,主要属于“翻译”既有规范以适用于新的对象的问题,很少涉及改变或者重新检讨规范背后的既定价值。这种现象有其可理解之处,毕竟,部门法的回应应当同时注重规则内在的一致性和可预见性,为受到影响的个体提供稳定的预期。但是,这种规范方式意味着,科技带来的实质性变化可能无法得到有效的回应。实际上,决策者日渐强调解决新技术应用所带来的制度空白问题。因此,部门法针对新兴科技带来的变化,应当在固守不变和激进革命之间寻求平衡,通过渐进但持续性的调适来匹配科技带来的实质性变化。具体分析展开如下。
其一,识别科技发展所影响的核心价值,明确法律回应的优先议题。新的科技嵌入社会,总是会引发大量的伦理议题。但是,由于科技与社会本身具有相互塑造的关系,一些问题实际上可以通过技术使用者的适应、社会和市场机制的自我调适而缓解,并非所有的伦理议题都需要法律层面的回应。否则,法律过度的介入,既会影响相关问题处理的弹性,也会给自身带来过度的调整压力。实际上,决策层亦提出“要避免把科技伦理问题泛化”。因此,法律层面应当首先检视,传统上受到法律保护的价值是否因为某项技术的应用而面临系统性的保护漏洞。
当然,这一分析既要涵盖当下明确、现实的威胁,也要关注那些更深层次、结构性的挑战。以互联网和数字技术为例,它们革命性地降低了信息记录、复制、传播的成本,就其个体而言,带来的直接问题是隐私暴露的风险。然而,我们也需要意识到,数字空间实际上是人与人之间交互的信息界面。在个体在数字空间的停留越来越多时间的情况下,这种信息界面实际上已经成为人理解自己和理解社会的限定结构。在此背景下,相关主体基于对个人信息的掌握,精细化地操控对其呈现的信息,可以塑造一个人的认知和偏好,形成对人的操纵,从而深刻侵蚀个体的自治,这构成长期且更为深刻的挑战。
综合性的理解、回应科技应用带来的这种直接威胁和长期挑战,正是推动科技伦理治理的关键。因为,即使在工具主义的科技观念下,往往也能够发现科技应用带来的直接威胁,并推动法律做出一定的回应。但是,只有更深入、全面地探究科技带来的实质性变化、理解其价值负载,才能准确理解相应的长期挑战。例如,如果我们将互联网视为单纯的工具,将个人在网络空间活动留下的信息视为个人身份在网络空间的投射,也可以从延伸隐私保护的角度得出对个人数据进行保护的必要性。但是,只有当我们更深入地理解个人数字化生活所带来的交互方式变革,理解数字经济背后的驱动因素,我们才能更加准确的理解个人自治面临的挑战,并做出更具预见性的回应。
其二,调整既有法律规则的适用范围,调适规范方案。法律对行为的规范往往是以现有的、典型的社会交往方式为蓝本设计的,而与法律相关联的科技伦理问题,大多源于科技改变了既有交互方式,使一些原先受到很好保护的价值变得脆弱,或者使一些原来只在背景存在的问题走向前台。在此背景下,如果既要法律规范的稳定性、连续性,又要解决相应的伦理挑战,一个较好的方式就是充分开发既有规范的解释和适用空间。
以前述数字化生活所带来的个人决策被操纵、自治受侵蚀为例。其中大量有风险的行为是基于商业推广目的,意在影响消费者的消费决策。此时,调适《广告法》的适用范围和规范方式,就是非常重要的回应方式。从实践来看,借助互联网技术实施的大量有争议的商业推广形式如竞价排名、经验分享、消费测评,其潜在危害就在于实质上进行了收费推广,但却隐藏了这种交易关系,让消费者误认为是一种客观、中立的信息展示行为,从而达到更为隐秘地影响消费决策的目的。这些行为在广告法中本有相应的规范原则,但是,互联网技术应用制造的新的场景形成了相关法律是否需要适用的争议地带,需要法律明确规制立场。
当然,同样需要关注的是,新科技应用衍生的行为内涵往往已与过去法律规范的典型形态有差异,法律在介入的同时也需要适当调整相关的规范内容。例如,上述利用互联网技术进行的隐形商品和服务推广,固然需要较全面地纳入广告法的规范。但是,监管部门也需要认识到,互联网技术的使用也已经使广告的功能、发布的方式、相关参与主体的角色定位等等发生了实质性变化,法律的介入也需要系统性地调适包括平台审核义务等在内的规范方式。
实际上,科技应用对社会交互方式的改变往往造成一种“相似但不同”的情况,仅仅基于相似性就全部援用相应规则,可能是过于简化的,规制方案的设计应当深入相关活动的具体语境和应用机制。因此,上述“旧法新释”并非简单、机械地将法律“翻译”于新的情况,而必须结合新科技所产生的实质性变化而进行调适,既确保法律能够应对新科技带来的伦理挑战,亦确保这种回应能够契合科技和商业的内在规律,符合事物的本质。
其三,逐步确认新兴权利,探索新型规制路径。当代科技已经从传统物的角色日益演变为改造生活环境的驱动因素:数字技术突破既有时空限制,革命了信息传播的方式;基因科技改变了生命现象,使人群关系、人与自然的关系得以改造。这意味着,我们需要探究人类本性在既有空间未曾被探索认知的部分,形成人性与价值的新观点,并以此调适相应的法律规则。
仍以前述数字化环境对个人自治的威胁为例。既有法律如《广告法》的调适虽可发挥重要的规范作用,但仍存在力所不及之处。毕竟,在互联网环境下,隐形的、试图影响互联网用户认知、偏好的商业推广,已经超出对特定商品和服务的范畴,而是扩展到非常广泛的目的。而且,其影响的也并非仅仅是消费者权益,而波及到整个公共对话的有效性、信息环境的可信性。此外,即使非商业推广性的新闻、内容分发,由于个性化算法技术的应用,也会产生诸如“信息茧房”之类的效应。
正因如此,在数字环境下,操纵个人决策、侵蚀个人自治的威胁是全方位、结构性的,法律就可以考虑更全面的评估,形成新的定位,发展出诸如数字人格之类的法益。基于这种定位,在权衡各方因素的基础上,法律可通过确认个体新兴权利、加强对平台算法决策问责等方式,在新的技术环境下保护个体的自治。
五、 结 语
近年来,在政策议程中,科技创新被前所未有地置于现代化的核心地位。而当中国日益成为全球范围内科技创新的引领者,也将面对科技及其应用所带来的挑战。一方面,我们需要珍视科技创新的价值,并动员市场机制利用和反馈这种创新;另一方面,我们也需要创造出相应的空间,确保社会能够集体地决定其未来,确保技术能够服务于人。就此而言,科技伦理治理的兴起以及法律的逐步介入,正当其时。
与此同时,相较于传统上对科技健康、环境等物理性风险的规制,科技伦理治理要求处理科技引发的广泛而深远的社会影响,法律的功能定位与介入方式需要有所调整。特别是,我们必须认识到科技与社会具有相互塑造的关系。由此,法律的功能应当定位为创造一种结构性的环境,确保科技与社会价值体系之间建立有效的连接界面,使两者持续对话,相互调适,缓解技术变迁对社会核心价值的冲击。
扫描左边二维码手机访问 分享到微信 1. 打开微信,点击“发现”,调出“扫一扫”功能 2. 手机摄像头对准左边的二维码,打开文章 3. 点击右上角分享文章 |
京ICP备12000547号-4 京公网安备11010502039877号 |