(4)识别利益相关者,设定决策权利,厘清责任。
刘叶深:《法律概念分析的性质》,《法律科学》2011年第1期。这些理论纷纷主张自身与哲学的区别,即便使用哲学或正义这样的术语,也强调不同于实质价值取向的传统法哲学。

[63]Vgl. Hans Schneider, Rechtstheorie ohne Recht? Zur Kritik des spekulativen Positivismus in der Jurisprudenz, in Alexander Hollerbach (Hrsg.), Mensch und Recht, Frankfurt a. M.: Klostermann,1972, S.113. [64]参见[德]马蒂亚斯·耶施泰特:《法理论有什么用?》,雷磊译,中国政法大学出版社2017年版,第85页以下。中国法学并没有像西方法学那样经历过从教义化到多元化的过程,根基并不牢固。如何在迎接这一潮流的同时维系本学科的固有法则,不让跨学科变成无学科,不仅涉及学科的自主问题,也涉及它对于人类知识的独特贡献。科学知识应当是一般而非个别的命题,但它的基础来自于具体的经验。法理论在欧陆的发展大体分为三个阶段:创始阶段(19世纪70年代至20世纪30年代)、成熟阶段(20世纪30年代至60年代)、多样化阶段(20世纪60年代以后)。
1949年之前,学界除了对英美分析法学有零星的介绍外,对于西方尤其是德国理论的介绍,基本集中于法哲学领域。这些通过经验描述方式获得的概念和结构随后被附加上了规范性。即,技术主要作为具有巨大经济意义的工业革命的推动要素而受重视。
人工智能将导致传统劳动力的大量失业,合理安排、疏导或是通过培训再次利用这些劳动力,将是对政府的重大考验。人工智能科技在技术—经济模式下可能形成的负效应,可以归结为人工智能的科技社会风险。已经有不少人工智能社会学家对之做出了严肃的关注和研究,并且做出了许多中肯的揭示或预测。技术经济主义,进而也会导致从技术支配经济到技术支配人的问题。
基于人工智能的信任机制也很重要,应当配合协同需要完善相应的信任机制。另一方面,正在兴起的人工智能科技具有前所未有的强社会面相, 它的巨大颠覆潜力和认知能力等特性,使得其应用面临着复杂而迫切的社会规范要求,特别是引发了对人的价值性的关切,因此应该向技术—社会+经济新范式转变,以经济性、社会性的双重架构以及相应的四项原则等,来推进对人工智能的合理规范。

二、科技立法技术—经济传统范式的流变及其规范原理 科技立法专门化的最初基础是人类对于科技在经济上重要性的发现。包容,则指平等、开放对待别人,歧视是其重要反例[30]。既要加大人工智能研发和应用力度,最大程度发挥人工智能潜力。这种科技活动及其立法范式,在这二三百年的实践中,带来了许多负面的后果。
但目前人们对于人工智能的社会关切,更多还是消极方面的忧虑。科技活动及其技术—经济立法范式,其产生的最根本上威胁人类自身存在价值的一种后果,是技术结构的自主性滋长。19世纪80年代以后,由于科技垄断带来的竞争优势,在石油、采煤、榨油、烟草、制糖等部门出现了卡特尔、康采恩或托拉斯组织,这些不断崛起的大型企业联合,具有经济集中的优势,这种情况受到主流地位的自由市场理论抨击,导致了旨在维护市场公平竞争的反垄断法的出台。进入工业革命之后,技术地位不断上升,逐渐取得统治权,开启技术统治时代,对人类文化产生了极大的改造效应,虽然表面上促进了平等和自由,但也出现了产业化和科技竞争的狂热。
目前,存在一种因关注共享而完全否认数据权属化的观点,笔者认为这种观点对于共享设计架构有简单化嫌疑,难以提供合理的主体间数据合作的根源和动力[27](P1-12)。其次,人工智能可能的负外部性,更多是具体的,体现在人工智能特定化的具体应用场景。

首先是人类的适应性问题。所以,一方面人工智能领域存在传统法律部门的交叉适用,另一方面却在很多地方需要具体化、特殊化、进一步场景化。
这些力量,它们要求、束缚、拖曳、逼迫和强制着,将人置于这样或那样的技术发明形式的控制之下——这些力量……自从超越他的意志以来已经走了很远,他的决策能力已经落后了。康德也认为,对财产利益的保护是最初核心的诱导性因素,它引领处于自然状态的人们走向联合并形成政府或市民社会[16](P186)。另一方面,必须引入和提升人工智能科技社会规范。这一时期,科学、科技先是作为人文理性主义的演绎产物得到发展,但很快就喧宾夺主,成为人文理性的替代形态而得到高举。正在进行的中美贸易战就是一个典型例子。[7](P7)科技社会风险演进到今天,早已不再是从前的潜在的副作用,而是达到极端泛滥或突变的程度。
面对人工智能可能带来的产业消失、从业人口减少和为释放出来的劳动力寻找出路,该如何缩短转型周期,是摆在政府面前的一个现实命题。当然,也有还在观望之中的[29](P25)。
20世纪80年代之后,各种科技社会问题的不断爆发,加上越来越多的社会运动的压力,科技立法才加速纳入科技社会问题的进程。人们开始意识到,它的发展影响不应该仅仅是技术经济的,更应该是社会的。
技术经济主义,也促成了国家之间的恶性竞争和极差,导致了欧洲国家之间的多次争霸,导致了技术先进国家对技术落后国家的技术支配和殖民,恶化国际社会关系。最早大概从19世纪开始,通过劳工运动,与当时科技应用相关的工业风险和劳动安全开始得到关注。
随着人类对技术经济意义追求不断升级,甚至引发了对于技术的膜拜,促成一种技术统治乃至技术垄断的技术意识形态后果[3](P43-62)。美国学者尼尔·波斯曼在《技术垄断》一书中提出,人类技术文明以来可以划分为三个时代,即工具时代、技术统治时代和技术垄断时代。与此同时,英国的亚当·斯密等在理性主义的基础上,提出了初始的自由市场理论,很快推动了市场经济实践。人工智能立法新范式的两重性布局,应以全新的价值观和更加合理的原则体系作为基础。
二是消极的人工智能科技社会规范,重点是如何防范和应对前述人工智能可能带来的社会问题。这一部分其实就是人工智能科技及社会风险立法范畴。
按照贝克的说法,就是要将过去稀缺社会的财富分配逻辑,向发达现代性的风险分配逻辑转变,或者说从财富生产支配风险生产的逻辑,转变为风险控制支配财富生产的逻辑[7](P3-48)。而人类法律智慧在这个时刻应该感受自身元神的召唤。
但是这些会与数据管理、数据权属、个人信息保护等既有法律秩序产生冲突,因此需要进行巧妙的协同设计,实现双赢,以便最终使得协同成为可能并且圆满。遗憾的是,目前各国和有关国际组织虽然在倡导一些人工智能伦理标准,包括所谓机器人安全原则,但还没有形成总括性的行之有效的全球标准。
但在另一方面,人工智能人才短缺又成为制约人工智能产业发展的短板。神经科技,也有类似之忧[21](P199)。引入风险监测体系,进行相应的监测、预警或应急管理。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展[22]。
即,生产力在现代化进程中的指数式增长,使风险和潜在自我威胁的释放达到了前所未有的程度在工业社会中,财富生产的‘逻辑支配风险生产的‘逻辑从现代化进程自反性角度来看,生产力丧失了其清白无辜的面目。这种立法模式与人类关于科技的长期以来占主流地位的思维是一致的,即技术经济主义。
以生物科技为例,生物技术经过过去20年的发展,在数字技术和新材料的支持下,基因组、基因工程、诊断学、制药开发等方面都取得了质的飞跃,出现了能够改变生物系统的技术或生物设计技术,在DNA测序、DNA合成等DNA操纵下,转基因植物技术、干细胞技术、克隆技术、胚胎技术、基因治理技术、基因编程技术等可谓层出不穷,这些对于生物工程、精密医学、农业、环境、人体健康等显然具有极大的应用价值,但是它们同时带来了对于人本的威胁,因为极有可能改变人之为人的原样,所以也引发了极为深刻的人本主义观念下的伦理和安全危机[21](P187)。前者,体现为人工智能立法存在一般规范与具体规范的合理分置问题。
所以,场景细分研究很重要。例如,发达国家经历二三百年工业化的经济主义追求之后,经济增长进入了一个新的阶段,而发展中国家却仍然有不少还挣扎在贫困线上[7](P5)。