EASA发布全球首个关于评估和限制空中出租车噪音的建议
从弥合制度裂缝、防止重大公共卫生风险的角度来看,未来有必要进一步贯彻全面系统的视角,合并《野生动物保护法》与《畜牧法》,制定一部统一的动物保护法或动物福利法。
三、数字平台算法侵害行政法律责任的责任主体法律责任中的责任主体是因实施违法行为而承担法定不利后果的主体。由此,法律权利的保护是法律规范体系的核心,而法律义务的履行则是保护法律权利、实现法律秩序的必要条件。
[34]人工智能技术在数字平台算法中的应用至少从两个方面导致算法侵害法律责任主体认定的难题。[5]参见苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第165页。在数据收集类算法侵害中,平台企业除了对平台用户的数据会过度收集之外,还可能对数字平台用户以外的主体的数据进行过度收集。也即,在对数字平台算法侵害的事后规制中,法律责任问题占据了中心地位,它是要求赔偿和行使惩罚权的正当性基础。文章来源:《比较法研究》2023年第6期。
例如,当行政执法机关发现数字平台存在大数据杀熟的行为,利用算法在交易价格上对平台用户实施不合理的差别待遇时,理应要求平台企业停止此类算法侵害行为、避免继续实施大数据杀熟。具体而言,可以将数字平台算法侵害区分为四种理想类型。依据这一条款,从行政执法机关角度而言,其有权对算法推荐服务者作出行政处罚决定。
我们可以将平台企业视为人工智能算法复杂技术生态体系的守门人,[56]它肩负着防止算法侵害实际产生的主体责任。数字平台算法侵害行政法律责任设置的法理基础是数字平台的公共性导致算法侵害行为会对公共利益造成影响,而行政法律责任的设置较之民事法律责任更能有效地维护公共利益。参见钱大军:《法律义务研究论纲》,科学出版社2008年版,第59—67页。因此,必须通过有效的制度设计激励平台企业,促使其主动抑制自身实施算法侵害的冲动。
参见[奥]凯尔森:《法与国家的一般理论》,沈宗灵译,商务印书馆2013年版,第93页。See Yavar Bathaee,The Artificial Intelligence Black Box and the Failure of Intent and Causation,,331 Harv.J J.L. Tech.889,,8891 (2018).[39]人工智能可以区分为弱(限制领域)人工智能和强(通用)人工智能的不同形态,前者仅能实现人类智能的某一功能,后者则可以复制与自然人相似的人类智能水平,包括自我学习进化的能力。
而行政法律责任的追究则可以由行政执法机关主动予以实施。在此意义上,平台用户免费使用的数字平台其实并非真正的免费,而是用自身的行为数据换取了平台企业提供的服务。正因如此,只要是涉及公共利益的事物,成文立法中通常都会通过设定行政法律责任予以保护。如果将人工智能实体作为行政法律责任的主体,则难以实现必要的威慑功能。
(三)改正违法行为责任方式的归责原则当行政执法机关发现数字平台存在算法侵害行为时,必然应责令平台企业停止并纠正自身的违法行为,防止算法侵害行为继续存在并造成损害后果的扩大。而人工智能算法则具有机器学习(machine-learning)的能力,[38]能够在数据分析的基础上开展自我学习,高度发达的人工智能算法技术甚至可以实现自我演进,使人工智能系统依靠自身的机器学习能力实现升级和进化。数字平台算法侵害行政法律责任的责任方式主要包括接受行政处罚和改正违法行为两种类型,这两种行政法律责任方式都应采用无过错责任的归责原则。[31]这就体现了行政法律责任所具有的主动性,能够通过行政执法机关的主动执法行为给予公共利益更好的保护。
何谓数字平台的公共性?理论上一般认为公共性的本质在于社会共同体的合作,保障社会化大生产,增进社会更大范围的合作,促进有效率的生产和协作,才是公共性本体论的根本。而平台企业实施的大数据杀熟行为则会降低平台用户对数字平台的信任度,会通过减少数字平台使用频率甚至退出数字平台的方式避免被再次杀熟,这其实也就是减少了平台用户与平台企业或其他平台用户达成合作关系的可能性。
参见[日]美浓部达吉:《公法与私法》,中国政法大学出版社2003年版,第28—30页。平台企业在无过错责任原则的激励之下会产生更充分的动力去约束技术链条的上游主体,要求这些上游主体避免出现可能会导致算法侵害的问题。
[24][美]加里·B.赫伯特:《权利哲学史》,黄涛、王涛译,华东师范大学出版社2020年版,第7页。当平台企业出于自我利益最大化的冲动利用数字平台算法对平台用户的权益造成侵害时,也会对社会成员间合作关系的达成造成负面影响。因此在这种倾向的驱使之下,算法也会成为平台企业谋取最大化利益的工具,被用来过度摄取平台用户的消费者剩余,满足自身对利润的无止境索求。参见[美]伍德罗·巴菲尔德、[意大利]乌戈·帕加洛:《法律与人工智能高级导论》,苏苗罕译,上海人民出版社2022年版,第14—15页。其三,在数据收集类算法侵害中,平台企业对平台用户数据的过度收集会导致用户产生对自身个体隐私信息或商业数据泄露的担忧,由此减少通过数字平台实施的社会经济活动,减少通过数字平台与其他社会主体的交流,从而也就减少了与其他社会主体达成合作的可能性。[30]依据以上关于法律责任的基本法理,设置数字平台算法侵害行政法律责任的法理基础就在于算法侵害行为不但是对平台用户个体权益的侵害,更是对社会公共利益的侵害。
在平台企业需求的导向之下,技术链条的上游企业会有动力主动控制人工智能算法的自我进化能力,避免出现人工智能机器学习能力所导致的不可控、不可预测的算法决策,事先防止算法侵害行为的发生。[19]数字平台经济和传统产业经济的核心区别在于市场参与者将网络效应予以内化的能力不同,前者的内化能力远超后者。
[50]在市场监管执法领域中,已经出现销售者在受到行政执法机关行政处罚并履行处罚义务后,就罚没款向上游供货商或生产者提出追偿的实例。See Mckinsey Company,An Executive's Guide to AI,https://www.mckinsey.com/capabilities/quantumblack/our-insights/an-executives-guide-to-ai (accessed Oct.5,2022).[35]See Iria Giuffrida,Fredric Lederer Nicolas Vermerys,A Legal Perspective on the Trials and Tribulations of AI:How Artificial Intelligence,the Internet of Things,Smart Contracts,and Other Technologies Will Affect the Law,68 Case W.Res.L.Rev.747,760((2018).[36]参见[美]伍德罗·巴菲尔德、[意大利]乌戈·帕加洛:《法律与人工智能高级导论》,苏苗罕译,上海人民出版社2022年版,第48页。
这种附随责任源自于法律规范设定的第一性义务的法律效力,是法律秩序得以存续的前提之一。具体而言,平台企业作为以营利为目的的市场主体,最大化自身利益始终是其无法变更的组织底色。
在这两种技术缺陷类算法侵害中,后者是法律规制中需要重点关注的对象。[14]参见王莹:《算法侵害类型化研究与法律应对——以〈个人信息保护法〉为基点的算法规制扩展构想》,载《法制与社会发展》2021年第6期,第140页。相较于民事法律责任,行政法律责任的设置更有利于对公共利益的维护。因此,对于应用人工智能算法的数字平台上产生的算法侵害行为,不宜以人工智能实体(也即数字平台本身)作为行政法律责任的责任主体。
因为人工智能实体不具有自然人的情感,无法像自然人一样因受到行政处罚而产生畏惧的心理状态从而调整自身的未来行为。平台企业耗费巨资搭建的数字平台往往会免费向平台用户开放使用,但这并不是出于平台企业大公无私的社会责任感,而是希望通过免费的途径吸引更多的平台用户,增加数字平台的流量,并由此获取平台用户的行为数据。
前者是对惩罚对象产生的直接威慑,后者是对其他社会主体产生的间接威慑(也称间接惩罚)。为了与我国行政处罚法第33条第2款的规定相协调,建议可以通过制定法律或者行政法规的途径对数字平台算法侵害中行政处罚的无过错责任原则进行特别规定。
[55]这意味着,如果没有法律、行政法规的例外规定,数字平台算法侵害中的行政处罚就应当遵循过错推定的归责原则。[18]可见,任何有助于促进社会成员之间广泛合作关系发展的事物都意味着具有公共性,数字平台的公共性也正是体现在其对于社会成员之间合作关系的促进功能上。
[16]根据这一观点,数字平台只是企业经营的一种特殊场所,与传统的大型购物中心的区别主要在于没有实体的展示区域,只是将交易物品信息放置在网络上而已。例如,在技术缺陷类算法侵害中,发生自动驾驶汽车的交通事故后,过错推定原则会激励平台企业将更多精力放在找寻证明自身无过错的证据之上。[26]因此,现代主权国家的立法机关都会针对各种法律义务设置相应的法律责任,一旦社会主体拒绝履行法律义务,也即实施了违法行为时,就可以由执法机关追究其相应的法律责任,要求其纠正违法行为、弥补受害者损失并对违法者进行惩戒,使其承受实施违法行为的报应并威慑其他潜在的违法者,维护法律秩序的存续。因此,当平台企业运用算法侵害平台用户的权益时,所产生的责任自然也就主要是民事法律责任。
[3]其中民事法律责任属于私法责任,行政法律责任和刑事法律责任属于公法责任。[18]王道勇:《社会合作何以可能——集体利益论与集体意识论的理论分析与现实融合》,载《社会学研究》2022年第5期,第112页。
[59]同样,数字平台算法侵害行政法律责任中改正违法行为的归责原则也应采用无过错责任原则,这是因为:第一,无过错责任原则能更高效地消除算法侵害行为。如果算法黑箱问题被人工智能技术强化到如此地步,那么就可能会成为威胁人类福祉的力量,这样的人工智能技术也就应成为被限制的技术,甚至没有存在的必要,至少没有商业化应用的必要。
具体到数字平台算法侵害领域中,大多数的算法侵害行为都具有隐蔽性,其产生的危害后果往往不能被受害者轻易察觉。为了应对人工智能算法的普遍应用,数字平台算法侵害行政法律责任的责任主体应设定为平台企业。
#相关推荐
-
评论列表 (0条)