《上海财经大学学报》
2021第23卷第2期
算法歧视消费者:行为机制、损益界定与协同规制
李丹     
西南大学 法学院,重庆 400715
摘要:算法技术在实现数据价值的同时也存在歧视消费者的阴暗面。算法技术在信息采集、特定推送和个性定价三个阶段,以信息输入、数据整理、算法决策与幕后控制等运行环节为切入点,对消费者实施多阶段多环节的“显性歧视”或“隐性歧视”。算法歧视消费者使算法技术偏离工具理性,损害消费者权益,破坏市场竞争秩序。文章指出,要查明具体场景中算法歧视消费者的权益冲突与规制困境,揉合消除差别待遇的“个体公平”价值和差别性影响的“结果正义”价值,实现算法参与主体权益平衡是规制算法歧视消费者的核心要义。同时,要脱离单维度规制路径,鼓励规制的多方参与:从消费者维度赋予消费者选择退出权,激励其挑战算法决策;从企业维度设置算法顾问,进行数据透明化处理和算法解释,破除算法黑箱;从行业协会维度进行算法审查,预防算法歧视;从执法维度实施算法监管,严惩算法歧视。
关键词算法歧视    隐性歧视    消费者    竞争    规制    

一、前 言

大数据时代,数据被称为“新石油”,成为市场经营主体竞相争夺的新兴生产资源,可谓得数据者得市场。但单个、少量的数据价值密度低,需经算法抓取、加工、处理后形成衍生大数据集合才会成为具有高市场价值的资源。算法是数据价值的核心,实现从低价值的原始数据向高价值的衍生数据转化。数字经济的实质是“算法定义经济”。正如互联网经济领域专家尼格庞洛蒂所言“每一种技术或科学的馈赠都有其黑暗面”,算法促进互联网经济的飞速发展是其馈赠,而算法歧视就是算法技术产生的黑暗面。传统市场环境下,经营者无法获知消费者的个人信息,无法精准获取消费者的消费能力。因此,商品价格总是围绕商品价值上下波动,不会出现太大偏离。但数字经济背景下,经营者掌握了消费者的职业、个人偏好、消费经历、支付能力等海量信息,能描绘出每一个消费者的“信息画像”,获知其交易可能性以及所能承受的价格上限,并据此对消费者“贴标签”,从而制定精准的个性化营销策略。算法呈现出的技术性特点消弭了传统经济中企业无法获知个体消费能力的营销障碍,改变了“同物同价”的传统定价模式,使商品价格不再围绕商品价值本身,而取决于每个消费者对该商品的主观定价,算法歧视消费者的现象应运而生

随着算法被广泛运用于商业交易中,具有技术和市场优势地位的经营者尤其是互联网企业频繁使用算法技术在信息采集、特定推送与个性定价等交易阶段实施算法歧视行为,掠夺消费者剩余价值,排除、限制市场竞争,从市场垄断中攫取利润。在对消费者信息进行采集时,互联网企业常以消费者“数字画像”为基础利用算法技术“擅自”进行“消费偏好测试”,主动诱导消费者实施非理性消费。特定推送表现为平台仅推送商家支付高额广告费的商品,或反复推送基于消费者浏览数据判定为高关注度的商品,导致“信息茧房”。例如以“你关心的,才是头条”作为宣传理念的“今日头条”施行的个性化推荐就涉嫌消费者身份歧视,曾被广电总局约谈。而在个性化定价中,互联网企业针对不同标签群体消费者采取价格歧视策略。如携程旅行网对消费者实施的价格歧视,线上预订同一酒店、同一房型的客房,有消费记录的账号显示的价格明显高于无消费记录的账号。无独有偶,2018年滴滴、携程等网约车平台利用算法进行差异化定价被媒体曝光,相同路线、相同车型的行程,使用频率高的消费者支付的价格高于其他消费者。更有甚者,支付价格会因手机品牌不同而价格迥异,使用被某些算法判定为高档品牌的“苹果”手机支付的价格高于其他品牌手机。此外,监管层对数字经济和算法技术的发展创新秉持包容支持的态度。因此,在信息偏在、技术劣势、监管包容等因素叠加效应作用下,消费者无力与互联网企业相抗衡。2019年北京消费者协会调查报告结论显示,由于举证困难,算法歧视消费者具有极强的“隐蔽性”。中国消费者协会则警告算法技术已在无形中削弱了消费者行使其知情权、选择权、公平交易权等基本权利的能力,更侵蚀着数字经济市场的竞争秩序。

算法歧视消费者的法律规制应以损害消费者利益为前提。国外研究认为算法歧视会对消费者权益造成影响,减少消费者剩余价值。欧盟学者认为需要重新构建个人数据权利,从源头上规制算法歧视消费者。美国学界经历了从算法透明向算法审查的双轨规制路径转变。在承继国外研究基础上,国内研究侧重于算法歧视规制路径、规制制度、法律责任等内容的讨论,以回应“规制价格歧视”“棒杀大数据杀熟”等热点舆情的现实需要。但算法歧视消费者的运行机制并未得到系统性解释与回答,而算法歧视消费者的规制实践迫切需要理论前提的破解与完善。因此,如何清晰而系统地解释算法歧视消费者的运行机制与损益界定等理论前提,并以之为基础明确算法歧视消费者的规制要义,进而完善其规制实践,成为一个亟待解决的问题。

总之,不管是出于促进数字经济深度健康发展的考虑,还是基于保护个体消费者权利、维护正常竞争秩序的市场目标,我国相关法律都应对算法歧视保持足够的警惕,防止算法歧视损害后果的发生。希冀本研究能够破解算法歧视消费者的研究难点,同时为算法歧视消费者的规制实践提供有益参考。

二、算法歧视消费者的行为机制释明

算法决策在提升经济效率并促使市场各方主体对自动化决策产生依赖的同时,也带来了诸多不可忽视的歧视行为。从社会心理学上讲,歧视是不同利益群体间发生的一种不平等的情感反应和行为,消费者很难感性判断其被何种类型的算法歧视侵犯了个人的何种合法权益。只有明晰算法歧视消费者“隐蔽性”的肇因,才能在规制制度的设计中“对症下药”,精准、高效地解决算法歧视消费者问题。因此,首先必须释明算法歧视消费者的行为机制。算法会在信息采集、特定推送和个性定价三个阶段,以信息输入、数据整理、算法决策与后台控制等运行环节为切入点,对消费者实施多阶段多环节的“显性歧视”或“隐性歧视”(见图1)。

图 1 算法歧视消费者的行为机制
(一) 模型缺陷与数据偏差:信息采集算法歧视消费者

利用算法技术采集消费者信息是互联网企业实施各类算法歧视活动的基础,但数据与算法不可能完全独立于人而保持客观性,不可避免地带有“以偏概全”的风险,因此,算法采集标准模型缺陷、数据样本偏差都将导致或加剧消费者信息采集阶段的算法歧视现象。一方面,算法采集模型以经营者的营利性目的作为内在驱动力,对消费者的个人信息有选择性地进行收集,集结带有消费者个性化属性的经济状况、支付能力、支付意愿、消费场景等信息,形成消费者个人的数字画像,构成算法歧视的基础。另一方面,市场要素的数字化投射不一定真实,也不一定完整,导致数据采集受现实环境中的信息分布、表征、接近性和可得性、个体的动机和目标、所采集样本的有限性、样本搜索算法,以及元认知监控能力不足等因素制约,有可能发生偏差,这都在数据源头为算法歧视埋下了隐患。这并不是真正针对个体的服务。模型在我们看不到的地方仍然把我们归类为各种各样的群体,以各种行为模式为指标。不管最终的分析正确与否,这种不透明性都会导致欺诈

大数据是市场的一种镜像,依赖于大数据的算法,从历史数据中训练而获得数据的类型化特征。一旦市场对某个群体存在结构性的负面偏见,这种偏差就会反映到数据上,算法也会“如实”地归纳出这些偏差,以此为基础进行运算并作出市场决策。算法在关联标记、置顶排名和过滤环节都可能存在潜在的歧视。具体而言:第一,被算法判定为存在关联关系的不同数据之间有可能确实存在因果关系,但也可能仅是偶然巧合关联,可是算法不会像法律一样进行严谨的因果关系分析,算法对因果关系和偶然关联并不加以区分,直接把这些关联数据用作分类和预测的依据,就会导致算法歧视甚至错误。第二,算法运行依赖置顶排名。内含置顶排名的算法必须事先嵌入优先标准,而这些标准可能被植入了带有偏见的价值理念以进行营利驱动。第三,过滤环节需要通过规则设置显示有效信息,同时排除无效信息。过滤通常会根据前置环节中的关联标记和置顶排名决定排除哪些信息以及最终显示哪些信息,前置环节的错误和偏见会直接导致不公平的过滤,带来歧视性显示。例如,网约车平台软件在评估乘客的消费能力时,通常会从消费频率推测消费者的忠诚度。倘若消费者使用软件的频率高,就会被算法自动判定为高忠诚度群体,而这类消费者就是被平台收取高价的群体。这种“忠诚消费者”的范畴化,就形成了一种预前判断,也构成了信息采集算法的分类标准和预测基础。然而,这种由算法构建的市场主体“身份类型化”“个体特征化”已经内含歧视风险,在某种层面就是把数据本身存在的歧视进一步扩大。相较于设计者、使用者的故意歧视,因数据本体产生的针对消费者身份的歧视问题往往容易被忽视,并可能造成更为隐蔽和严重的后果。

(二) 信息偏在与选择限制:特定推送算法歧视消费者

在特定推送阶段,算法在信息采集的“特征歧视”基础上强化了经营者歧视消费者的程度。特定推送算法基于强大的数据清洗和处理能力,在了解消费者支付意愿后,将商品信息推送给特定标签群体或消费者,以实现用户获取有效信息的成本最小化和互联网企业利润最大化。例如,“因存货和成本等因素的限制,Ebay 会把‘某清乾隆的梅瓶’卖给出价最高的张三,而不是只愿出价200元的李四。”但是,当特定推送算法基于内容推荐、协同过滤推荐、知识推荐、网络结构推荐、混合推荐等要素过滤机制将个性化推荐的程度发挥至极致时,同时也将消费者自身因素形成“信息偏食”的正常状态推入由算法推送形成的“信息偏在”的“茧房”中,削弱了消费者获取信息的主观动力,导致消费者认知窄化,间接限制了消费者选择交易的权利

除此之外,特定推送算法决策的高技术性和不透明性使消费者难以理解算法决策过程,从而在互联网企业与消费者之间形成了“技术鸿沟”。美国学者尼沃•埃尔金科伦等提出了著名的算法黑箱理论:算法在很大程度上就是一个黑箱子,即不透明的输入和输出系统,普通人无从知晓输入—输出之间的相互作用是通过怎样的结构得以发生的,也不知道算法决策依据的具体数据指征和遵循的决策准则是什么。随着技术商业化的普及,“黑箱”这一形象的表述也越来越具有经济学意蕴。垄断平台企图利用算法控制相关市场,而没有掌握算法技术的市场主体(包括其他经营者和消费者)都被排除在算法“黑箱”之外。随着算法决策在特定推送领域的广泛应用,人们开始担心数字经济市场最终会演变成算法黑箱操作系统控制的“黑市”,侵害广大经营者的公平竞争权以及消费者的基本权利。长此以往,信息的过度不对称导致技术劣势方被迫臣服于技术强势方的“算法权威”。在算法黑箱的助推下,算法实施了大量带有歧视性的定价行为和推送行为,从而使算法演变成为大数据时代市场垄断的帮凶

(三) 幕后控制与价格歧视:定价算法歧视消费者

定价算法以前面两步骤为基础,制定一个价格歧视机制(price algorithmic discrimination),确保不同消费者享受不同的产品价格。算法与幕后的设计者和控制人有着不可分离的关系,算法歧视可能源于设计者或控制人的违法行为。第一,受制于当前技术发展水平,算法介入市场的程度尚不足以完全改变人力控制市场的基本格局。处于弱人工智能水平的算法不具有主体性,算法的设计、运行还需要依赖人为操作和控制。正如有的学者所言,机器背后仍是有权者对多数人的控制。置换到市场中,即算法背后是拥有市场支配地位的经营者对消费者的控制。在消费者面前出现的是一种更加“善解人意”的软件,消费者不会意识到已经处于“被决定”的被动地位。第二,依靠算法进行数据处理,将引入、扩大设计者或控制人的偏见并延续数据偏差,进而导致决策不公。信息爆炸使得人们必须依靠技术手段对海量信息进行筛选和评估。算法作出决策的基础是数据,决策的优劣离不开人(算法设计者或控制人)对算法进行目标和程序设定,即如何采集和处理数据。在这一过程中算法如果承继人的某些偏见,并通过高速处理将其扩大或循环,就会导致算法歧视。第三,算法幕后的设计者或控制人可能滥用算法技术权力。如通过算法歧视进行个性化差异定价,快速谋取垄断利润。当算法设计者或控制人针对消费者指控而发布技术中立的免责声明时,幕后隐藏的可能是人为的故意或疏忽大意。谷歌公司利用算法排除竞争案即为典型。众所周知,谷歌公司主要提供搜索引擎服务,购物比价是其针对网络购物提供的一款专业搜索服务,用户输入商品关键词,就会出现不同网站的商品供用户比较选择。谷歌公司声称所展示的商品完全根据算法自动得出,算法能依据商品网页的链接数量与质量来判定该商品的重要性,并按重要程度排列向用户展示。而当其自己的购物网站−Google Shopping 服务业务进入欧洲市场后,谷歌公司就通过技术编辑算法,将自己旗下的商品信息置于展示页面的显眼位置,以提高用户的关注度和购买意愿,但是诸多证据显示其商品并不是最优。作为算法控制人和实际获益者的谷歌公司却声称该推荐与其无关,只是算法运行的结果,显然其说辞难以令人信服。

三、算法歧视消费者的损益界定

当算法在不同领域阶段实施歧视消费者行为时,会产生不同程度的消费者权益损失问题。算法歧视加剧了经营者和消费者之间的技术鸿沟,导致消费者的信息劣势地位进一步强化。算法使用者利用算法技术内部的不透明性以及商业秘密保护制度的掩盖,故意持续巩固算法的黑箱效应,逐步将算法技术迁徙到市场规制的空白领域,导致既有的市场规制制度无法有效适用于算法歧视行为。算法歧视在操纵算法黑箱化的同时也使消费者进一步透明化,导致“强者行其所能为,弱者忍其所必受”的后果,消费者在算法歧视下的网络市场环境中苦不堪言。“魏则西事件”折射出百度搜索算法设计中的漏洞,今日头条因算法推荐内容同质化而广受诟病,滴滴网约车软件因算法动态定价被质疑“杀熟”。这使得算法这一新兴商业运作模式面临合法性质疑。但算法歧视消费者行为的阶段性特征使得算法歧视产生的损益结果具有极强的隐蔽性,消费者难以判断其遭受何种程度的歧视。因此,对算法歧视消费者的损益界定,亟待根据其行为的阶段性特征入手,从多法域角度界定损益后果。

(一) 信息采集算法歧视消费者的损益界定

如前所述,信息采集算法构建的市场主体“身份类型化”“单体化特征”已经内含歧视风险。在信息采集阶段算法的“歧视标准”损害的是不特定主体的数据权等基本权利,这些利益的享有人不确定,利益侵害的力度未知,危害后果难以遏制,且受损害的个体难以获得救济。主要表现为以消费者性别、消费者来源地与消费者职业等身份信息作为算法歧视的基础。按照德国社会学家马克斯•韦伯的工具理性和价值理性理论,工具理性强调工具崇拜,主张发挥工具的最大效用,价值理性则以人的动机和选择作为实现目标的决定因素。数字经济使得工具理性发生异化,算法技术由给人类提供辅助的工具转化为反噬人类理性的工具。一方面,自我迭代的算法导致市场主体被全面奴役,它预设市场主体的身份,以统计学上的关联性替代因果关系对个体进行归类和预测,成为市场竞争规则的塑造者;另一方面,算法日益复杂化,使市场主体逐渐沦为被技术操纵的对象,人的主体性发生危机,出现越来越多市场主体无法解释和控制的算法歧视行为。但科学技术并非无价值边界,只有当其符合市场主体的普遍价值判断时,才会逐渐被信任并接受。算法运行的逻辑是技术的自我迭代与革新,而法律运行的机理是公众认知的理性选择。因此,法律作为人类生活规则化的方向性指引,对算法歧视行为能够起到制度性引领的作用。

(二) 特定推送算法歧视消费者的损益界定

消费者的自主权,是指消费者依据自我决定的消费目的和自我判断的商品价值作出理性抉择的自由。然而,经营者尤其是一些互联网企业会通过算法对消费者的个人信息进行收集、整理和分析,从而给消费者提供“私人定制”的服务。其声明会尊重和保护消费者数据权利,承诺算法具备客观性和中立性,以吸引和诱导消费者将更多具有商业价值的决策权移交给互联网企业。从搜索引擎、新闻推送到购物出行,甚至个人信息如何使用都严重依赖算法决策。随着算法自主性的增强,作为主体的消费者的自主性却随之减弱,导致算法损害消费者权益的现象出现。特定推送算法对消费者浏览足迹和购买历史累积的大数据进行技术性搜集和分析,推测出消费者能够承受的最高价格,对不同的消费者实施个性化信息推送或屏蔽。算法的个性化推荐对在线消费者进行商品、服务和信息推送不仅会迎合消费者偏好,更直接关联经营者的经济利益,它决定谁的商品能够在排序中置顶从而优先推送给消费者。虽然消费者与经营者之间始终存在信息不对称状态,但特定推送算法的“黑箱机制”进一步加剧了这种不对称,导致消费者按照经营者所希望的意思在进行表示,根本没有意识到意思表示已经不真实,使得处于信息弱势一方的消费者无法作出真正的自主决策。

消费者自主权的正常行使建立在信息多元化能够得到保障的基础之上,而算法的个性化推荐只推送部分信息,造成信息茧房,进而阻碍消费者自主权的行使。而且随着算法深度学习功能越来越强大,个性化推荐甚至可以脱离消费者线上活动的足迹,引导消费者按照企业的营销思路作出决策,即算法专业领域所称的“无历史数据用户的冷启动”。例如在谷歌地图软件上,如果软件所使用的算法不关心用户的实际定位以及其所希望到达的目的地,而只关注广告商期待用户将途经或到达的地点,则依赖谷歌地图确定出行路线的用户,就会如同木偶表演一样被引导走向既定路线。从经营者角度观察,算法决策会越来越契合其营利性需求,但若站在消费者角度思考,消费者往往已经落入经营者的营销套路。最终的结果就是消费者的自主权被进一步削弱,消费者自主选择等基本权利的能力被持续削弱。

(三) 定价算法歧视消费者的损益界定

由于企业利益至上的营销方案,支撑其营销方案的算法会通过加强对用户的监控使其产生用户黏性,在相关市场中获取并巩固垄断地位,严重破坏了市场竞争秩序。可见,在个性化定价阶段,定价算法歧视不仅损害了消费者个体权利,也损害了竞争性利益,具有明显的违法性与损益性

个性化定价导致过高定价。定价算法主导的个性化定价以行为经济学理论为基础,通过收集消费者的个人信息数据,在定价变量的设计中保留对自己有利的因子,剔除对消费者有利的因子,从而确保最大限度地抓取消费者的消费倾向和价格上限信息,制定契合消费者支付意愿的完美定价,促使交易量和交易额同时大幅增加。但个性化定价实质是在侵犯消费者个人信息基础上的过高定价,导致本应归属个体消费者的剩余毫无保留地向单个经营者转移。例如,在“Merci v. Siderurgica”案中,向特定客户进行过高定价弥补其他价格优惠损失的策略是非法的

个性化定价导致垄断定价。定价算法主导的个性化定价使经营者能够在既有的产品种类上获得高额利润,其没有创新动力再进行产品的更新换代,相关产品市场会持续变窄,形成高度集中的市场环境。而高度集中的市场环境中,算法技术的应用使各经营者能够轻易获取其他竞争者的定价信息,导致市场在经营者端变得透明,透明且集中的市场又给默示共谋行为的滋生提供了养分和环境。故个性化定价会进一步促成经营者之间的默示共谋,经营者在默契配合下同时提高产品价格,消费者由于相关市场狭窄而无法利用手中的价格选票进行对抗,只能被迫接受经营者的垄断定价,进而导致整体消费者剩余向经营者端转移。可见,个性化定价导致的垄断定价在侵犯消费者自由选择空间的同时也掠夺了价格福利。传统司法实践也认可了这种歧视行为的违法性。在“Deutsche Post AG”案中,德国邮政公司针对竞争对手故意延缓信件传递时间,并利用其德国国内邮政市场的垄断地位与信息优势收取过高定价,对消费者具有直接的负面影响

(四) 初步结论与思考

算法歧视消费者的阶段性行为使算法歧视的特征表现极具隐蔽性。在信息采集阶段,算法的“歧视标准”损害的是不特定主体的公民基本权利。在特定推送阶段,算法推送对象与排斥对象具有明晰的“身份特征”,损害的是消费者的自主决策权利;在个性定价阶段,定价算法不仅损害消费者个体权利,也损害竞争性利益,具有明显的违法性与侵权性。与损害公民基本权利的算法歧视相比,损害消费者利益的算法歧视有着明显不同。首先,二者损害的对象不同,损害公民基本权利的算法歧视损害的是不特定主体的权利,包括性别平等、身份平等社会性基本权利;而损害消费者权益的算法歧视损害的则是特定消费者的公平交易权和自由选择权,即使损害范围在个案中时大时小,但始终局限在消费者群体范围内。其次,损害利益的不同进而导致二者适用的法律规范也会存在差异,前者由于损害利益的不确定性,适合从法律原则层次进行引导;而后者基于损害消费者利益的确定性,适合由《消费者权益保护法》《电子商务法》《反垄断法》等具体法律规则进行规制。

四、核心要义:算法参与者的权益平衡

“在动态而复杂的数字经济市场中,增强消费者的信任度仍然是数字经济成功的基石”。虽然算法服务数字经济的功能得到主要经济体普遍承认,但数字经济的发展需要通过企业间的算法竞争来形成前进动力,算法竞争产生的歧视消费者现象同样受到各国监管层的密切关注。算法展现出对资源配置机制的创新性改造,又为其服务市场所面临的市场竞争与公平秩序限定了边界。追求公平的算法秩序决定了算法歧视消费者必然面临“形式与实质”“群组与个体”等不同维度的规制态势,因此,对规制算法歧视消费者的多维度解读,将有助于我国规制算法歧视消费者的基本逻辑构建。

(一) 权益判断:算法参与主体的冲突

在信息采集阶段,算法歧视使经营者的算法自主决策权与消费者的隐私权等基本权利之间会产生冲突。一方面,经营者主体享有算法使用的自主决策权限。例如,法律虽未禁止经营者使用人脸、声纹等识别技术依托的算法采集消费者个人生物信息,但经营者未经消费者同意偷摄、偷录消费者个人生物识别信息,就会严重侵犯消费者隐私权。其后的甄别消费者身份的行为亦侵犯了消费者的身份平等权,并可能进一步限制公民相关的政治权力和自由。另一方面,经营者与消费者“共享信息”,甚至比消费者先获收益的同时,却未能“共担风险”。消费者按约提供信息是获得经营者提供信息推送、购买商品等服务的必然前提。根据消费者的消费意愿有无、强弱,大量消费者可能只停留在信息提供阶段,而没有进一步浏览信息或购买商品的行动。因此,经营者可在向消费者提供服务前,将采集到的消费者信息整备成其数据资源库的组成部分,发挥额外的商业价值。与此同时,经营者在使用消费者信息的过程中也存在泄露消费者个人信息的行为。澳大利亚竞争和消费者委员会(ACCC)调研报告显示,消费者在未享有部分收益的同时,还要额外承担因信息泄露给自己带来损害的风险

在特定推送阶段,算法歧视使经营者的推荐策略权与消费者知情权、自主选择权发生冲突。消费者的知情权是知悉商品或服务真实情况的权利;消费者的自主选择权是消费者遵从自我意愿,自主选择商品或服务的权利。对于经营者的推荐策略,因不具体指向任何一项产品或服务,且本身无法产生强制购买的效果。从降低交易成本的角度看,不宜一概认定消费者对经营者的推荐策略享有“选择权”。若推荐策略的结果损害消费者知情权、选择权,那么经营者通过特定推送算法推送给消费者的信息“应当同时向该消费者提供不针对其个人特征的选项”。例如,在互联网平台版权交易中,互联网平台通过特定推送算法、热点排名算法、流量扶持算法等算法工具进行作品推广,但平台并未对推广作品进行版权合法性审查。这导致消费者在购买作品时需“自担风险”(51)。同时,平台将“征求著作权者授权或许可”的义务转嫁给了消费者,剥夺了消费者向平台追偿的权利。

在个性定价阶段,算法歧视使经营者的市场利益与消费者剩余福利存在利益冲突。传统经济领域,由于信息不对称的问题虽然存在但并不突出,经营者市场利益与消费者福利之间存在共生的可能性,经营者由于无法准确判断消费者的支付意愿,只能通过制定合理价格的方式提升产品的性价比,以此吸引消费者购买并由此获利,故经营者实现市场利益的同时也满足了消费者福利。可是在算法主导的大数据经济领域中,经营者基于其技术优势使信息不对称演变为信息鸿沟,经营者可以通过对消费者信息的分析进行个性化定价,对忠诚消费者收取高价来获取高额利润,对部分潜在消费者收取相对低廉价格来获取最大销量,实现市场利益,而被算法判断为“忠诚”等级的消费者却因此付出高价。在 2016 年经济合作与发展组织(下文简称 OECD)“价格歧视”圆桌会议上,美国、日本、俄罗斯等国家的竞争执法部门就表示,由于基于数据的企业可以更准确预测每个消费者的支付意愿,价格歧视在数字经济中的应用更为广泛,这就增加了企业实施剥削性价格歧视的风险,并且可能损害公平的市场竞争秩序(52)。可见,个性化定价阶段,算法歧视直接导致了经营者市场利益和消费者剩余福利之间的严重利益冲突。

(二) 分散规制:权益失衡的秩序模式

数字经济作为经济新业态和新模式,必然对政府和市场监管规则产生新的挑战。总体上,现有数字经济监管模式仍然沿袭传统市场的二元分散治理模式:市场竞争实现市场力量制衡;政府秉持包容、事后的监管态度。算法歧视规制往往出现“打地鼠式”的治理困境,缺乏系统性的协同治理。2020年3月,工业和信息化部关于印发《中小企业数字化赋能专项行动方案》明确“发展数字经济新模式新业态”“鼓励发展算法产业和数据产业”。无独有偶,2020年4月,国家发展和改革委员会等13个部委印发《关于支持新业态新模式健康发展,激活消费市场带动扩大就业的意见》(下称《意见》)力促“质量变革、效率变革、动力变革”,推动经济“新业态新模式”的确立。在诸多产业政策加持下,算法经济提速与算法竞争加剧的场景显现也在情理之中。在产业激励政策之外,《意见》提及对数字经济创新要“创新监管模式,积极鼓励创新,健全触发式监管机制”。因此,宏观政策对算法歧视消费者所涉利益冲突的规制态度表现并不明确。

算法歧视消费者行为在法律责任认定及追究方面也存在诸多问题。在立法层面,如《反垄断法》要求实施算法价格歧视行为的经营者具有市场支配地位,但认定互联网企业具备市场支配地位的标准并不明晰。在部门规范中,文旅部2020年出台的《在线旅游经营服务管理暂行规定》明确禁止在线旅游经营者滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益,但其适用范围有限。在拟出台立法层面,《个人数据保护法(草案)》构建了“通知−使用”的个人信息权保护规则体系;《关于平台经济的反垄断指南(征求意见稿)》更是明确提出禁止算法歧视消费者;《深圳经济特区数据暂行条例(草案)》提出经营性数据要素市场主体不得通过分析消费者的个人信息、消费记录、偏好等数据,对商品或者服务设置不公平的交易条件,侵犯消费者合法权益,但这些草案的保护效力尚待实践检验。在适用内容方面,消费者可以因公平交易权和知情权受到侵害获得《消费者权益保护法》救济,但实践中算法的法律定位更多确定为企业商业竞争的“工具”而不是商品,不属于消费者知情范围,经营者甚至以算法涉及商业秘密为由进行抗辩(53)。在司法实践中,“刘权与北京三快科技有限公司侵权责任纠纷案”的原告主张美团外卖利用行业垄断优势和“大数据杀熟”的技术手段来区别定价,侵犯了自己的知情权、公平交易权。二审法院认为原告两份订单虽然购买商家、商品、收货地址一致,但关键下单时间不一致。三快科技公司根据平台交易量对配送费进行动态调整,是自身正常经营行为,不构成侵权(54)。因此,法律制度的滞后性以及政府规制的不完全性,导致宏观政策在创新与限制、竞争与规制之间的边界探索尚不充分。

平台自我管制本是逐利本质驱使的一己私利优先行为,但平台自我管制在逐利动机的驱使下,必然选择平台方或平台生态圈的利益优先策略。虽然算法歧视消费者问题备受关注,每次涉事企业都否认利用算法技术歧视消费者,最后结果也都往往不了了之。例如,2015 年 1 月国家工商管理部门指出淘宝正品率仅为37.25%,没有担负监督检查责任。但阿里声称虽然自己有义务监管假货,但凭借企业自身的监督力量很难有效监管淘宝市场,并认为前国家工商总局抽检不合程序和规范,贸然公开其过低的产品合格率,影响了其市场声誉(55)。又如,在2019年10月北京消费者协会发布“大数据杀熟”调查报告,指出携程、去哪儿、滴滴出行、淘票票等平台存在“大数据杀熟”行为,但携程、去哪儿、飞猪作出回应,均否认存在“大数据杀熟”行为,称价格变动系优惠活动导致,对所有用户报价均一致(56)

(三) 权益平衡:正义与公平的实现前提

1. 消除差别待遇:个人数据赋权

欧盟建立追求消除差别待遇的“主体平等”的数据赋权规制路径。算法运行以数据为基础,算法歧视往往源于对消费者个人数据的采集、清洗和整合过程,故欧盟规制算法歧视的重心在于保护消费者的数据权利,通过对消费者赋权,使消费者有能力干涉数据的处理过程。例如,《通用数据保护条例》(GDPR)明确规定消费者拥有数据的携带权、删除权以及被遗忘权,这些数据权利可以帮助消费者对抗算法的自动化决策,免受算法自动化决策带来的歧视威胁。欧盟模式重在以个人权力抑制算法权力的扩张。但是,算法歧视的结构性特征消解了《通用数据保护条例》(GDPR)的“数据清洁”条款确立的数据“差别待遇”标准。“差别待遇”标准否认算法决策的客观性,要求算法歧视的决策在主观意图上具备 “歧视”(discrimination)特征。可是,该制度很难落到实处,因为主观意图在实际案例中很难被证明。一方面,由于算法运算的基础是数据,如果用于训练算法的历史数据存在偏差或歧视,则算法会如实地总结并在运算结果中体现该歧视,引发算法歧视的风险,可是此时很难阐释算法控制者存在歧视消费者的主观意图;另一方面,由于算法运算过程的技术性和自动化特征,即使算法在运算过程中确实故意歧视消费者,由于技术鸿沟的存在,这种主观故意很难被发现,也不易被证明。

2. 差别性影响标准:追求结果正义

相对于欧盟赋权模式的“形式公平”,美国监管层更加追求算法结果的“实质正义”。遵循这一思路,美国选择了主张以保护“群组公平”(group fairness)的差别性影响标准为导向(57),以外部监管为主的管制模式。美国国会在《2019年算法责任法案》中授权美国联邦贸易委员会(FTC)作为算法影响消费者决策的监管权力主体,并课以算法使用主体披露算法信息与危险防止义务。FTC要求算法使用主体在合理情况下应向消费者解释算法核心机制,并接受监管当局的严格审查,以降低算法歧视的风险(58)。但是,差别性影响标准也面临着适用上的困境:第一,强调“群组公平”尚无法完全实现算法结果个体公平(individual fairness)。算法技术透过精准定位、特定推送将消费者个人信息与行为轨迹进行量化、形式化处理后,将其归入某类群组中,其所遵循的仍是一种去个体化的逻辑理路,忽略了个体利益。第二,差别性影响标准存在被虚置的可能性。美国住房发展部(HUD)在依据《公平住房法案》适用差别性影响标准判断住房贷款公司利用算法歧视购房者行为时,赋予住房贷款公司一定豁免条件。如其向贷款申请人作出禁止贷款决策受到质疑时,若能证明其行为能有效促进“相关利益”,且能排除行为的“非人为”“武断性”“不必要”等因素,便不构成歧视(59)。按照差别性影响标准,数据是证明住房定价算法能够保护弱势购房群体的关键工具,若不收集对应的数据将掩盖住房定价算法的歧视性影响(60),因此其数据收集行为具备一定的正当性。但批评者认为差别性影响标准附加的“非人为”“武断性”“不必要”因素的豁免条件,使得住房贷款公司可以“合法商业利益”标准、“较少歧视性的替代办法”为由主张歧视豁免,即使其运用算法模型作出了导致实质性不平等的后果(61)

从欧美国家对算法歧视消费者的规制安排来审视,虽然消费者利益被置于与竞争利益同等重要的地位,但各有利益保护的侧重点。欧盟侧重消费者利益的直接保护,美国侧重竞争者行为规制。因此,两个独立维度的规制思路各自存在其适用边界与困境。算法歧视消费者的规制应是“能够在取得最大社会效益的同时又能最大限度地避免浪费”,即在调整互联网企业竞争利益、消费者利益间冲突关系时,应在最大程度上协调利益需求,避免互联网利用算法技术过度、无序竞争,造成不必要的规制成本浪费。从此点出发,对算法歧视消费者规制最切实可行之处莫过于其侵犯消费者利益的法定化界定,即糅合欧盟模式与美国标准,在规制政策中明确算法歧视消费者规制路径,在此基础上明确其行为要件与法律后果。作为制衡市场权力的有效手段,法律规制不仅可以平衡各方利益、规范算法行为与保护消费者权利,也可以降低市场运作成本。更为重要的是,法律规制所具有的政策信号机制,将实现对算法驱动数字经济发展的协同规制。

五、平衡进路:算法歧视消费者规制的多方协同

在明确对算法歧视消费者规制的利益平衡要义,充分认识到现有体制规制算法歧视消费者困境后,应对算法歧视消费者行为进行全面有序的监管,从消费者、企业、行业、执法机构四维度制定协同规制方案是必然之举(62)

(一) 消费者维度:赋予消费者选择退出权,激励其挑战算法个性化决策

互联网企业基于技术优势,能够掌握并分析内生于消费者群体中的大数据,在企业与消费者之间形成数据鸿沟进而实施算法歧视。为了填补互联网企业与消费者之间的数据鸿沟,《电子商务法》顺应数字经济的发展,明确规定互联网企业在提供个性化搜索服务时须征询消费者同意,即消费者“选择进入”机制。消费者“选择进入”机制意味着在算法实施个性化决策之前,互联网企业需要征得数据权利主体即消费者的同意,消费者“选择进入”是“明示同意规则”下的产物。但是,消费者“选择进入”机制下的免受算法个性化决策权存在效用上的困境:虽然互联网企业在提供服务之前有义务征询消费者同意,但实际上,消费者在使用之前,往往没有意识到互联网企业可能会滥用消费者个人数据实施算法歧视,为了正常使用互联网企业提供的服务,消费者往往会选择同意。而当形成使用习惯并产生用户黏性之后,即使在使用过程中受到算法歧视的侵害,此时消费者已经丧失了拒绝的机会。以淘宝购物平台为例,消费者必须授权平台收集、使用个人数据后方能正常使用淘宝平台进行购物,当消费者为使用平台服务而“明示同意”数据使用协议,授权淘宝平台收集和使用个人数据后,消费者便没有途径要求淘宝平台停止针对个人的算法个性化决策。

为解决上述困境,欧盟在《通用数据保护条例》(GDPR)中明确指出消费者免受算法自动化决策的影响,我国也可以考虑在《个人数据保护法》《电子商务法》《消费者权益保护法》中更明确地规定消费者享有免受算法个性化决策的权利。从保护消费者权益的视角规制算法歧视,重心不在于解释其内部究竟如何运作,而在于检验输入数据与输出结果之间的关联关系。当统计学的关联关系适用于受算法决策影响的消费者,并对消费者的合法权益造成实质性影响时,消费者有权力不受此关联分析的限制是保护其合法权益最为直接和有效的方式。

具体而言,应采用消费者“选择退出”机制代替目前运行的“选择进入”机制,以维护消费者的自主权。消费者“选择退出”机制应满足下列要求:在数据采集阶段,消费者注册或第一次使用软件时遵循“默示同意规则”,默认消费者若不明确表示反对即视为同意授权互联网企业使用个人数据,互联网企业可以收集消费者的个人数据;在数据使用阶段,互联网企业在进行算法个性化决策之前,应向受算法决策影响的消费者进行明确的、有意义的、突出的提示,并提供“选择退出”的选项,若消费者在此过程中认为受到歧视,可以随时选择退出个性化算法决策,要求互联网企业提供不针对其个人特征的选项。消费者“选择退出”机制的优势在于可以转变互联网企业因消费者“不知情同意”(形式上知情实质上却并不知情)授权而“一劳永逸”,使互联网企业在提供服务的每个环节都注重合理、合法使用个人数据,主动避免算法歧视行为的发生,也可以提升消费者对个人数据权利的重视与保护,激励消费者挑战可能存在歧视的算法个性化决策(63)

(二) 企业维度:设置企业算法顾问,进行内部技术控制

算法技术应用给个人数据权利带来了威胁,因此,各国都十分重视对算法技术进行制度性的把控和规制。德国的个人数据保护顾问制度即为通过企业内部制度进行管控的典型,在个人数据保护中发挥了极大功效。德国个人数据保护顾问制度要求互联网企业设置专职岗位,进行数据活动的合规性审查和信息披露,确保数据收集和使用行为符合法律规范,在尊重公权力的同时最大限度地保障企业经营自由。正如前文所述,算法是实现低价值的原始数据向高价值的衍生数据转化的核心,故德国个人数据保护顾问实质上监管的是算法活动。随着以算法技术为核心的数据活动被迅速应用至市场经济各大领域,我国也应当借鉴德国的算法管控模式,要求符合特定条件和规模的互联网企业设置算法顾问岗位,聘用掌握专业技能和法律知识的人才作为算法顾问,主要从事数据透明化处理和算法解释工作(64)。当然,基于对技术和知识产权的保护,算法顾问对于数据透明化处理和算法解释的对象可以限于相关执法机关。具体如下:

第一,对数据进行透明化处理。正如美国前联邦最高法院大法官、美国进步运动的主要推动人路易斯•布兰代斯所言,“阳光是最好的杀毒剂,灯光是最好的警察。”对算法的规制同样如此,数据透明化处理就是算法歧视的阳光和灯光。针对算法歧视可能源于喂养数据中存在的偏见,为避免算法在设计和运行过程中内生歧视,算法顾问需要披露数据来源,对数据进行透明化处理(65)。通过要求算法顾问公开算法设计、运行过程中使用的数据来源,执法机关可以在调查过程中明晰数据是否被正当收集、分析和使用,以一种外部评估的方式来审视算法个性化决策,保证调查的客观和公正(66)

第二,对算法进行解释。由于算法“黑箱”决策机制的助推也是导致算法歧视的重要原因,仅公开算法决策的相关数据只是从表面上减少了算法的神秘性,并不能从实质上消除对算法的认知障碍,从而也就无法消除对算法个性化决策可能存在歧视的担忧(67)。其一,即使公开数据也不一定能确保有效跨越技术鸿沟,因此需要解释程序作为执法机关与企业之间的技术桥梁;其二,虽然算法规则本身隐藏在数据之中,但执法机关很难仅通过公开的数据发现算法决策所依据的所有规则,需要企业进一步解释作为补充(68)。故公开数据之后还需要必要的解释程序,要求算法顾问对算法遵循的程序和特定结果进行解释。

(三) 行业维度:行业协会进行算法审查,预防算法歧视

由于算法的技术性特征带来的算法黑箱效应,导致消费者虽无法洞悉算法决策是否侵害其数据权利,但对专业技术人员而言,算法的数据输入和结果输出则几乎是透明的。所以,由专业人员构成的行业协会对算法进行审查是可行的(69)。而且,与执法机关监管相比,行业协会的技术性和专业性都更胜一筹,在处理关涉算法的市场行为时效率更高,成本也更低。故在启动执法程序之前,如果预先通过行业协会对算法进行商业伦理审查,可以有效避免算法在运用过程中出现的歧视问题。如美国相关法律制度即倡导由独立的第三方机构对算法进行预先审查,即算法可审计原则,要求从事算法活动的企业必须如实记载算法模型、基础数据和决策环节,便于第三方机构审查。我国可以借鉴美国相关制度经验,要求行业协会进行算法审计,预防算法歧视。具体可以分为事前审查和事中审查。

第一,事前审查。对于算法应用中由于技术风险不确定性可能导致的算法歧视,应当由行业协会进行事前审查以合理预防风险。事前风险预防需要对算法设计的潜在缺陷进行审查,即算法设计是否可能对消费者基本权利和竞争秩序产生不利影响。尽管很多学者认为技术自身的属性是中立的,但即使认可技术中立的客观性,也并不等于价值中立。故法律应对技术应用进行价值引导。正如美国当代著名哲学家安德鲁•芬伯格所言:“在技术和社会共同建构的领域中,技术理性和社会经验处于相互纠缠的状态。”(70)算法技术一旦被应用于市场竞争,一定会受到市场主体营利价值属性的影响。比如今日头条采用的信息推荐算法就被质疑在算法设计中信息质量所占权重偏低,过于注重流量经济,导致低俗信息泛滥化。因此行业协会应当审查算法设计是否符合一定的商业伦理和社会伦理准则。

第二,事中审查。在算法的运营过程中,行业协会还应当持续审查算法模型是否会输出歧视性结果。算法本身的技术逻辑决定,相较于算法设计阶段,在算法运营阶段产生的歧视所造成的危害更为隐蔽。算法决策构成的“反馈循环”会加剧歧视的可能性。算法从含有偏见的数据中总结模型,会导致模型的输出含有偏见,当输出结果转变为数据被再次用于检验和完善模型,就会使得模型的偏见进一步深化甚至固化,这便构成了完整的歧视“反馈循环”。由于算法无法理解数据内容而且很难进行价值判断,其仅能依据当前数据的统计分析进行权重分配,当这种关联性适用于消费者个体时难免会产生误差,而这种误差可能对消费者的合法权益造成损害。因此,行业协会应当在算法运行过程中定期审查算法是否存在歧视(71)

(四) 执法维度:执法机构实施算法监管,严惩算法歧视

国务院在发布的《新一代人工智能发展规划》中明确提出政府应当履行人工智能(算法)的安全防范和市场监管职责,《反垄断法》有关规制滥用市场支配地位的制度中也禁止经营者没有正当理由,对交易相对人在交易价格等交易条件上实行差别待遇,《关于平台经济的反垄断指南(征求意见稿)》更是明确提出禁止算法歧视,其中第十七条明确规定:“禁止具有市场支配地位的平台经营者基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;对新老交易相对人实行差异性交易价格或者其他交易条件等。”作为消费者保护基本法的《消费者权益保护法》也提出消费者的知情、自主选择、公平交易以及个人信息等权利应当受到法律保护。如果经行业协会预先审查后,互联网市场仍然出现算法歧视行为,则应当由市场监管局进行监管,严惩算法歧视。执法机关可以通过明确监管对象、监管手段和监管职责,建立完善的算法监管体系。

第一,在确定监管对象上,如同《公司法》中“刺透法人面纱”的法人人格否定制度一样,算法监管也应当穿透算法黑箱的层层“黑幕”,将监管的对象直指算法幕后的控制人,准确定位监管对象,确定真正责任主体。同时,由于反垄断法规制的算法歧视行为要求经营者具有市场支配地位的身份要件,执法机关还需要确定算法幕后的控制人是否在相关市场具有市场支配地位。如2018 年ACCC针对数字平台的市场调查显示,Facebook 和 Instagram 的独特受众(unique audience)分别是 Snapchat 的三倍和两倍,并据此认定 Facebook 的巨大市场份额可以被视为其社交媒体服务几乎没有竞争约束的证据。因应互联网经济的特征,需要突破传统市场份额标准的限制,依照《反垄断法(征求意见稿)》中的标准:“认定互联网领域经营者具有市场支配地位还应当考虑网络效应、规模经济、锁定效应、掌握和处理相关数据的能力等因素”,以准确判断相关经营者是否具有市场支配地位。当然如果经营者不具备市场支配地位,执法机关就不能适用《反垄断法》,但可以依据《消费者权益保护法》为消费者提供必要的保护。

第二,在选择监管手段上,当算法决策对市场竞争秩序产生不利影响时,除禁令禁止和罚款等传统处罚措施之外,还可以通过行政约谈的方式对算法应用进行政府有限干预。比如“今日头条”和“凤凰新闻”就曾被相关机构约谈,要求平台提高推荐算法中信息质量的权重,避免信息低俗化。约谈可以最大限度地缓和政府干预和企业自由经营权之间的矛盾,通过要求企业承诺改变其行为方式而不是一味禁止,既可以避免过度执法伤害企业的创新积极性,也可以有效减少算法歧视行为对消费者和市场竞争秩序的侵害。

第三,在明确监管职责上,首先,监管机构应当制定互联网企业设计和使用算法应遵循的基本准则,进行底线把控。要求设计者在算法设计过程中就应当符合相关法律、政策的规定,要求算法控制人在算法的使用过程中融入消费者权益和竞争秩序维护的目标(72)。若相关主体突破底线,则应对算法歧视产生的后果负责。其次,监管机构应当定期协同行业协会审查企业所使用的算法是否合乎预期的运行以及是否产生不良后果,并将审查结果向公众披露,提升行业协会审查结果的权威性(73)。最后,可通过政府公开招标采购程序,面向市场征集采购可以监控算法歧视的算法程序,通过技术手段控制算法技术异化,最大程度地节约执法资源,提升执法的效率和精准性。

六、结 语

算法是实现大数据价值的基础设施,是人类社会技术应用的巨大进步,可以极大地促进经济发展、造福人类社会,舆论热点中的“大数据杀熟”仅是算法歧视消费者的“冰山一角”。为破解算法歧视消费者的隐蔽性难题,本文基于信息采集、特定推送和个性定价等运作阶段,以信息输入、数据整理、算法决策与后台控制等运行环节为切入点分析算法对消费者实施歧视的机制。研究结果表明,算法歧视在信息采集阶段侵犯消费者的身份平等权,在特定推送阶段侵犯消费者知情权、选择权,在个性定价阶段侵犯消费者公平交易权、掠夺消费者价格福利。算法加剧了经营者和消费者之间的技术鸿沟,导致消费者的信息劣势地位进一步强化。实际上,通过对算法技术服务消费者的过程分解,既折射出技术、市场在创新与竞争等维度中如何潜移默化地创造出新的市场模式,改变市场主体的行为,也透视了过度的创新与竞争所产生的市场无序与损害后果,最终都将累及市场本体与普通消费者。

对此,应当正视算法歧视给消费者权益带来的损害,合理有效规制算法歧视消费者的行为。在查明信息采集、特定推送和个性定价等算法歧视场景中经营者与消费者的利益冲突关系后,应协调经营者算法自主权与消费者身份公平权、隐私权,经营者推荐策略权与消费者知情权、选择权,经营者市场利益与消费者剩余福利等权益冲突,避免经营者利用算法技术过度、无序竞争,造成不必要的规制成本浪费。在运用法律规制所具有的政策信号机制时,应从消费者赋权、经营者透明度强化、行业协会审计与政府监管等维度,实现对算法驱动数字经济发展的协同规制,将法律的平等和公正理念融入技术发展进程之中,在维护消费者基本权益的同时促进市场自由公平竞争,真正实现技术推动经济,技术造福社会。

① 韩旭至:《数据确权的困境及破解之道》,《东方法学》2020年第1期。

② Negroponte N. Agents:From Direct Manipulation to Delegation. Software agents, 1997.

③ 徐景一、李昕阳:《共享经济背景下平台企业利益关系演变研究》,《经济纵横》2019年第6期。

④ Lambrecht,Anja and C. E. Tucker. Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Social ence Electronic Publishing, 2016.

⑤ 肖帅、刘瀚文:《价格千人千面?携程否认“大数据杀熟”!网购比价攻略在此……》,2018年5月28日,https://www.sohu.com/a/233208352_183333,最后访问时间:2021年1月18日。

⑥ 孙伯龙、贾芳:《一场来自“杀熟”实验的定价风暴》,《检察风云》2019第14期,http://www.fx361.com/page/2019/0726/5356590.shtml,最后访问时间:2021年1月17日。

⑦ 李崇:《“大数据杀熟”刷屏,一群网友亲测后气炸!》,《中国青年报》2018年3月23日,http://news.163.com/18/0323/21/DDK4OTT10001875P.html,最后访问时间:2021年1月15日。

⑧ 北京消协:《京市消协发布大数据“杀熟”问题调查结果》,http://www.bj315.org/xxyw/xfxw/201907/t20190727_19494.shtml,最后访问时间:2021年1月19日。

⑨ 中国消协:《加强网络消费领域算法规制,保障消费者知情权、选择权和公平交易权》,2021年1月7日,http://www.cca.org.cn/zxsd/detail/29897.html,最后访问时间:2021年1月19日。

⑩ Ramsi Woodcock,Personalized Pricing as Monopolization,Connecticut Law Review,Vol. 51,No.2,2019,pp. 311-373.

⑪ Dirk Bergemann & Benjamin Brooks & Stephen Morris,The Limits of Price Discrimination,American Economic Review,Vol. 105,No. 3,2015,pp. 921-957.

⑫ Bryce Goodman. Discrimination,Data Sanitisation and Auditing in the European Union’s General Data Protection Regulation,European Data Protection Law Review,Vol.2,No.4,2016,pp.493-605.

⑬ Betsy Anne Williams,Catherine F. Brooks,Yotam Shmargad,“How Algorithms Discriminate Based on Data They Lack:Challenges,Solutions,and Policy Implications”,Journal of Information Policy,Vol.8,2018,pp.78-115.

⑭ Michael Scherman,Adam Goldenberg,Grace Waschuk,Kendra Levasseur,US Lawmakers Propose Algorithmic Accountability Act Intended to Regulate AI,retrieved from https://www.mccarthy.ca/en/insights/blogs/cyberlex/us-lawmakers-propose-algo rithmic-accountability-act-intended-regulate-ai,2021-1-1,最后访问时间:2021年1月18日。

⑮ 乔榛、刘瑞峰:《大数据算法的价格歧视问题》,《社会科学研究》2020年第5期;张恩典:《反算法歧视:理论反思与制度建构》,《华中科技大学学报(社会科学版)》2020年第5期。

⑯ 杨成越、罗先觉:《算法歧视的综合治理初探》,《科学与社会》2018年第4期。陈兵:《法治经济下规制算法运行面临的挑战与响应》,《学术论坛》2020年第1期;崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,《法律科学(西北政法大学学报)》2019年第3期。

⑰ 丁宇翔:《跨越责任鸿沟−共享经营模式下平台侵权责任的体系化展开》,《清华法学》2019年第4期。

⑱ 刘友华:《算法偏见及其规制路径研究》,《法学杂志》2019年第6期。

⑲ 郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查−以美国法律实践为例》,《比较法研究》2019年第4期。

⑳ 李婕:《垄断抑或公开:算法规制的法经济学分析》,《理论视野》2019年第1期。

㉑ 马丹丹、岑咏华、吴承尧:《信息样本的有偏采集如何导致决策偏见?−基于采样偏差的新视角述评》,《外国经济与管理》2017年第12期。

㉒ 凯文•沃巴赫、林少伟:《信任,但需要验证:论区块链为何需要法律》,《东方法学》2018年第4期。

㉓ 杨成越、罗先觉:《算法歧视的综合治理初探》,《科学与社会》2018年第4期。

㉔ 刘培、池忠军:《算法的伦理问题及其解决进路》,《东北大学学报(社会科学版)》2019年第2期。

㉕ 卜素:《人工智能中的“算法歧视”问题及其审查标准》,《山西大学学报(哲学社会科学版)》2019年第4期。

㉖ 喻玲:《算法消费者价格歧视反垄断法属性的误读及辨明》,《法学》2020年第9期。

㉗ 人的认知范围与信息圈层受到主客观条件限制,了解信息的范围被称为信息圈层,也被称为“信息偏食”。

㉘ 虽然不少缺乏自制力的“信息偏食者”极度依赖特定推送算法进行商品选择,但对这部分选择以信息自主选择权换取便利的消费者而言,推送算法已由信息适配者角色僭越为信息的投喂者。

㉙ [美]尼沃•埃尔金科伦、尼尔•温斯托克•内坦尼尔:《信息的商品化》,中信出版社2003年版,第231–234页。

㉚ 丁晓东:《算法与歧视−从美国教育平权案看算法伦理与法律解释》,《中外法学》2017年第6期。

㉛ 郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查−以美国法律实践为例》,《比较法研究》2019年第4期。

㉜ Hacker,Philipp. Teaching Fairness to Artificial Intelligence:Existing and Novel Strategies Against Algorithmic Discrimination Under EU Law. Social Science Electronic Publishing , 2018.

㉝ 陈姿含:《人工智能算法中的法律主体性危机》,《法律科学(西北政法大学学报)》2019年第4期。

㉞ [美]弗兰克•帕斯奎尔:《黑箱社会:控制金钱和信息的数据法则》,赵亚男译,中信出版社2015年版,第131–133页。

㉟ 杜小奇:《多元协作框架下算法的规制》,《河北法学》2019年第12期。

㊱ 章小杉:《人工智能算法歧视的法律规制:欧美经验与中国路径》,《华东理工大学学报(社会科学版)》2019年第6期。

㊲ 消费者性别差异会使男女间产生消费观念、消费偏好的差别,消费者来源地是消费者的个人基本信息,而非直接的经济特征。此外,消费者职业是消费者的个人身份信息,不能直接反应一个人的收入水平、偏好。

㊳ 王锴:《基本权利保护范围的界定》,《法学研究》2020年第5期。

㊴ 沈伟伟:《算法透明原则的迷思−算法规制理论的批判》,《环球法律评论》2019年第6期。

㊵ 范红霞、孙金波:《大数据时代算法偏见与数字魔咒−兼谈“信息茧房”的破局》,《中国出版》2019年第10期。

㊶ 马长山:《智能互联网时代的法律变革》,《法学研究》2018年第4期。

㊷ 从竞争法治的维度上看,算法歧视可归入反垄断法所禁止的价格歧视行为,对于价格歧视的认定标准、竞争损害等,域外执法和司法实践中积累了不少典型案例和成熟做法。国内竞争执法部门和法院在分析相关案件时倾向于利用《反垄断法》第 1 条中的“保护市场公平竞争”来解释案件中实施价格歧视的经营者的行为违法性。

㊸ EUR-Lex - 61990CJ0179- EN https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A61990CJ0179,最后访问时间:2021年1月18日。

㊹ EUR-Lex - 32001D0892- EN https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32001D0892,最后访问时间:2021年1月18日。

㊺ Gokce,Ebru. Competition Issues in the Digital Economy UNCTAD Background Note 2019. 18th session of Intergovernmental Group of Experts on Competition Law and Policy, 2019.

㊻ Vatamanescu E M,Nistoreanu B G,Mitan A. Competition and Consumer Behavior in the Context of the Digital Economy, Amfiteatru Economic Journal,2017,19(45), pp.354-366.

㊼ 姚前:《算法经济:资源配置的新机制》,《清华金融评论》2018年第10期。

㊽ 新华网:《为防人脸识别戴头盔看房,警惕技术滥用加剧隐私危机》,http://www.xinhuanet.com/comments/2020-11/25/c_1126786219.htm,最后访问时间:2021年1月20日。

㊾ ACCC,NSW Young Lawyers (April 2018),https://www.accc.gov.au/system/files/NSW%20Young%20Lawyers%20%28April%202018%29.pdf,最后访问时间:2021年1月22日。

㊿ 参见:《电子商务法》第18条第1款。

(51) 以视频分享平台哔哩哔哩(bilibili)为例,其在《哔哩哔哩弹幕网用户使用协议》(2019 年 7 月 23 日版)7.7条款中注明:“用户理解并同意自主选择免费下载和使用哔哩哔哩服务,风险自负,包括但不限于用户使用哔哩哔哩服务过程中的行为,以及因使用哔哩哔哩服务产生的一切后果。”

(52) 周围:《人工智能时代个性化定价算法的反垄断法规制》,《武汉大学学报》2021年第1期。

(53) 叶明、郭江兰:《数字经济时代算法价格歧视行为的法律规制》,《价格月刊》2020年第3期。

(54) 刘权、北京三快科技有限公司侵权责任纠纷二审民事判决书〔2019〕湘01民终9501号。

(55) 新华网,《工商总局局长谈网络企业售假:可罚到倾家荡产》,http://www.xinhuanet.com//politics/2015lh/2015-03/10/c_127562630_2.htm,最后访问时间:2021年1月21日。

(56) 新华网,《北京市消协发布“大数据杀熟”问题调查结果》,http://www.xinhuanet.com/2019-03/28/c_1210093451.htm,最后访问时间:2021年1月18日。

(57) 差别性影响标准是指如果某项法律、政策或行为对某个群体产生差别性的负面影响,这项法律、政策或行为就应当被宣布为非法。差别性影响标准是从特定决策行为所产生的外部影响上来判断行为人是否构成歧视,即只要当特定行为造成受保护阶层不成比例地承受负面结果,造成所谓差别性影响,便极有可能构成歧视。

(58) Using Artificial Intelligence and Algorithms , https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial-intelligence-algorithms,最后访问时间:2021年1月22日。

(59)(60) Rodriguez,Lorena. “‘All Data Is Credit Data’:Closing the Gap Between the Fair Housing Act and Algorithmic Decisionmaking in the Lending Industry.”Columbia Law Review , 120 (2020).

(61) https://www.federalregister.gov/documents/2020/09/24/2020-19887/huds-implementation-of-the-fair-housing-acts-disparate-impact-standard,最后访问时间:2021年1月22日。

(62) Prince,Anya ER,and Daniel Schwarcz. “Proxy discrimination in the age of artificial intelligence and big data.” Iowa L. Rev. 105 (2019):1257.

(63) 陈兵:《因应超级平台对反垄断法规制的挑战》,《法学》2020年第2期。

(64) 高学强:《人工智能时代的算法裁判及其规制》,《陕西师范大学学报(哲学社会科学版)》2019年第3期。

(65) 林洹民:《自动决策算法的法律规制:以数据活动顾问为核心的二元监管路径》,《法律科学》(西北政法大学学报)2019年第3期。

(66) 张欣:《算法解释权与算法治理路径研究》,《中外法学》2019年第6期。

(67) 章小杉:《人工智能算法歧视的法律规制:欧美经验与中国路径》,《华东理工大学学报》(社会科学版)2019年第6期。

(68) 徐凤:《人工智能算法黑箱的法律规制−以智能投顾为例展开》,《东方法学》2019年第6期。

(69) 马长山:《智慧社会背景下的“第四代人权”及其保障》,《中国法学》2019年第5期。

(70) 徐琳:《人工智能推算技术中的平等权问题之探讨》,《法学评论》2019年第3期。

(71) 高海青:《时代思潮中的技术批判理论−安德鲁•芬伯格教授访谈录》,《自然辩证法研究》2015年第3期。

(72) 杜小奇:《多元协作框架下算法的规制》,《河北法学》2019年第12期。

(73) 张恩典:《大数据时代的算法解释权:背景、逻辑与构造》,《法学论坛》2019年第4期。

(74) 张玉宏、秦志光、肖乐:《大数据算法的歧视本质》,《自然辩证法研究》2017年第5期。

主要参考文献
[1] 韩旭至. 数据确权的困境及破解之道[J].东方法学,2020(1).
[2] 郑智航, 徐昭曦. 大数据时代算法歧视的法律规制与司法审查−以美国法律实践为例[J].比较法研究,2019(4).
[3] 刘友华. 算法偏见及其规制路径研究[J].法学杂志,2019(6).
[4] 喻玲. 算法消费者价格歧视反垄断法属性的误读及辨明[J].法学,2020(9).
[5] 马长山. 智慧社会背景下的“第四代人权”及其保障[J].中国法学,2019(5).
[6] 林洹民. 自动决策算法的法律规制: 以数据活动顾问为核心的二元监管路径[J].法律科学(西北政法大学学报),2019(3).
[7] Vatamanescu E M, Nistoreanu B G, Mitan A. Competition and consumer behavior in the context of the digital economy[J]. Amfiteatru Economic Journal,2017,19(45):354–366.
[8] Prince, Anya ER, Daniel Schwarcz. Proxy discrimination in the age of artificial intelligence and big data[J]. Iowa L. Rev,2019,105(4):1257–1274.
Algorithmic Discrimination against Consumers: Behavior Mechanism, Profit and Loss Definition, and Compound Regulation
Li Dan     
School of law, Southwest University, Chongqing 400715, China
Abstract: Algorithmic technology has the dark side of discriminating consumers while realizing the value of data. In order to solve the problem that algorithms discriminate against consumers, this article analyzes the mechanism of algorithmic discrimination against consumers based on the operational stages of information collection, specific push and personalized pricing, and uses information input, data sorting, algorithmic decision-making and background control as the entry point. The research results show that algorithmic discrimination infringes consumers’ right of identity equality in information collection, infringes consumers’ right to know and choose in a specific stage of push, infringes consumers’ right of fair transactions, and robs consumers’ price benefits in individual pricing. Algorithms have intensified the technological gap between operators and consumers, leading to further strengthening of consumers’ information disadvantages. In fact, by decomposing the process of algorithmic technology serving consumers, it not only reflects how technology and market create new market patterns imperceptibly in the dimensions of innovation and competition, and changes the behavior of market subjects, but also reflects the market disorder and damage consequences caused by excessive innovation and competition, which will eventually involve the market itself and ordinary consumers..In response to this problem, we should face up to the damage caused by algorithmic discrimination to consumers’ rights and interests, and reasonably and effectively regulate algorithms that discriminate against consumers. After finding out the conflict of interests between operators and consumers in information collection, specific push and personalized pricing, it is necessary to coordinate the conflict between operators’ algorithm autonomy and consumers’ right of identity fairness and privacy, operators’ right to recommend strategies and consumers’ right to know and choose, operators’ market interests and consumers’ surplus welfare, so as to avoid excessive and disorderly competition by operators using algorithmic technology, resulting in unnecessary waste of regulatory costs. When using the policy signaling mechanism of legal regulation, it is necessary to realize the coordinated regulation of algorithm-driven digital economy development from the perspectives of consumer empowerment, strengthening operator transparency, industry association auditing and government supervision, integrate the concept of equality and justice of law into the process of technology development, safeguard the basic rights and interests of consumers, and promote free and fair market competition.
Key words: algorithmic discrimination    implicit discrimination    consumers    competition    regulation