《外国经济与管理》
2024第46卷第5期
算法权力在管理领域的研究回顾、探索与展望
包艳1 , 马伟博1 , 廖建桥2 , 赵海涛3     
1.西安交通大学 管理学院, 陕西 西安 710049;
2.华中科技大学 管理学院, 湖北 武汉 430074;
3.空军工程大学 空管领航学院, 陕西 西安 710051
摘要:算法权力反映了算法对目标对象行为的控制力和影响力,强调算法对目标对象的过程监督、行为规范和意识引导。尽管算法权力在推动企业与劳动者价值共创,提升劳动者获得感、幸福感、安全感方面具有重大价值和现实意义,但目前学术界对算法权力的研究还处于初步发展阶段,缺乏系统性梳理。鉴于此,本文在回顾权力相关文献的基础上明晰了算法权力的概念与内涵,从组织内权力来源的五个维度归纳了算法权力的影响因素,从积极和消极两个方面总结了算法权力对组织和个体产生的影响,并从规训机制、嵌入机制和迭代机制三个方面对算法权力的影响机制进行了讨论。最后,本文总结了算法权力已有研究的不足,并从开发测量工具、加强动态研究、深化研究结果、拓宽研究领域、拓展机制研究、关注本土背景等多个方面展望了未来的研究方向,为算法权力后续研究的开展提供参考。
关键词算法权力规训机制嵌入机制迭代机制
A Literature Review, Exploration, and Prospects of Algorithmic Power in the Field of Management
Bao Yan1 , Ma Weibo1 , Liao Jianqiao2 , Zhao Haitao3     
1.School of Management, Xi’an Jiaotong University, Xi’an 710049, China;
2.School of Management, Huazhong University of Science and Technology, Wuhan 430074, China;
3.Air Traffic Control and Navigation College, Air Force Engineering University, Xi’an 710051, China
Summary: Algorithmic power refers to the control and influence that algorithms exert over the behaviors of target objects, emphasizing the process supervision, behavioral norms, and consciousness guidance of algorithms on target objects. Although algorithmic power has significant value and practical significance in promoting the co-creation of value between enterprises and laborers, and enhancing laborers’ sense of fulfillment, well-being, and security, the current academic research on algorithmic power is still in its preliminary stage, lacking comprehensive analysis. Therefore, this paper clarifies the concept and connotation of algorithmic power based on a literature review on power. It summarizes the influencing factors of algorithmic power from five dimensions of power sources within an organization, outlines the impact of algorithmic power on organizational and individual levels from both positive and negative aspects, and discusses the impact mechanism of algorithmic power from three aspects: disciplinary mechanism, embedding mechanism, and iterative mechanism. Finally, this paper summarizes the shortcomings of existing research on algorithmic power, and looks forward to future research directions from multiple aspects such as developing measurement scales, strengthening dynamic research, deepening research results, extending research fields, expanding mechanism research, and focusing on local backgrounds, providing reference for subsequent research on algorithmic power.
Key words: algorithmic power; disciplinary mechanism; embedded mechanism; iterative mechanism

一、引 言

随着平台型组织的大量涌现和企业数字化管理技术的运用,人与数字技术的相融交织成为个体工作和生活的常态。由管理者制定绩效考核制度和以管理者为责任主体的传统管理方式,已转变成利用数字技术和人工智能算法所进行的自动化管理(Kellogg等,2020;Rahman,2021;de Vaujany等,2021),算法转变成一种深藏在系统背后的、看不见的“管理决策者”。一种新型权力形式,即“算法权力”,开始悄然无声地对平台工作者施加控制力和影响力(张凌寒,2022;周辉,2019;Beer,2017;Pasquale,2015)。虽然学者们对于算法是否具有权力还存在一定的分歧,比如以Neyland和Möllers(2017)为代表的学者认为,算法本身并没有权力,它只是一种基于设计的控制工具,其核心是“IF...THE...”结构的规则描述,算法决策也并不能胁迫个体遵从它提供的“建议”,仅可以通过技术微调达到“选择优化”的目的(Yeung,2017),而以Lundahl(2022)和Wood等(2019)为代表的学者则认为,算法通过数据分析对员工进行声誉和评级排序等特征形成了象征性的权力结构,平台工作者只有依照算法所传递的信息并遵照指示内容完成工作才能获得报酬,这种隐藏在数据信息背后的行为控制,本质上是新技术手段对劳动控制权的支配(Rosenblat和Stark,2016;Sadowski,2019),但可以看到的是,学者们都认同算法会对个体行为产生控制和影响。正如Foucault(1995)所提到的那样,“权力是需要解释的东西,而不是提供解释的东西”,与争论并存的是学者们依旧积极讨论了算法的概念和思想如何在社会中产生强大的影响力(Beer,2017)、如何改变现有的社会结构(Burrell和Fourcade,2021)、如何影响组织发展(Vallas和Schor,2020)以及如何“操纵”人的行为(Kellogg等,2020)。

基于此,本文围绕算法权力的概念内涵,以“算法”(algorithmic)为相关主题词,结合“权力”(power)、“控制”(control)、“影响”(influence)、“监控”(surveillance)和“管理”(management)等检索词,在Web of Science、EBSCO和知网等国内外数据库中对2016年1月到2023年4月的文献进行检索,初步得到75篇中文文献和289篇英文文献。我们又对这364篇文献采用以下标准进行筛选:(1)剔除与本文研究主题不符的文献;(2)剔除非核心期刊来源文献;(3)剔除书评、社论、征稿启事等非研究性文献。最终,本文共获取符合研究条件的重要文献95篇(中文文献11篇,英文文献84篇),主要来源期刊为《管理世界》《南开管理评论》、Academy of Management AnnalsAdministrative Science QuarterlyOrganization Studies等。

通过Citespace软件对国外代表性文献进行时区图谱分析可以看到(见图1),该主题受到社会学、经济学和管理学等多个领域学者的关注,研究成果逐年增加,并在2019年后受到广泛关注。此外,管理领域的研究主题也从对平台绩效、零工经济和人力资源管理的实践总结逐渐深入到对算法管理机制的探讨以及对个体工作体验的心理行为机制的探讨(Kellogg等,2020;Möhlmann等,2021)。尽管从2017年开始学者们便对算法权力进行了持续关注,并讨论了“权力不对称”与“规训权力”相关问题,但整体看来,算法权力研究仍处于初步发展阶段,关于算法权力的概念界定、影响因素和影响机制尚未形成系统的研究体系。鉴于此,本文希望通过对已有研究的系统性梳理和探索,进一步刻画算法权力的整体“画像”,以便于学者们更好地了解算法权力的演化逻辑。

图 1 算法权力相关研究的时区图谱
二、算法、权力与算法权力相关概念

算法代表着用系统的方法描述解决问题的决策机制,是一种能够将输入数据转换为期望输出的计算机程序(Christin,2017;Fernández-Macías,2018;Schildt,2017)。与组织管理相关的算法主要有K-means聚类算法、Spark算法、决策树算法、增量式FP growth算法、BP神经网络算法等等,而在实际运用中,很多公司都通过人工智能技术实现了效率更高和精度更好的混合算法(Russell和Bennett,2015),简称为人工智能算法。

不同于传统的电子管理和人力资源管理系统中使用的算法,人工智能算法能够处理具有异质性特征的大型非结构化数据集,并具有互联的潜力,可以预测和处理各种复杂任务(Ananny和Crawford,2018;Cheng和Hackett,2021;Deobald等,2019;Kellogg等,2020;Schafheitle等,2020)。而且人工智能算法还可以在没有人为干预的情况下进行自我迭代,具备高度的自主能力和持续改进的学习能力(Duggan等,2020;Faraj等,2018;Irwin等,1993;Kellogg等,2020;Fernández-Macías,2018),可以优化管理过程、提高管理效率。因此,人工智能算法正在以新的、通常也是更极端的方式影响平台工作者的工作设计。

社会权力强调权力双方对有价值资源的不对等控制以及由此形成的不对等依赖关系,重点在于权力主体能够通过对有价值资源的控制来制约和影响他人以实现自我意志(Anderson等,2012;Ten Brinke和Keltner,2022;Emerson,1962;Magee和Galinsky,2008)。由于价值是主观的,因此资源必须对双方中的至少一方具有重要性。其中,有积极价值的资源包括奖励和任何对方想要的资源,有消极价值的资源则包括惩罚和任何对方不想得到的资源(Salancik和Pfeffer,1978)。在传统组织管理中,领导者因为占据着组织中的高位而控制着更多的资源(Magee和Galinsky,2008),他们可以扣留或提供积极资源,也可以拿走或管理消极资源,从而控制员工来保证组织目标的实现(Townley,1993;Vallas,2006)。但在数字化组织管理的背景下,算法会自动在工作任务管理过程中通过监督、评估、奖惩等各种手段,提供或限制员工对有价值资源的获取,从而规范员工行为,以满足完成任务的要求(Harms和Han,2019)。

我们将通过对权力文献的进一步回顾来界定算法权力的概念。首先,权力基于资源。互联网与信息技术的发展改变了权力发生的社会场域,编码化的信息和知识成为如资本和能源一样重要的社会核心资源,甚至被看作权力的重要来源以及衡量权力的基本尺度(包艳等,2021),数据资源的决策有用性、高速增长性、可重复开采性和功能多样性等特征决定了其在利用、开发和管理等方面都将与传统资源有所不同(陈国青等,2020;张明超等,2021;Günther等,2017;Kennedy等,2015;Zuboff,2015)。正如Pasquale(2015)所强调的那样,“关键决策不是基于数据本身,而是基于算法分析的数据”。Sadowski(2019)把数据分析理解为一种新的资本形式,数据通过算法决策进行操作,使得算法能够有权力对个体行为进行干预。以亚马逊推出的腕带为例,亚马逊将腕带绑在仓库工人身上,以随时跟踪和记录他们的行为数据,并通过算法来刻画最有效率的行为模式,在他们工作效率低下时提供“触觉反馈”。同时,数据系统中普遍存在的不平等、提取和剥削关系(Aitken,2017;Andrejevic,2014;Fourcade和Healy,2013),可以让算法通过收集相关事物的数据,增强对该事物行使权力的能力(如推荐算法、排序算法),而在此过程中获得的更多数据,还能使算法权力得到进一步强化。不仅如此,算法权力还可以通过创造“知识”产生影响(Bucher,2017)。知识被认为是发挥微观权力机制的重要资源(Foucault,1996)。Foucault(1995,1996)认为权力对个体的控制是通过知识的创造与输出进行的,如果知识没有传播和保存,权力就无法运行。算法通过物理干预去塑造决策、影响行为和引入某些想法来进行知识价值创造。例如,算法所创造的“信息茧房”不断对个体输出特定的知识,强化个体的认知偏执,加大不同群体间的认知差异,使得个体的行为认知更符合算法的目的(申楠,2020;Bucher,2017)。

其次,权力产生影响。权力是一种特殊的社会关系,其重要特点在于权力主体能够运用权力影响或制约他人从而贯彻自我意志(Emerson,1962)。算法能够通过监督实现员工的自我规训,它们不仅具有计算对象的物质性,而且还能使参与者采取行动和反应(Lenglet,2011;Mackenzie,2019)。算法监控是算法实现管理权力的主要手段(Zorina等,2021)。平台型组织的在线管理通过全景监控和网络监控两种形式促进了管理规范的严格执行,极大提高了制裁的有效性,实现了对平台工作者的全方位监控(陈龙,2020;Curchod等,2020)。以监督的形式来获得权力的研究最早可以追溯到边沁的全景监狱,“全景”模型强调了在日常生活中受到持续审视的个体如何内化行为规范和评价标准(Sewell和Barker,2006)。正如Foucault(1996)所说,“全景”权力会通过持续的控制、惩罚、补偿和修正促使个体逐步符合预期的规范。Newlands(2021)的研究利用Henri Lefebvre的空间理论对算法监督进行理论探索,认为算法监督依赖于将物理空间和运动转化为数字表现形式,具体而言,平台通过对员工实时数据的捕获、记录,将其身体转化为可量化的数据并映射到“简洁”的数字地图之中,使得算法能够从数字制图空间对生活空间中的员工进行干预。陈龙(2020)的研究也认为,算法通过对平台工作者的运动路线和运动状态进行实时监控,实现对劳动的高度控制和精准预测,进而不断提高算法在劳动过程中的控制权。

为了更好地理解算法权力的概念,我们还整理了现有研究中能够体现算法在管理中控制力和影响力的相关概念,包括算法管理、算法控制、感知算法控制和算法决策(见表1)。我们认为,算法管理、算法控制以及感知算法控制反映了算法对目标对象的控制力,强调算法对劳动过程的监督和对劳动者行为的规范与限制;而算法决策反映了算法对目标对象行为的潜在影响力,强调算法对理性决策的影响。对这些概念的整理,也有助于我们更好地了解算法权力的内涵。

表 1 管理领域算法研究的相关概念定义
研究视角术语界定代表学者概念界定
管理视角算法管理刘善仕等(2021)基于计算机算法技术设计的一套平台控制系统,该系统是为了对关于平台管理的操作指令进行编码和编程而开发的一整套规则和程序
算法管理Kellogg等(2020)是一种允许雇主在组织内部和组织之间重新配置雇主—工人生产关系的主要力量
算法管理黄再胜(2019)平台凭借数据驱动的智能化决策,快速完成人—单的精准匹配、劳动过程的瞬时优化、劳动定价的动态调整以及劳务准入与退出的即时管理
控制视角算法控制Rosenblat和Stark(2016)基于算法技术通过“软控制”手段来监督和确保工作者行为的有效性
算法控制Wood等(2019)基于平台的评级和数字声誉系统来控制工作者的行为与表现
算法控制系统Duggan等(2020)是一种控制系统,智能化算法代替了管理者通常会执行的工作和流程,从而约束工作者的行为参与并对劳动过程实施监督
感知算法控制裴嘉良等(2021)零工工作者对于算法如何通过规范指导、追踪评估和行为约束对其提供在线劳动服务的过程进行实时动态控制的综合感知
决策视角算法决策裴嘉良等(2021)通过以计算机深度学习算法为基础、由大数据驱动的人工智能来集成组织内外部信息,协助管理者进行复杂且关键问题的决策
算法决策Wilson和Daugherty(2018)基于人工智能算法将工作者和技术共同置于决策环境中,通过复杂的智能算法逻辑协助决策者做出科学理性的决策
算法决策Möhlmann等(2021)平台通过大规模收集和使用数据,来开发和改进学习算法,这些算法以高度自动化和数据驱动的方式执行传统上由经理执行的协同和决策功能
算法决策Newell和Marabelli(2015)算法决策基于由数字化设备捕获并由算法处理的大数据,凭借人工智能卓越的定量、计算和分析能力,为人类决策者提供更全面的数据分析,帮助优化组织决策
  资料来源:根据相关文献整理。

综上所述,算法权力反映了算法对目标对象行为的控制力和影响力,其中,控制力维度强调算法对劳动过程的监督和对劳动对象行为的规范与限制,而影响力维度强调算法对目标对象思想和行为的潜在作用与改变。

三、算法权力的影响因素

已有研究认为,权力是一个客观的变量,只要能够了解权力双方的价值资源来源,就可以衡量各方的权力(Magee和Galinsky,2008)。Raven和French(1958)关于组织内权力来源的研究提出了源于威胁的强制权、源于设立经济或非经济补偿物的奖赏权、源于合法职位的法定权、源于追随者尊敬的参照权和源于个体专业知识的专家权。后来的文献依据对追随者内外动机的影响将这五种权力区分为强制权力(奖赏权和强制权)和非强制权力(专家权、参照权和法定权)。新近的很多研究指出,智能算法管理已经开始取代组织中中层管理者的部分责任(Cheng和Foley,2019;Kellogg等,2020)。鉴于此,我们将继续从组织内权力来源的五个维度来分析算法权力的影响因素。

1.法定权。法定权强调权力持有方凭借其正式或官方明确规定的权威地位来施加对被管理方的影响,法定性权力源于权力持有方在组织中的合法职位(Raven和French,1958)。由于平台型组织采取以应用程序为基础的工作流程组织方式,算法替代了平台型组织中的中层管理人员,直接对员工工作进行控制管理(Cheng和Foley,2019;Kellogg等,2020)。现有研究表明,这些基于算法的输出,直接完成了整个管理过程的自动化安排:计划(如员工轮班分配或司乘分配)、决策(如行驶路线规划)、组织(如协同办公或者流程管理)和控制(如处理员工绩效数据或在线工作排名以及解雇低绩效员工)(Cheng和Hackett,2021;Copeland和Hope,2016;Duggan等,2020;Kellogg等,2020;Newlands,2021)。

2.奖赏权。奖赏权是指权力持有方提供奖金、提薪、晋级、表扬、理想的工作安排和其他任何会令人愉悦的东西的权力,奖赏性权力源于权力持有方对被管理方所重视资源的控制(Raven和French,1958)。具体而言,算法会在互动中动态地奖励高绩效员工以更多的机会、更高的工资和更快的晋升。例如在Amazon、Mechanical Turk、Uber和Caviar,遵守算法分配的工人会立即获得更多的工作、更高的工资和更大的灵活性(Rosenblat和Stark,2016)。Wu等(2019)在对Uber的研究中发现,平台通过算法所搭建的客户评价体系和与之交织的激励薪酬体系已经在司机劳动过程中制度化,成为至关重要的劳动力控制策略。在实践中也会看到,直播平台中的主播为了获得基于算法控制的奖励需要不断“乞求”观众的点赞和关注,美团骑手为了达到算法的考核要求,不惜实施各种交通违规行为(陈龙,2020)。而美团的王者荣耀徽章和其他非现金奖励,更是引导着员工不断提高自我业绩要求(Blohm和Leimeister,2013)。

3.强制权。强制权是指权力持有方通过处罚或剥夺积极事项来影响被管理者的权力,强制性权力源于被管理者对惩罚或失去资源的恐惧(Raven和French,1958)。从实际操作来看,大部分平台都在使用强制权将出现不当行为的平台工作者排除在平台之外。例如,对于那些“不听话”的员工,算法还可以通过禁止或隐藏他们的个人资料来进行惩罚,迫使他们被动地对自我进行改造,形成自身的“问题化”感知(Kellogg等,2020)。比如,Uber司机会因为拒绝订单或不遵守复杂系统提供的详细指南而立即受到处罚(Cherry和Aloisi,2018;Scheiber,2017;Stefano,2016)。而且,由于平台技术的广泛使用,平台组织可以在更大的范围内快速招聘到需要的员工(Valentine等,2017),算法可以迅速将表现不佳的员工从组织中解雇。例如,美团会在顾客打分低于4.7分时取消骑手的就业资格(Rosenblat和Stark,2016),并限制骑手为自己辩护的机会(Rosenblat,2018)。

4.专家权。专家权是由权力持有方掌握的特殊技能或某些专业知识而形成的权力。专家性权力是知识的权力,源于信息和专业特长,或相比于被管理者更有机会获得相应的信息和知识(Raven和French,1958)。实践表明,大数据算法对组织面临情况的分析往往比员工更专业、准确和高效,并能够提供工作资源支持(例如精确的工作建议和咨询服务)(Jarrahi和Sutherland,2019)。比如,大数据算法能够良好地管理供需波动,当载客订单需求量增高时Uber大量使用弹出窗口、推送通知和电子邮件敦促司机继续驾驶(Rosenblat,2018),从而有效提高了司机的工作保有量,而且司乘匹配恰当就会给平台吸引更多的客户,反过来又能给司机提供更多的工作机会(Jabagi等,2019)。当然另一方面,当发生代码错误、算法失效、数据缺乏和应用程序失败等问题导致权力行使受到限制时,算法权力也会受到负面影响(Isin和Ruppert,2020)。比如,Gray和Suri(2019)描述了Uber如何依靠实时身份验证算法确认上传的照片是否与记录的照片身份相符,但有时算法无法辨别剃了胡子的司机实际上是不是同一名司机。而当算法技术不足以应对任务要求时,算法权力对员工控制的有效性将降低。

5.参照权。参照性权力是指由于权力持有方与被管理者之间的关系强度而产生的潜在影响。参照权的效力涉及“认同”,主要源自权力持有方所具备的令人羡慕的人格特点(Raven和French,1958)。相比于领导者权力,算法会带来更高水平的监控公平性(Alder和Ambrose,2005),尤其在多种算法综合运用的情况下,员工的算法公平感知更高(Morse等,2022)。而且,随着人工智能算法的发展,算法也会在实际管理过程中自动进行深度学习实现算法迭代,不断提升与被管理者的适配水平进而更好地适应管理环境,增加员工对算法权力的认同。例如,UPS虽然使用ORION算法密切监视卡车司机,决定他们的路线,但对于每一个要求规避ORION决定的案例,算法工程师都会进行调查以改善ORION的设计(Woyke,2018)。Meijerink和Bondarouk(2023)的研究则表明,如果送餐工人一直拒绝声誉不好的餐厅发送的订单,这种行为会促使算法自动提高送餐费以促使送餐工人接受订单。

四、算法权力的影响结果

在组织层面上,现有研究主要讨论了算法权力如何通过强化控制来实现组织的既定目标。从积极影响方面看,算法能够实现资源的快速配置,使得组织中的资源得到充分利用,并有效规避领导者管理中可能出现的辱虐管理。例如,在对Uber的研究中发现,算法能够在高峰时刻对车流进行调度,显著提升Uber的接单量(Cramer和Krueger,2016)。算法的动态定价能力能够提升平台工作者的参与度和生产力,进而提高组织价值和竞争优势(Gol等,2019)。而在消极影响方面,算法也会由于设计偏差或技术缺陷导致组织价值偏差,促使组织以追求利益最大化为目的对利益相关方和社会造成不良后果(肖红军,2022),或是在算法迭代升级的过程中增加对员工的技术性剥削。例如,Jarrahi等(2021)的研究发现,在面对实际情况更为复杂的工作评估时,算法偏见会导致决策不公正进而降低员工的组织承诺。

在个体层面上,算法权力对个体的工作态度、工作能力以及心理动机等均有影响。从算法权力对个人影响的消极方面来看,算法权力以一种“隐蔽”的方式重新配置了平台、顾客和劳动者之间的生产关系,促进了零工工作者由“社会人”向“系统人”的转变(Curchod等,2020)。例如,算法权力通常缺少管理伦理,把员工行为转化为数字符号(Newlands,2021)从而对员工行为进行远程控制,忽略了对员工的人文关怀。Yeung(2017)指出,算法被用于塑造个人决策发生的信息选择环境,目的是引导注意力和改变选择偏好,该过程大幅度地破坏了个体判断的独立性,导致个体自主性的大幅降低(Jabagi等,2019)。算法权力的增加也会给员工造成更大的心理压力、负面情绪以及生理健康问题。Puntoni等(2021)认为,算法技术固有的不透明性让被管理者感到被剥夺,产生对生活失控的无助感,甚至是道德愤怒以及心理逆反。Wood等(2019)在对679名平台工作者的调查中发现,算法克服了非邻近性对直接劳动过程监督和监督有效性造成的空间和时间障碍,提高了平台工作者的自治程度、任务多样性和复杂性,以及潜在的空间和时间灵活性。但处于算法控制下的平台工作者相对于客户的结构权力较弱,迫使平台工作者不得不在紧张的不规律时间内工作以满足客户的需求,进而导致过度工作、睡眠不足和疲惫等健康问题。刘善仕等(2021)的一项研究也说明,尽管平台工作者拥有更多的工作自主权,但是他们不对称地依赖于平台所提供的信息和资源,从而让渡出劳动过程的控制权力。在长时间的劳动监控中,平台工作者会产生不安全感等负面情感,自觉或不自觉地延长自身的工作时间、提高劳动强度,导致工作自主悖论现象。

尽管已有研究大多集中在算法权力给个人带来的负面影响方面,但也有少量研究发现了算法权力对个人的积极影响。例如,算法权力可以给予员工更多的工作自由权,也可以在不同程度上提高个人绩效。Wood等(2019)认为员工能够认同算法,利用算法不断提升工作能力。因为算法对劳动过程的控制只存在于结果,而非在劳动过程中,这为平台工作者赋予了极大的自主权和自由裁量权,他们能够选择和改变从事任务的顺序。裴嘉良等(2021)和Cram等(2022)的研究发现,平台工作者在感知到算法控制时,可能会将算法所制定的服务流程和奖惩规则视为挑战性压力,进而激活内在动机,提升服务绩效。

五、算法权力的影响机制

Foucault(1996)说“新的权力……不靠权利,而靠技术;不靠法律,而靠正常化;不靠惩罚,而靠控制”对人们的态度和行为产生影响。现有的定性研究也从规训机制、嵌入机制、迭代机制讨论了平台型组织中算法权力的影响机制。

首先,从规训机制看,算法通过远程的、不间断的监督影响平台劳动者的自我意识,促使个体不断规范自身行为以符合算法的期望(黄再胜,2022;Beer,2017;Pasquale,2015;Lash,2007)。已有研究认为,算法的监督能力可以对员工进行细粒度观察和控制,使监督像空气一样充斥着组织的各个角落(de Vaujany等,2021;Zorina等,2021)。Brivot和Gendron(2011)认为,在这样的工作环境中,“个人也可以(有意或无意地)积极自我曝光,从而创造新的被他人监督的潜力”。这一过程被学者们称为规训(Foucault,1996;Newlands,2021),即管理者利用员工对被“流放”(即被排除在外、被忽视或被放逐)的恐惧,促使个体通过主动的行为向同行和管理层展示自己,使自身的表现更符合管理期望(Hafermalz,2021)。而且这种规训还会在算法对员工的评估和奖惩中得到强化(Angrave等,2016;Cheng和Foley,2019;Lee和Larsen,2019)。由于算法对“什么会提高评价”没有明确说明,因此员工需要不断预测和尝试不同的工作方式来提高自己的“曝光度”(Newlands,2021),以这种方式工作虽然可以塑造和管理“可见性”,但也意味着必须“不知疲倦地”完成工作(刘善仕等,2021)。

其次,从嵌入机制看,算法权力会嵌入管理决策系统,以巧妙的方式塑造个体对外部世界的理解,影响个体的行为和感知,破坏个体独立的判断力,限制人类对决策管理的参与(Yeung,2017)。例如,Jarrahi等(2021)指出,“算法不仅重新配置了工作场所的权力动态,而且还将自身嵌入组织中预先存在的权力和社会结构中”。具体而言,一方面,算法可以实现部分工作任务的自动决策(Logg等,2019;Schildt,2017;Wilson和Daugherty,2018)。比如,Uber出租车司机轮班结束时,算法会自动分配接近他们家庭住址的目的地,从而在帮助员工创造价值的同时也避免了他们长途跋涉回家却得不到经济补偿,但也使得他们必须选择“载客回家”(Rosenblat,2018)。另一方面,算法极大地左右人类决策。例如,Wilson和Daugherty(2018)的研究指出,算法可以进行人类思维模拟和智能运行,具有更强的分析和决策能力,能够为管理者提出更具前瞻性的决策方案,从而在管理者做关键决策(如员工晋升、行为评估以及绩效考评等)时提供可靠建议(Gal等,2020)。而在这一过程中,平台工作者往往会不加批判地接受算法决策以满足任务需求,使得工作更加程序化、标准化(Jarrahi和Sutherland,2019),因为只有这样,其工作才能达到算法的绩效考核标准,获得对应的绩效奖励。Sadowski(2019)便指出,算法对于数据的积累与使用,不仅推动了权力在管理者和算法之间的让渡,更使得算法成为影响行为的驱动逻辑(如推荐算法、排序算法)(Lundahl,2022;Wood等,2019)。

最后,从迭代机制看,算法迭代(algorithmic iteration)主要通过算法工程师对算法有目的的重新设计和人工智能算法本身的自动升级实现(Meijerink和Bondarouk,2023),它反映了算法在升级过程中对被管理者的考虑,体现了平台工作者和算法在权力关系中的平衡与对抗。但迭代本身也是一种双向影响。一方面,算法迭代不仅可以通过新的数据集进行,而且可以由算法工程师向现有算法添加额外的参数或者创建新的算法。例如,UPS可以根据卡车司机的行车路线,不断修正ORION的设计,最终得到一条高效的行车路线(Woyke,2018)。而从另一方面看,在面对算法所产生的权力不对等时,平台工作者会表现出适应、规避或操纵算法的能动性行为,从而促使算法在迭代过程中考虑工作者的利益。例如,Rahman(2021)在对Talen Finder中80名员工的访谈研究中发现,在面对不透明的算法评级时,大部分平台工作者会主动适应新的评级规则来维持或提升评价。Rosenblat和Stark(2016)在对Uber平台司机的调查中也发现,当司机发现算法派单跟乘客对他们的服务评价有关系后,他们会主动向乘客寻求满星评价,进而得到算法更多的订单指派。同时,当司机预计乘客无法给予满星评价或订单报酬较低时,他们会在订单执行之前“敦促”乘客取消订单,从而规避算法带来的惩罚(Cameron和Rahman,2022)。正如前面所说,如果送餐工人一直拒绝声誉不好的餐厅发送的订单,算法就会自动提高送餐费以促使送餐工人接受订单(Meijerink和Bondarouk,2023)。

而从定量研究看,目前关于算法权力影响机制的定量研究较为匮乏,只有少量研究从心理机制上探讨了算法权力的影响路径,主要涉及个体意义构建、公平感知。比如,Cameron(2022)的研究指出,算法权力可以在一定程度上提升员工对自我工作场所的控制,使得员工可以不断参与和控制工作流程,产生积极的工作行为。而当员工感知到过高的算法权力时,他们会将工作视为“效率游戏”,减少工作过程中与绩效考核无关的不必要行为。在相关概念的研究上,裴嘉良等(2022)从个体行为动机出发认为,当算法透明度高时,算法控制能提高零工工作者的自主动机,进而使其产生主动服务行为;而当算法透明度低时,算法控制则会导致零工工作者控制动机的提高,从而使其减少主动服务行为。魏昕等(2021)的研究表明,算法决策可以提高员工在不利决策中的公平感知,降低员工所产生的偏差行为。Newman等(2020)进一步发现,尽管算法决策可能会通过消除人类判断中的偏见来客观地增强程序公平,但算法决策在主观上被认为违反了程序公平,因为算法决策只能考虑可量化的指标,而无法充分关注到个人特性(例如个体态度和潜力等等)。

六、研究结论、管理启示和未来展望

(一)研究结论

本文围绕算法权力的概念内涵,对算法权力的前因后果和作用机制进行了整合分析(参见图2),相关结论如下:第一,算法权力的概念内涵尚未厘清,缺乏科学的测量工具。算法权力的概念尚处于定性阶段,缺乏对概念本身的内涵挖掘和维度定义,管理领域的算法研究大多从计划、组织和控制的职能视角对算法进行定义,从而得出了算法决策、算法管理、算法控制等概念,这些概念在帮助我们了解算法的正面作用或负面作用上做出了突出贡献,但由于维度较为单一,很难深入探讨算法在管理中的多重作用。第二,算法权力的研究结果过多地关注了消极方面,缺乏对积极影响结果的探讨。研究探讨了算法权力对个体自主性、心理压力、工作压力等方面的负面影响,却对算法权力的管理理性优势和对个体工作自由度所带来的积极影响关注较少,缺乏对相关问题的全面理解。第三,算法权力的作用机制分析有限。从已有研究看,定性研究从规训机制、嵌入机制和迭代机制探讨了算法权力的作用机制,但由于算法权力本身量表的缺乏,导致定量研究相对匮乏,限制了我们对算法权力作用结果的进一步理解。

注:实线为现有研究,虚线为未来研究。 图 2 算法权力的整合研究框架

(二)管理启示

算法权力的发挥需要考虑社会背景和组织环境的整体影响,算法权力是“死的”物,“物”的目的在于提升劳动者和组织的协同绩效,那么“目的”的实现便建立于如何激励“活的”人。所以管理问题的本质在于回答组织应该做什么(what)和怎么做(how)的问题。具体而言,在对算法权力进行综述后我们得出如下管理启示:

第一,从技术路径的提升看,通过对算法技术的积极改进进一步规范算法权力。例如,在算法迭代升级过程中考虑劳动者的意见,在算法评估过程中补充人类管理者的核对和机制解释,在算法约束过程中增加奖励的力度而降低惩罚的力度,并通过必要的措施减少平台—劳动者之间的权力不对称关系来抑制感知算法权力的负面作用,或是通过采取合适的算法透明度让员工了解算法的运行逻辑,提高员工对算法权力的认可。

第二,从外部因素看,社会背景和组织环境会对算法权力的作用产生重要影响。工作场所的社会支持(workplace social support)反映了个体幸福感在多大程度上来源于工作场所提供的重视(Ashforth等,2022;Kossek等,2011)。具体而言,工作场所社会支持包括主管、同事和组织等多种来源。主管支持可以通过在技术处罚后进行事实核对、倾听和关心员工来体现,同事支持可以通过同事间的信息共享和相互支持实现,而组织也可以利用员工个性化数据为员工出具提升报告,实现组织与员工的共同成长。这些支持性资源在劳动者对算法权力的作用分析过程中具有认知调节作用,促使劳动者更多地认可算法权力。

(三)未来展望

算法权力的理论研究正处于高速发展阶段,尽管不少学者已经取得不错的成果,但理论、结果与机制研究仍有一些不足。本文对未来研究方向提出以下建议:

第一,开发算法权力量表,扩展基础理论研究方法。目前算法在组织管理中的研究迅速发展,有许多概念还没有得到界定。算法权力作为一个新兴的关键性概念更是需要进一步完善,也需要开发一套符合实际的量表进行相关的实证研究。因此,本文建议开发合适的量表为以后的定量研究打好基础。另外,大数据的出现也为组织研究提供了巨大的潜力(Guo等,2022),自然语言处理(nature language process)、词嵌入(word embeddings)、文本情感分析(text sentiment analysis)等技术的发展,也赋予了组织管理研究更多的分析方法,利用大量二手数据可以更加客观、准确地刻画个人形象或组织发展规律。例如,Huang等(2020)对《资治通鉴》进行编码研究,探讨家族企业中的权力转移悖论;Desai和Madsen(2022)利用1957—2017年间NASA的火箭发射数据,对组织学习理论中时间如何影响组织学习进行研究。在未来的研究中,研究人员应该通过更为客观的技术手段拓展算法权力的理论基础研究。

第二,加强对算法权力的动态研究。目前算法与社会、文化交织在一起,影响着个体的情绪、认知和体验(Bucher,2017;Lash,2007)。作为一种与世界互动的方式,算法权力是否会导致新的“规则”?即算法权力的出现会以何种方式改变工作场所的动态管理?本文聚焦于组织内的算法权力,所以从组织内权力来源的五个维度来分析算法权力的影响因素,未来的研究可以尝试从其他维度进行总结。比如,从硬权力和软权力的角度,算法权力的“硬”可能和整个算法技术的发展有关,随着算法技术的发展以及和组织管理切合的加深,算法权力对劳动者的控制力和影响力都可能进一步增强;而从软权力的角度看,权力反映管理者和被管理者的力量对比,在算法迭代过程中,算法权力和劳动者权力呈现一种此消彼长的对抗关系。这些因素都值得未来的研究进一步探讨总结。

第三,算法权力影响结果研究有待深化。组织层面的研究成果相对有限,作为一种新的权力形式,未来的研究可以进一步考虑算法权力对组织已有权力关系的影响,比如算法权力对上下级二元权力关系的影响,算法权力和平台权力、劳动者权力的三元关系影响等等。个体层面的研究则过多地集中在算法权力的负面影响上,未来的研究可以进一步考虑算法权力的双刃剑作用。算法权力相对于领导者权力在理性上具有明显的优势,它可以有效规避领导者权力在运行过程中可能出现的人为偏差以及可能导致的辱虐管理行为,未来的研究可以从这一视角出发,将研究重心放在算法权力如何激励人,而不是指挥人、管理人。

第四,拓宽算法权力在不同类型组织中的差异化研究。目前算法权力在研究层面和对象等方面较为局限和单一,主要集中在“算法—平台劳动者”之间的联系上(Duggan等,2023),关注算法监控、算法控制以及算法透明度等对平台劳动者行为的影响,而缺乏对这些结论在数字化转型组织中是否适用的关注。在平台型组织中算法权力充当管理者角色,更加关注平台劳动者是否能严格遵循管理规范。而在数字化转型组织中,算法权力更强调与员工的适配性,更加关注员工与算法的协同。因此,关注算法权力在不同类型组织中的独特影响,或找寻算法权力对个体影响的共性,都是未来的研究值得关注的议题。

第五,加深对算法权力影响机制的研究。已有研究为我们展示了在算法权力的控制下,平台工作者将会产生何种行为顺从或算法管理抵抗(Faraj等,2018;Rahman,2021;Vallas和Schor,2020),同时我们也认识到,算法权力可以比历史上的任何一种权力形式更具隐蔽性、及时性、全面性、不透明性和强制性(Isin和Ruppert,2020)。而当前研究鲜有对算法权力进行微观层面的剖析。另外,学者们主要从负面机制入手解释算法权力的影响效应,未能全面解释算法权力对被管理者心理和行为的影响过程。在数字技术的飞速发展给予零工工作者诸多机会,发挥算法权力效率优势的同时,组织和个人将会面临什么样的挑战?领导者的权力交予算法,由算法对员工进行不间断的控制,会怎样影响员工?未来的研究还应该关注算法对员工福祉和情感的影响(Fox等,2019)。例如,未来的研究可以在开发算法权力量表的基础上,从社会网络理论的视角入手考虑算法权力对组织社会网络关系的影响,从自我决定理论的视角入手考虑算法权力如何通过对劳动者自主需求、胜任需求、关系需求的满足或剥夺影响劳动者个体的工作满意度。

第六,算法权力研究的中国化。中国的劳动工作者具有不同于西方的价值观,例如,更高的权力距离、更高的集体主义倾向、更低的风险承担等,这些独特的价值观都使得中国员工有着独特的管理特点。因此,未来的研究更应该考虑中国社会文化对算法权力的影响。现阶段的平台管理理念更倾向于“数字泰勒主义”,赋予算法对平台工作者绝对的控制和评估权力。对于平台工作者来说,算法权力的“专制”限制了他们努力工作的意愿(Cameron,2022),而且他们进行的隐形抵抗策略也会进一步降低平台组织的绩效(Newlands,2021)。所以,如何利用算法赋能促进平台工作者的职业认同,发挥算法权力的引导作用,让平台工作者正确利用、看待算法,提高他们在平台工作中的幸福感,也是未来一个重要的议题。

主要参考文献
[1] 包艳, 廖建桥, 刘智强. 新权力范式对组织行为管理的影响及对策研究[J]. 管理学报, 2021, 18(5): 695–703.
[2] 陈国青, 曾大军, 卫强, 等. 大数据环境下的决策范式转变与使能创新[J]. 管理世界, 2020, 36(2): 95–105.
[3] 陈龙. “数字控制”下的劳动秩序——外卖骑手的劳动控制研究[J]. 社会学研究, 2020, 35(6): 113–135.
[4] 黄再胜. 网络平台劳动的合约特征、实践挑战与治理路径[J]. 外国经济与管理, 2019, 41(7): 99–111,136.
[5] 黄再胜. 算法控制、“自我剥削”与数字劳动的时空修复——数字资本主义劳动过程的LPT研究[J]. 教学与研究, 2022, 56(11): 97–112.
[6] 刘善仕, 裴嘉良, 钟楚燕. 平台工作自主吗? 在线劳动平台算法管理对工作自主性的影响[J]. 外国经济与管理, 2021, 43(2): 51–67.
[7] 裴嘉良, 刘善仕, 崔勋, 等. 零工工作者感知算法控制: 概念化、测量与服务绩效影响验证[J]. 南开管理评论, 2021, 24(6): 14–25.
[8] 裴嘉良, 刘善仕, 崔勋, 等. 算法控制能激发零工工作者提供主动服务吗?——基于工作动机视角[J/OL]. 南开管理评论, 2022, https://kns.cnki.net/kcms/ detail/12.1288.f.20220914.1317.009.html.
[9] 申楠. 算法时代的信息茧房与信息公平[J]. 西安交通大学学报(社会科学版), 2020, 40(2): 139–144.
[10] 魏昕, 黄鸣鹏, 李欣悦. 算法决策、员工公平感与偏差行为: 决策有利性的调节作用[J]. 外国经济与管理, 2021, 43(11): 56–69.
[11] 肖红军. 算法责任: 理论证成、全景画像与治理范式[J]. 管理世界, 2022, 38(4): 200–225.
[12] 张凌寒. 专题导读: 数据权力的扩张与规制[J]. 交大法学, 2022(2): 5–6.
[13] 张明超, 孙新波, 钱雨. 数据赋能驱动智能制造企业C2M反向定制模式创新实现机理[J]. 管理学报, 2021, 18(8): 1175–1186.
[14] 周辉. 算法权力及其规制[J]. 法制与社会发展, 2019, 25(6): 113–126.
[15] Aitken R. “All data is credit data”: Constituting the unbanked[J]. Competition & Change, 2017, 21(4): 274–300.
[16] Alder G S, Ambrose M L. An examination of the effect of computerized performance monitoring feedback on monitoring fairness, performance, and satisfaction[J]. Organizational Behavior and Human Decision Processes, 2005, 97(2): 161–177.
[17] Ananny M, Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability[J]. New Media & Society, 2018, 20(3): 973–989.
[18] Anderson C, Brion S, Moore D A, et al. A status-enhancement account of overconfidence[J]. Journal of Personality and Social Psychology, 2012, 103(4): 718–735.
[19] Andrejevic M B. The big data divide[J]. International Journal of Communication, 2014, 8(1): 1673–1689.
[20] Angrave D, Charlwood A, Kirkpatrick I, et al. HR and analytics: Why HR is set to fail the big data challenge[J]. Human Resource Management Journal, 2016, 26(1): 1–11.
[21] Ashforth B E, Caza B B, Meister A. My place: How workers become identified with their workplaces and why it matters[J]. Academy of Management Review, 2022, DOI: 10.5465/amr.2020.0442.
[22] Beer D. The social power of algorithms[J]. Information, Communication & Society, 2017, 20(1): 1–13.
[23] Blohm I, Leimeister J M. Gamification design of it-based enhancing services for motivational support and behavioral change[J]. Business & Information Systems Engineering, 2013, 5(4): 275–278.
[24] Brivot M, Gendron Y. Beyond panopticism: On the ramifications of surveillance in a contemporary professional setting[J]. Accounting, Organizations and Society, 2011, 36(3): 135–155.
[25] Bucher T. The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms[J]. Information, Communication & Society, 2017, 20(1): 30–44.
[26] Burrell J, Fourcade M. The society of algorithms[J]. Annual Review of Sociology, 2021, 47(1): 213–237.
[27] Cameron L D. “Making out” while driving: Relational and efficiency games in the gig economy[J]. Organization Science, 2022, 33(1): 231–252.
[28] Cameron L D, Rahman H. Expanding the locus of resistance: Understanding the co-constitution of control and resistance in the gig economy[J]. Organization Science, 2022, 33(1): 38–58.
[29] Cheng M M, Foley C. Algorithmic management: The case of Airbnb[J]. International Journal of Hospitality Management, 2019, 83: 33–36.
[30] Cheng M M, Hackett R D. A critical review of algorithms in HRM: Definition, theory, and practice[J]. Human Resource Management Review, 2021, 31(1): 100698.
[31] Cherry M A, Aloisi A. A critical examination of a third employment category for on-demand work[A]. Davidson N M, Finck M, Infranca J J. The Cambridge handbook of the law of the sharing economy[M]. Cambridge: Cambridge University Press, 2018.
[32] Christin A. Algorithms in practice: Comparing web journalism and criminal justice[J]. Big Data & Society, 2017, 4(2): 1–14.
[33] Copeland R, Hope B. The world’s largest hedge fund is building an algorithmic model from its employees’ brains[N]. The Wall Street Journal Eastern Edition, 2016-12-22.
[34] Cram W A, Wiener M, Tarafdar M, et al. Examining the impact of algorithmic control on Uber drivers’ technostress[J]. Journal of Management Information Systems, 2022, 39(2): 426–453.
[35] Cramer J, Krueger A B. Disruptive change in the taxi business: The case of Uber[J]. American Economic Review, 2016, 106(5): 177–182.
[36] Curchod C, Patriotta G, Cohen L, et al. Working for an algorithm: Power asymmetries and agency in online work settings[J]. Administrative Science Quarterly, 2020, 65(3): 644–676.
[37] de Vaujany F X, Leclercq-Vandelannoitte A, Munro I, et al. Control and surveillance in work practice: Cultivating paradox in “new” modes of organizing[J]. Organization Studies, 2021, 42(5): 675–695.
[38] Desai V, Madsen P. Take your time? How activity timing affects organizational learning and performance outcomes[J]. Organization Science, 2022, 33(5): 1707–1723.
[39] Duggan J, Carbery R, McDonnell A, et al. Algorithmic HRM control in the gig economy: The app-worker perspective[J]. Human Resource Management, 2023, DOI: org/10.1002/hrm.22168.
[40] Duggan J, Sherman U, Carbery R, et al. Algorithmic management and app-work in the gig economy: A research agenda for employment relations and HRM[J]. Human Resource Management Journal, 2020, 30(1): 114–132.
[41] Emerson R M. Power-dependence relations[J]. American Sociological Review, 1962, 27(1): 31–41.
[42] Faraj S, Pachidi S, Sayegh K. Working and organizing in the age of the learning algorithm[J]. Information and Organization, 2018, 28(1): 62–70.
[43] Fernández-Macías E. Automation, digitalisation and platforms: Implications for work and employment[M]. Luxembourg: Publications Office of the European Union, 2018.
[44] Foucault M. Discipline & punish: The birth of the prison[M]. New York: Vintage, 1995.
[45] Foucault M. Truth and juridical forms[J]. Social Identities, 1996, 2(3): 327–342.
[46] Fourcade M, Healy K. Classification situations: Life-chances in the neoliberal era[J]. Accounting, Organizations and Society, 2013, 38(8): 559–572.
[47] Fox S, Howell N, Wong R, et al. Vivewell: Speculating near-future menstrual tracking through current data practices[A]. Proceedings of the 2019 ACM conference on designing interactive systems (Dis 2019)[C]. San Diego, 2019.
[48] Gal U, Jensen T B, Stein M K. Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics[J]. Information and Organization, 2020, 30(2): 100301.
[49] Gol E S, Stein M K, Avital M. Crowdwork platform governance toward organizational value creation[J]. The Journal of Strategic Information Systems, 2019, 28(2): 175–195.
[50] Gray M L, Suri S. Ghost work: How to stop silicon valley from building a new global underclass[M]. Boston: Houghton Mifflin Harcourt, 2019.
[51] Günther W A, Mehrizi M H R, Huysman M, et al. Debating big data: A literature review on realizing value from big data[J]. The Journal of Strategic Information Systems, 2017, 26(3): 191–209.
[52] Guo F, Gallagher C M, Sun T J, et al. Smarter people analytics with organizational text data: Demonstrations using classic and advanced NLP models[J]. Human Resource Management Journal, 2022(1): 1–16.
[53] Hafermalz E. Out of the panopticon and into exile: Visibility and control in distributed new culture organizations[J]. Organization Studies, 2021, 42(5): 697–717.
[54] Harms P D, Han G H. Algorithmic leadership: The future is now[J]. Journal of Leadership Studies, 2019, 12(4): 74–75.
[55] Huang X, Chen L, Xu E, et al. Shadow of the prince: Parent-incumbents’ coercive control over child-successors in family organizations[J]. Administrative Science Quarterly, 2020, 65(3): 710–750.
[56] Irwin J R, Slovic P, Lichtenstein S, et al. Preference reversals and the measurement of environmental values[J]. Journal of Risk and Uncertainty, 1993, 6(1): 5–18.
[57] Isin E, Ruppert E. The birth of sensory power: How a pandemic made it visible?[J]. Big Data & Society, 2020, 7(2): 1–15.
[58] Jabagi N, Croteau A M, Audebrand L K, et al. Gig-workers’ motivation: Thinking beyond carrots and sticks[J]. Journal of Managerial Psychology, 2019, 34(4): 192–213.
[59] Jarrahi M H, Newlands G, Lee M K, et al. Algorithmic management in a work context[J]. Big Data & Society, 2021, 8(2): 1–14.
[60] Jarrahi M H, Sutherland W. Algorithmic management and algorithmic competencies: Understanding and appropriating algorithms in gig work[A]. Taylor N G, Christian-Lamb C, Martin M H, et al. Information in contemporary society[M]. Cham: Springer, 2019.
[61] Kellogg K C, Valentine M A, Christin A. Algorithms at work: The new contested terrain of control[J]. Academy of Management Annals, 2020, 14(1): 366–410.
[62] Kennedy H, Moss G, Birchall C, et al. Balancing the potential and problems of digital methods through action research: Methodological reflections[J]. Information, Communication & Society, 2015, 18(2): 172–186.
[63] Kossek E E, Pichler S, Bodner T, et al. Workplace social support and work-family conflict: A meta-analysis clarifying the influence of general and work-family-specific supervisor and organizational support[J]. Personnel Psychology, 2011, 64(2): 289–313.
[64] Lash S. Power after hegemony: Cultural studies in mutation?[J]. Theory, Culture & Society, 2007, 24(3): 55–78.
[65] Lee F, Larsen L B. How should we theorize algorithms? Five ideal types in analyzing algorithmic normativities[J]. Big Data & Society, 2019, 6(2): 1–6.
[66] Leicht-Deobald U, Busch T, Schank C, et al. The challenges of algorithm-based HR decision-making for personal integrity[J]. Journal of Business Ethics, 2019, 160(2): 377–392.
[67] Lenglet M. Conflicting codes and codings: How algorithmic trading is reshaping financial regulation[J]. Theory, Culture & Society, 2011, 28(6): 44–66.
[68] Logg J M, Minson J A, Moore D A. Algorithm appreciation: People prefer algorithmic to human judgment[J]. Organizational Behavior and Human Decision Processes, 2019, 151: 90–103.
[69] Lundahl O. Algorithmic meta-capital: Bourdieusian analysis of social power through algorithms in media consumption[J]. Information, Communication & Society, 2022, 25(10): 1440–1455.
[70] Mackenzie D. How algorithms interact: Goffman’s “interaction order” in automated trading[J]. Theory, Culture & Society, 2019, 36(2): 39–59.
[71] Magee J C, Galinsky A D. Social hierarchy: The self-reinforcing nature of power and status[J]. Academy of Management Annals, 2008, 2(1): 351–398.
[72] Meijerink J, Bondarouk T. The duality of algorithmic management: Toward a research agenda on HRM algorithms, autonomy and value creation[J]. Human Resource Management Review, 2023, 33(1): 100876.
[73] Möhlmann M, Zalmanson L, Henfridsson O, et al. Algorithmic management of work on online labor platforms: When matching meets control[J]. MIS Quarterly, 2021, 45(4): 1999–2022.
[74] Morse L, Teodorescu M H M, Awwad Y, et al. Do the ends justify the means? Variation in the distributive and procedural fairness of machine learning algorithms[J]. Journal of Business Ethics, 2022, 181(4): 1083–1095.
[75] Newell S, Marabelli M. Strategic opportunities (and challenges) of algorithmic decision-making: A call for action on the long-term societal effects of “datification”[J]. The Journal of Strategic Information Systems, 2015, 24(1): 3–14.
[76] Newlands G. Algorithmic surveillance in the gig economy: The organization of work through lefebvrian conceived space[J]. Organization Studies, 2021, 42(5): 719–737.
[77] Newman D L, Fast N J, Harmon D J. When eliminating bias isn’t fair: Algorithmic reductionism and procedural justice in human resource decisions[J]. Organizational Behavior and Human Decision Processes, 2020, 160: 149–167.
[78] Neyland D, Möllers N. Algorithmic IF...THEN rules and the conditions and consequences of power[J]. Information, Communication & Society, 2017, 20(1): 45–62.
[79] Pasquale F. The black box society: The secret algorithms that control money and information[M]. Cambridge: Harvard University Press, 2015.
[80] Puntoni S, Reczek R W, Giesler M, et al. Consumers and artificial intelligence: An experiential perspective[J]. Journal of Marketing, 2021, 85(1): 131–151.
[81] Rahman H A. The invisible cage: Workers’ reactivity to opaque algorithmic evaluations[J]. Administrative Science Quarterly, 2021, 66(4): 945–988.
[82] Raven B H, French Jr J R P. Legitimate power, coercive power, and observability in social influence[J]. Sociometry, 1958, 21(2): 83–97.
[83] Rosenblat A. Uberland: How algorithms are rewriting the rules of work[M]. Oakland: University of California Press, 2018.
[84] Rosenblat A, Stark L. Algorithmic labor and information asymmetries: A case study of Uber’s drivers[J]. International Journal of Communication, 2016, 10: 3758–3784.
[85] Russell C, Bennett N. Big data and talent management: Using hard data to make the soft stuff easy[J]. Business Horizons, 2015, 58(3): 237–242.
[86] Sadowski J. When data is capital: Datafication, accumulation, and extraction[J]. Big Data & Society, 2019, 6(1): 1–12.
[87] Salancik G R, Pfeffer J. A social information processing approach to job attitudes and task design[J]. Administrative Science Quarterly, 1978, 23(2): 224–253.
[88] Schafheitle S, Weibel A, Ebert I, et al. No stone left unturned? Toward a framework for the impact of datafication technologies on organizational control[J]. Academy of Management Discoveries, 2020, 6(3): 455–487.
[89] Scheiber N. How Uber uses psychological tricks to push its drivers’ buttons[N]. New York Times, 2017-04-02.
[90] Schildt H. Big data and organizational design-the brave new world of algorithmic management and computer augmented transparency[J]. Innovation, 2017, 19(1): 23–30.
[91] Sewell G, Barker J R. Coercion versus care: Using irony to make sense of organizational surveillance[J]. Academy of Management Review, 2006, 31(4): 934–961.
[92] Stefano V. The rise of the just-in-time workforce: On-demand work, crownwork, and labor protection in the gig-economy[J]. Comparative Labor Law & Policy Journal, 2016, 37(3): 471–504.
[93] Ten Brinke L, Keltner D. Theories of power: Perceived strategies for gaining and maintaining power[J]. Journal of Personality and Social Psychology, 2022, 122(1): 53–72.
[94] Townley B. Performance appraisal and the emergence of management[J]. Journal of Management Studies, 1993, 30(2): 221–238.
[95] Valentine M A, Retelny D, To A, et al. Flash organizations: Crowdsourcing complex work by structuring crowds as organizations[A]. Proceedings of the 2017 CHI conference on human factors in computing systems[C]. Colorado: ACM, 2017.
[96] Vallas S, Schor J B. What do platforms do? Understanding the gig economy[J]. Annual Review of Sociology, 2020, 46: 273–294.
[97] Vallas S P. Empowerment redux: Structure, agency, and the remaking of managerial authority[J]. American Journal of Sociology, 2006, 111(6): 1677–1717.
[98] Wilson J, Daugherty P R. Collaborative intelligence humans and al are joining forces[J]. Harvard Business Review, 2018, 96(4): 115–123.
[99] Wood A J, Graham M, Lehdonvirta V, et al. Good gig, bad gig: Autonomy and algorithmic control in the global gig economy[J]. Work, Employment and Society, 2019, 33(1): 56–75.
[100] Woyke E. Slack hopes its al will keep you from hating slack: The fastest-growing business app is relying on machine-learning tricks to fend off a deluge of messages-as well as competition from Facebook and Microsoft[N]. MIT Technology Review, 2018-01-16.
[101] Wu Q J, Zhang H, Li Z, et al. Labor control in the gig economy: Evidence from Uber in China[J]. Journal of Industrial Relations, 2019, 61(4): 574–596.
[102] Yeung K. “Hypernudge”: Big data as a mode of regulation by design[J]. Information, Communication & Society, 2017, 20(1): 118–136.
[103] Zorina A, Bélanger F, Kumar N, et al. Watchers, watched, and watching in the digital age: Reconceptualization of information technology monitoring as complex action nets[J]. Organization Science, 2021, 32(6): 1571–1596.
[104] Zuboff S. Big other: Surveillance capitalism and the prospects of an information civilization[J]. Journal of Information Technology, 2015, 30(1): 75–89.