北京大学学报(自然科学版) 第62卷 第1期 2026年1月

Acta Scientiarum Naturalium Universitatis Pekinensis, Vol. 62, No. 1 (Jan. 2026)

doi: 10.13209/j.0479-8023.2025.070

国家自然科学基金(72472003)和教育部人文社会科学基金(22YJC630130)资助

收稿日期: 2025–06–17;

修回日期: 2025–08–01

人工智能将全面取代人类吗?Ⅰ.基于人工智能与人类智能工作条件和优势的任务特征–分类模型

张燕1 王海珍2,†

1.北京大学心理与认知科学学院, 行为与心理健康北京市重点实验室, 北京 100871; 2.西安外国语大学商学院, 西安 710023; †通信作者, E-mail: wanghaizhen@xisu.edu.cn

摘要 深入探讨人工智能(AI)与人类智能(HI)在任务输入、处理、输出以及制约因素等方面的工作条件和优势, 识别出 11 个AI-HI 任务特征。在此基础上形成 4 个 AI-HI 指数——AI 可用指数、AI 优越指数、HI 优越指数和 HI 安全指数, 并据此提出 4 种任务类型: AI 不可用型、AI 优越型、AI-HI 协作型和 HI 优越型。通过上述工作, 构建一个新的 AI-HI 任务特征–分类模型。最后, 以会计工作为例, 应用此 AI-HI 任务特征–分类模型, 逐一分析 19 个会计核心任务的 AI-HI 特征、AI-HI 指数及其所属类型。研究结果为 AI 与 HI 的分工与替代问题提供科学分析, 为二者从对立走向协作共生提供理论依据。

关键词 人工智能; 人类智能; 任务特征; 任务分类

近年来, 数字化技术的浪潮席卷全球, 互联网、数字平台、大数据、云计算、人工智能和物联网等新一代信息技术的迅速发展, 对企业产生深远的影响[1–2]。与传统信息技术不同, 除了具备强大的信息处理能力, 人工智能还能够模仿人类进行自主调整和学习[3–4], 因而在某些情况下能够独立接管整个工作流程而无需人类干预[5–7]。人工智能强大的信息处理和学习能力促使各行各业纷纷尝试应用这项技术。目前, 人工智能技术已广泛应用于客户互动和自动化服务等工作, 并作为决策辅助工具服务于法律、医疗健康、财务和教育等领域[8–12]。然而, 随着“机器进人退”现象的日益显现, 人类员工处于被替代的焦虑之中。据估计, 在欧美地区, 约有 50%的职业面临被人工智能和机器人替代的风险[13]; 在中国, 约有 36%的工作将被人工智能取 代[14]。当人类员工的核心任务和决策被人工智能替代时, 他们可能被迫转向边缘和辅助性工作, 这限制了他们发挥自身的技能、知识和专业[15–16], 也影响他们的成长和专业经验积累。关于谁将被 AI取代的讨论, 正转变为探讨谁不会被取代的问题。

确实, 凭借强大的信息处理和学习能力[17], 人工智能可以高效地替代人类员工完成许多常规事 务[18]。然而, 人工智能并非在所有方面都优于人类员工。例如, 尽管人工智能能够处理一些涉及认知过程的任务, 如无人驾驶和简历筛选[19–20], 但在需要创造性思维或社交智能等复杂认知技能的工作中, 人类的优势是人工智能无法比拟的[21]。因此, 并非所有职业都适宜全面引入人工智能。关键问题在于, 哪些工作任务适合引入人工智能, 哪些则应保留给人类员工? 回答这一问题对组织机构来说至关重要, 它不仅有助于合理地部署人工智能, 减轻员工被取代的忧虑, 还能促进人类员工在人工智能时代更充分地发挥其独特优势。

然而, 现有关于工作分类的研究无法有效地回答人类员工与人工智能之间的分工问题。工作分类的研究起源于 Fleishman[22]的工作, 属于工作分析领域。该领域主要涵盖 3 个研究视角: 工程设计与人因学、以动机为中心的工作分析以及工作类型分析。前两者主要探讨如何设计工作来提高效率或激发工作动机, 后者侧重于总结现有工作的特征并进行分类。前两者逐渐发展成为工作特征理论(Job Characteristics Theory), 专注于研究如何设计工作来激发员工的内在动机[23]。Hackman 等[24]在这一领域做出开创性贡献, 提炼出与工作动机有关的工作特征, 如技能复杂性、任务重要性和自主性等。至今, 这些与动机有关的特征仍然受到学者的广泛关注。工作类型分析则专注于总结现有工作或任务的特征和所需能力, 该领域的研究集中在 20 世纪90 年代。在内容上, 学者们通常从任务特征、行为(活动)特征和能力要求 3 个方面进行分析[25]

本文旨在分析人工智能与人类员工的能力特征, 并据此对任务进行分类, 以便识别人工智能和人类员工各自擅长的任务类型。鉴于此, 本文将重点回顾基于能力要求的工作类型分析。在能力要求方面, Fleishman 等[26]进行了开创性研究, 他们总结了 52 种人类工作技能, 包括沟通、概念推理、视觉、听觉、精神活动与粗大动作技能等, 并将技能要求相似的工作归为一类。这些技能特征已被纳入O∗NET(美国劳工部的工作分析系统)。McCormick等[27]基于美国就业服务局 1965 年编制的《职业标题字典》, 识别出 68 个与不同类型工作表现相关的属性或能力, 例如口头交流、数字计算、审美判断和人际交往等。其他学者则尝试对能力进行分类, 简化基于能力的分析。Reynolds 等[25]将能力划分为5 类: 身体能力、认知能力、精细运动控制、感知技能和沟通技能, 并基于这 5 种技能组合出 7 种工作类型, 包括普通身体能力要求、感知与认知、沟通与灵巧性、精细运动控制与推理、人际沟通、高强度工作以及信号员。但是, 这一分类主要针对海军的工作岗位。Christiansen[28]则将工作分为 4 类——开创型(enterprising)、现实型(realistic)、社交型(social)和观察型(investigative), 并指出各类工作对从业者特质的要求: 开创型工作要求从业者具备领导素质、责任心、健谈和良好的社交能力, 现实型工作则需员工具备被动、可控、可靠和温和的特质, 社交型工作要求从业者灵活、冲动、乐观和积极, 观察型工作则侧重于安静、矜持、清醒且不爱社交的特质。然而, 这些传统的技能与工作分类主要关注现有任务中使用的技能, 未充分体现人工智能与人类员工之间的技能特征与差异, 因此不足以指导两者的有效分工。

同时, 当前关于人工智能的研究多集中于其决策特点、过程和框架, 及其相较于人类智能决策的优缺点、替代人类智能的潜在风险, 以及人类与人工智能联合决策的机制设计[29], 而对人工智能在工作分工中的具体角色关注不足, 只有李慧等[30]对人工智能时代下的工作进行分类, 提出人类主导型、人机合作型、淘汰型和人工智能主导型 4 种类型。这一分类所基于的工作特征包括创造性、灵活性、情感性、重复性、常规性和操作性。将创造性、灵活性和情感性强的工作归为人类主导型。将重复性、常规性、操作性等低价值的工作归为人工智能主导型。将两者要求都高的工作归为人机合作型。尽管这一分类为引入人工智能提供了初步指导, 但其分析的任务特征并未全面覆盖人工智能应用所涉及的问题。首先, 它缺少反映人工智能应用条件的任务特征, 如工作过程与规则的清晰分解和描 述[31], 以及输入情境的预设和封闭性[32]。若不满足这些条件, 人工智能的应用可能导致任务失败, 因此需要明确指出哪些工作不适合引入人工智能。其次, 人工智能的应用还涉及伦理、安全等限制性问题, 这些问题应在任务特征和分类中得到体现[33]。此外, 该分类模型未能提供可量化和可操作的标准及理论解释, 限制了其在指导人工智能与人类员工实际分工与协作中的应用。

针对上述研究的不足, 本文将深入分析人工智能与人类员工各自的工作条件与优势, 构建能够全面突出二者差异的任务特征模型; 在此基础上, 进一步构建任务分类模型, 为人工智能与人类员工的分工与协作提供理论分析框架。随后, 将对典型工作岗位进行梳理与归纳, 以便识别出适合人工智能与人类员工执行的任务类型, 探讨人工智能承担工作任务的边界。

1 人工智能的定义、种类与特点

1.1 人工智能的定义

人工智能是起源于哲学、数学、计算机科学、心理学和神经科学的交叉学科, 该领域涵盖认知与推理(包括物理和社会常识)、计算机视觉、自然 语言处理与交互(包括听觉)和机器学习等多个学 科[32]。人工智能的核心目标是模拟人类的思考过程[34], 其基本特征包括人造性与智能性[35]。人工智能的发展构筑了工业 4.0 时代的基石[36]。尽管近年来以人工智能为主题的研究日益增多, 但学术界尚未就其定义达成广泛共识。总体来看, 人工智能指的是由算法和软件程序构成的系统, 旨在处理那些通常需要人类智能进行思考和决策的复杂问题[37], 该系统能够从数据中识别、解释、洞察并学习, 完成特定的目标和任务[35]

1.2 人工智能的种类

依据其能力水平, 人工智能被划分为 3 个层次: 狭义(narrow)人工智能、通用(general)人工智能和超级(super)人工智能[38]。狭义人工智能专为特定问题或任务设计, 其在特定任务中的表现可与人类相媲美, 但若未经再训练, 无法适应其他挑战, 因此属于较弱的人工智能形式[39]。狭义人工智能可进一步细分为符号人工智能和机器学习, 它们捕捉了人类智能的某些方面, 展现出机械和分析智能, 但缺乏人类智能的适应性, 只能处理简单的认知任 务[40]。通用人工智能指通用的智能系统, 其行为和思维模式与人类高度相似, 且处理速度可与最快速的计算机系统相媲美[38]。这类人工智能可应用于不同的环境, 能自主解决问题, 并具备记忆能力, 在多个领域的表现与人类不相上下或更优[39]。通用人工智能的发展使得仿生机器人成为可能, 而在GPT 自然语言处理神经网络中, 我们也能窥见通用人工智能系统的雏形。超级人工智能则是一种理论上的设想, 它被认为拥有自我意识, 智力和能力远超人类[38]。这种人工智能理论上能跨领域瞬间解决问题, 并在所有领域超越人类[39]。不过, 目前超级人工智能仅存在于科幻小说和理论讨论中, 现实中的人工智能技术远未达到这一水平。

依据人工智能代理, 可以分为以下 4 类。1)智能设备。这类技术能够感知环境变化, 并在新环境中采取相应措施。例如, 智能恒温器、智能灯具、监控摄像头和智能扬声器等[41]。2)自助服务技术。这类技术提供了一种无需员工直接参与即可为客户提供服务的界面, 如自动售货机、自助服务亭和网络应用程序等[41]。3)聊天机器人。该类型是能够与用户有效沟通的人工智能代理, 它们理解人类语言并模拟人类对话进行回应, 属于虚拟存在而无实体形态[41]。4)实体机器人。该类型是能够实际影响物理世界的人工智能代理, 其具有物理形 态[42]。一些实体机器人能够与人类互动, 提供信息和服务, 另一些则能够根据预设程序独立操作, 无需人类干预[41]

1.3 人工智能的特点

人工智能的技术和物理属性主要涵盖 3 个方面: 拟人化、行为和功能[43]。人工智能设备能够展现类似人类的特征[43], 不仅体现在表面类人特征(如类人名字和声音), 还包括心智和行为特征[44]。人工智能设备可以具备行为能力, 如能够说话、唱歌或跳舞等。在功能层面, 人工智能设备不仅具备通用功能, 还能实现定制化功能, 适应特定场景的工作需求[45]

在心智属性方面, 人工智能表现出情感性和机能性两个关键特征[46]。情感性指人工智能能够感知情感并提供情感支持[46]。例如, 一些人工智能能够识别和理解人类情绪[47], 甚至扮演心理咨询师的角色[48]。机能性则指人工智能具备理性思考和计划行动的能力[49]。高机能性的人工智能可以提升员工体验, 增加信任感, 但也可能影响员工的自尊心, 引发消极情绪[46]

2 面向人工智能与人类智能的任务特征模型

任务–技术匹配理论[50]指出, 当技术的能力与任务的需求密切匹配时, 技术采用和使用最有效。基于这一思想, 本文根据人工智能与人类智能作为两种“技术”的特点, 分析其所能胜任的任务特征。随后, 我们根据这些已识别的特征, 对任务进行分类。在实践中, 组织机构可以利用此分类对内部任务的特征进行梳理, 进而加以分类。由此, 本文可以为有关人工智能部署与保留人类员工的战略决策提供理论基础。此框架使组织机构能够通过将任务与最合适的智能形式对齐来优化资源分配, 最终提高效率和效力。

参考 Efatmaneshnik 等[51]和 Wood [52]的工作, 本文将从任务的输入、输出、处理技能和约束因素 4 个方面, 分别梳理人工智能和人类智能相关的任务特征。任务输入涉及执行任务所需的行为或动作要求, 输出要素指任务的目标或成果, 处理技能指将输入转化为输出所需的能力, 约束因素则包括限制操作者技能发挥的元素(如环境噪音等)。然后, 本文将对提炼出的任务特征进行合并, 将任务特征中的人工智能使用条件与优势特征组合为 AI 指数, 将人类智能相关的任务特征组合为 HI 指数, 并对各指数的计算办法与阈值进行说明。

2.1 人工智能的使用前提和优势任务特征

2.1.1 任务输入

1)可数字化描述的任务。

人工智能技术基础是定量科学, 其核心依赖于识别、解释、总结和学习数据源中的信息, 实现特定目标和任务[35,53]。这意味着人工智能, 尤其是机器学习算法, 本质上是以数据为基础, 这些数据需要有一定的结构, 可以被量化, 即数字化描述, 以便算法能够有效地处理和理解[54]。数字化描述是将信息转换成机器可以理解和处理的格式。表面上看, 人工智能可以处理多种类型的数据, 包括文本、图像和音频等。实际上, 这些数据往往经过预处理, 转化为数值形式, 例如词嵌入、像素值和音频频谱, 以便被算法有效地使用。虽然有些人工智能方法(如某些基于符号的方法)可以处理一定程度上的非数字化信息, 但这些自带规则或知识的系统通常局限于特定任务和领域。因此, 对大多数人工智能的应用而言, 只有将业务流程中涉及的信息用数字形式准确地描述, 才能支持有效的人工智能 处理。

然而, 并非所有的工作都能量化。涉及定性描述的任务(如美学、艺术等相关任务), 人工智能尚无法完全胜任[53]。即便在一些定性描述非常具体的工作中, 如何将这些描述转化为人工智能能够处理的知识库仍然是一个挑战。以法律工作为例, 将法律概念和知识数字化, 是将人工智能引入法律领域的先决条件[55]。除了定性描述的任务, 还有一些工作任务因其业务流程十分复杂而难以数字化描述。例如在复杂的制造流程中, 多生产工序间关联耦合、控制、调度和决策等涉及的物理化学反应因过于复杂而难以被数字化描述, 仍然依靠知识型人类员工去完成[56]。总之, 对于定性的任务以及过于复杂的任务, 因为无法进行完全的数字化描述, 人工智能的应用仍然面临限制。

2)信息封闭性的任务。

在计算机科学中, 仅当函数 f(x)的值对所有 x都是确定的, 才能称 f(x)是图灵可计算的[57]。人工智能也不例外。人工智能的使用要求输入的内容与产生的结果在预设的范围之内, 即具有信息封闭性。在信息封闭的情境下, 例如在医学诊断系统中, 关于疾病的信息如症状和疾病的诊断结果是封闭的, 因此机器学习模型可以通过分析大量的病例数据来识别特定疾病的模式, 并生成相应的诊断结果。另一个信息封闭的例子是金融风险评估任务。在信贷评分和风险评估中, 用于评估的输入特征如借款人的收入、信用历史、债务收入比和还款记录等是事先定义好的, 机器学习模型能够根据历史贷款数据进行训练, 识别借款人的信用风险。

相对而言, 在信息不封闭的场景中, 如开放领域的客户服务机器人, 所面临的问题种类繁多且具有高度的多样性。在这种情况下, 预先定义所有可能的问题和相应的“正确”答案几乎是不可能的。无法枚举所有的先决条件和潜在结果, 便无法为这类任务建立一个全面无缺的模型[32]。因此, 对于输入不封闭的任务, 人工智能可能无法处理未预见的问题或提供准确的回应, 因而人工智能的使用受到 限制。

3)重复的任务。

当前的人工智能系统在不同层次上都依赖大量的样本训练进行学习, 而只有重复性的工作才能积累大量的数据。例如, 就语言模型而言, ChatGPT之所以能够生成连贯的语言、理解上下文以及创造新知识, 在很大程度上归功于其背后超过亿万单词的人类语言数据支持。在计算机视觉领域, 知名的ImageNet 项目通过超过 25000 人的众包任务, 积累超过 1400 万张标准图片; OpenAI 则收集高达 4 亿个文本–图像配对数据(LAION-400M)进行预训练[58]

如果关键数据缺失, 人工智能可能会基于不完整的信息做出决策, 可能导致结果的不准确或不可靠。已有学者指出, 在数据或者知识匮乏的场景下, 强化学习算法的性能往往会出现大幅度的下降[59]。以市场开发策略制定为例, 这些策略往往根据特定的顾客需求、文化背景和竞争环境量身定制, 对商业决策任务而言, 这种针对性导致数据的重复性和标准化程度较低。因此, 在基础数据不足的情况下, 人工智能在处理这类任务时的表现往往会受到限制。可见, 依靠重复性任务积累大量数据是人工智能使用的重要前提[60–61]

2.1.2 任务处理

1)规则明确的任务。

除了数据, 人工智能的另一个构成要件为算法。算法(algorithm)是对问题解决方案的描述, 是通过特定的系统方法与策略构建起来的机制, 能够将特定的输入转换为具体的输出。算法是规则的有穷集合, 这些规则规定了解决某一特定类型问题的运算(操作)序列。可见, 使用算法的前提是存在明确的规则。那些规则明确的任务, 能被算法轻松执行[20]。例如, 在自动驾驶技术中, 控制车辆的各种操作需要遵循严格的交通规则和安全准则。结合明确的规则和环境感知数据, 人工智能算法就能够在复杂的驾驶环境中做出实时决策[62]。如果规则不明确, 算法在处理复杂输入时将缺乏明确的指导方针, 导致模型无法有效地完成任务。例如, 在艺术创作和设计等领域, 对创造性的评判往往缺乏固定的标准和规则, 使得人工智能难以精确地评估作品的质量或创新性。

人工智能的训练同样需要明确的学习目标和评价标准[63], 这进一步强调了明确规则在使用人工智能时的重要性。例如, 在图像分类任务中, 输入的图像会被标注为特定的类别(如猫、狗和汽车等), 这些类别和标注规则使算法能够学习识别图像特征, 有效地进行分类。相比之下, 情感表达分析更复杂, 因为情感的判断受到多种因素的影响, 包括文化背景、个人情感和语调等, 缺乏明确的规则来界定正面或负面情感, 使得人工智能在解读情感时面临较大的不确定性。

2)程序可分解的任务。

人工智能完成任务的过程实际上是信息特征变化的过程[64]。这些特征之间的差异使得任务的执行程序能够被分解。例如, 在自动驾驶技术中, 汽车通过多个传感器(如激光雷达、摄像头和超声波传感器)收集环境数据。这些数据经过特征提取后, 转化为路况、障碍物、交通信号和行人等信息特征。随着汽车行驶位置的变化, 其感知系统实时更新这些特征, 从而调整对周围环境的理解和制定相应的控制决策。人工智能体的每一个操作过程都必须能够通过特征表达任务的完成状态和执行情况, 这意味着至少存在一个信息特征集合, 用于定义任务完成的不同阶段和状况[65–66]。在自动驾驶的例子中, 包含行驶距离、到达时间预估和当前路况等信息特征集合, 能够清晰地定义驾驶任务的完成 状况。

然而, 对于那些无法分解的工作, 无法明确工作程序和步骤, 既无法建立工作的规则, 也无法描述任务完成的状况。例如, 在创意写作中, 创作过程的复杂性和抽象性使得难以将其拆分为可算法化的步骤或规则, 因此人工智能难以真正理解和创造出具有深度的作品。此外, 还有一些工作受到伦理困境的限制, 无法明确工作的规则, 也无法有效地利用人工智能。

以上任务输入和任务处理方面的 5 个特征体现了使用人工智能的前提条件。对于不具备这些特征的任务, 人工智能将无法有效地应用。接下来, 我们将分析人工智能在特定任务中具备优势或劣势的特征。对于具备以下特征的任务, 使用人工智能能够实现超越或低于人类员工的执行效果。

3)信息加工效率要求高的任务。

人工智能可以快速、准确、客观、深度地处理庞大数据库中的信息。通过深度学习等先进技术, 人工智能能够自动化地从海量数据中提取特征并进行分类, 极大地提升处理大数据的效率[67]。此外, 人工智能系统在执行任务时更为客观和准确, 出错的可能性更低, 并且能够通过分析历史数据模式来预测未来行为[35]。在处理和分析大量数据时, 人工智能不存在个人认知倾向或主观偏见, 因此更加客 观[68]。例如, 在招聘领域, 人工智能的应用可以帮助撰写职位描述和筛选简历, 并使用增强型视频分析来识别应聘者的行为模式, 将其与职位要求的标准进行比较, 从而减少偏见[69]。人工智能还能依靠大数据和复杂计算做出客观的判断[70–71], 有助于减少人类决策过程中的主观偏差和不公平[72]。例如, 在应对新冠病毒方面, 人工智能有效地缓解可能由人类偏见导致的医疗资源分配不公等问题[73]

人工智能技术在信息加工深度上的优势体现在其算法和模型的优化以及与其他技术的融合上。通过不断的优化和融合, 人工智能够处理复杂的工作任务。例如在医疗、金融和复杂机械故障诊断等领域, 通过深度分析和处理大量数据, 人工智能可以提供深入的分析和决策支持[74–75]

2.1.3 任务输出: 失误代价性低的任务

人工智能在完成任务时可能产生重要错误, 因此, 人工智能只能用来完成失误代价性低的任务。首先, 人工智能的决策过程缺乏透明, 导致其工作过程难以控制。以深度学习为例, 这种技术是典型的“黑箱”学习法, 其内部工作机制不透明, 难以解释。因此, 在执行任务过程中, 人工智能往往无法及时被人工中止或干预。其次, 人工智能面临脆弱性挑战[59]。自 20 世纪 80 年代以来, 脆弱性已成为人工智能技术实际应用的主要瓶颈。脆弱性主要表现在, 如果智能系统的输入超出知识库或训练好的人工神经网络的有效范围, 系统就可能产生错误的输出。实际应用中普遍存在的感知噪声是脆弱性的一个重要原因[57]。例如, 在陈小平[63]的测试中, 一个商用机器学习系统训练出的深层神经网络能够以很低的误识别率从照片中识别各种枪支。然而, 人为修改这些照片中的少量像素(代表感知噪声), 尽管对人眼识别没有影响, 却导致训练好的深层神经网络的误识别率大幅升高, 甚至出现离奇的错误。2013 年以来, 针对深度学习领域的类似例子大量涌 现[61]。最后, 由于大多数基于深度学习的人工智能技术依赖于云端或互联网开放平台, 互联网本身的漏洞和人工智能技术本身的漏洞都可能带来巨大的安全隐患。例如, ChatGPT 的训练资源来源于互联网的开放域数据, 其正确性无法得到全面保障, 导致 ChatGPT 生成的内容可能包含事实性错误[76]。因此, 人工智能只适用于那些即使出现错误也不会造成严重后果的任务, 即失误代价性低的工作。例如, 利用人工智能产生广告创意, 即便出现事实错误或产生无意义的句子, 也不会造成严重的后果。然而, 如果完全依赖人工智能进行安全检查等相关的工作, 一旦出现疏漏则可能带来安全隐患, 甚至造成安全事故。

2.1.4 任务约束因素: 对人类不友好的任务

在恶劣、危险的物理环境中开展工作会给人类员工带来痛苦。人工智能可以跨越物理环境的限制, 在更复杂、更恶劣的环境下工作[77]。例如, 管道机器人可以在恶劣环境下承担管道的清扫、喷涂、焊接和内部抛光等维护工作, 对地下管道进行修复; 水下机器人可以用于海洋科学研究、海上石油开发、海底矿藏勘探和海底打捞救生等; 攀爬机器人可实现攀爬和工作, 代替或者辅助人工完成危险工作。智能机器人也可以应用于煤炭工业、矿业开采的恶劣环境。人工智能还可以不眠不休地全天候持续工作, 在持续的高强度工作中不会有情绪和心理问题[78]。人工智能也能处理琐碎和枯燥的任务, 比如数据录入、简单计算等, 从而替代人类员工完成大量重复性的常规工作[18], 减轻员工的负 担[19], 在机械性的任务上表现优于人类[79]

2.2 人类智能的优势任务特征

任何智能程度的机器都无法完全取代人类[32], 尤其是许多具有不确定性、脆弱性和开放性的问题, 人工智能无法发挥其优势。具体而言, 人类在以下几种类型的任务中表现优于人工智能。

2.2.1 任务输入: 信息封闭性低的任务

在任务输入方面, 人工智能在处理信息封闭性低的任务时存在局限性。现实社会中诸多行为决策(如新经济运行、产业布局和网络空间安全等)往往是非完全信息条件下的博弈, 即在未能全面掌握所有条件下进行的推理和决策。人工智能往往是在“集合封闭、规则完备、约束有限”的场景下完成博弈, 在处理开放动态环境中的问题时则鲁棒性不 足[56]。但是, 人类却能利用这些近似正确的事实和不完备的规则, 得到日常生活中有用的结论。人类大脑对世界的印象是一个不完整世界的描述, 这个不完整的世界却是人类直觉判断和逻辑思维、推理的基础, 使得人类能够在不完整的世界描述中产生正确的行为。人脑对真实世界环境的理解、非完整信息的处理以及复杂时空关联的任务处理能力是当前机器学习无法比拟的[32]。因此, 对于开放、动态的任务(即封闭性低的任务)而言, 人类智能更具优势。例如在客户服务场景中, 客户可能提出不同寻常的问题与诉求, 此时人工智能因缺乏相关训练, 更可能出现服务失败。

2.2.2 任务处理

1)创造、洞察相关的任务。

创造性任务十分复杂, 往往涵盖多个因素和变量, 需综合考虑不同的情境、背景和需求, 通常没有固定的解决方案, 需要独特的思维和洞察去完成。人工智能技术依赖于结构化的输入与明确的规则, 在执行重复性、结构化任务方面表现出色, 但在处理非结构化、复杂任务时存在局限性, 尤其缺乏人类洞察情景、创造新答案的能力[80]。人类则具备创造力, 能够提出新颖概念[81]。这是因为人类善于处理复杂、动态的任务, 能够进行推理, 并在信息不足或矛盾的情况下识别和洞察情景, 做出决策。因此, 在高度创新和洞察相关的任务上, 人类智能的表现优于人工智能[81]。而且, 人类具备自由思考和创新的能力, 能够创建全新的概念和想法。受限于已有的数据和模式[80], 人工智能虽然可以创建主题的变体或重新组合现有的概念, 但它通常缺乏构思全新范式或突破创意障碍的能力。例如, 人工智能可以生成莫扎特风格的音乐, 但它不太可能发明一种全新的音乐流派。除此之外, 人类创造力源于多种因素的融合: 人生经历、情感共鸣、文化背景以及以新颖的方式连接看似不同的概念的能力。人工智能虽然可以分析市场趋势和竞争对手的策略, 生成具备一定创造力的创意, 但难以产生基于对个体经验感悟、社会意义理解、甚至反思历史传统的想法。以苹果公司“非同凡想” (Think Diffe-rent)广告创意为例, 其体现的打破墨守成规的概念, 源自对人类突破自身、挑战陈规愿望的深刻理解与洞察。同样, 印刷机、相对论或爵士乐流派的发明也不是数据分析的产物, 而是好奇心和想象力激发的结果。

因此, 人类员工在这些创新性的任务中不可或缺, 而人工智能在数据处理和执行方面可以发挥辅助作用。企业在实践中将创造力相关工作交由人类承担, 人工智能承担辅助工作。例如, 投资服务公司利用人工智能来完成财务计划、实时预测目标完成情况、节约税额等常规和以数据为中心的工作, 人类员工则专心于理解投资目标、方案定制、担任行为教练以及促进公司的可信度等更需要创造力和综合考虑情境因素的工作[82]。电信销售公司利用聊天机器人来完成生成潜在客户这类程式化的任务, 让人类员工专注于游说客户等非结构性任务。这种分工使得员工有更多的时间和精力进行创新性销售[80]

2)社交互动相关的任务。

目前的深度学习只能做到“感觉”(sensation), 达不到“感知”(perception)[59]。感知人类情感的能力是人类核心的体验, 很难被自动化和数字化[21]。例如, Noble 等[83]发现, 应聘者认为人工智能无法读懂“言外之意”(read between the lines)。在很多社交场合, 需要调用感知的技能, 而人类更善于此。例如, 人类智能更擅于共情[84], 从事共情类的工作, 如建立和维系关系、关心他人、解决冲突和沟通协商 等[85]。这类工作很难被人工智能替代[47], 且随着“感觉经济”的发展, 人类将越来越多地参与其中。例如, 在人力资源管理领域, 人工智能根据员工的表现识别其短板, 但它很难进一步进行具体应对, 这涉及复杂的社交互动[35]。另一些学者从长期动态的视角提出, 如果所有的工作最终都可以实现自动化, 由人工智能替代完成, 共情类的工作被排在最后[47]。这说明, 共情类的工作相对更难以由人工智能去执行。

那些依靠人际互动产生人性化体验的工作也无法从人工智能获取。尽管人工智能能够模拟人类情绪, 但人类是一种社会性动物, 需要人际互动来实现情感联结, 满足归属需要。人工智能以数据和算法为核心开展工作, 较少涉及情感互动[86], 且人工智能决策具有更低的人情味(personableness)和善意(benevolence)[87–88], 因而难以胜任需要频繁情感识别与互动的工作。

还有一些体现人类个性化的工作, 无法用人工智能实现。除计算外, 大脑的其他活动, 如一些感性模糊的感受是更复杂多变而微妙的部分, 是人类区别于机器和其他动物的高级特性。以 AlphaGo 为例, 其算法充分利用计算机的快速大数据计算优势, 达到很高的胜算, 但忽视了围棋中双方风格脾性的沟通以及棋局中的美学和道韵[53]。这些凸显人性个性化的工作更适合人类。

2.2.3 任务输出: 失误代价性高的任务

对于失误代价性高的工作, 如果出现失误会带来严重的后果。如前所述, 人工智能在执行任务时存在较大的安全隐患, 这是因为人工智能的决策过程缺乏透明性, 因而工作过程不可控。其次, 人工智能还面临脆弱性的挑战[59]。如果智能系统的输入不在知识库或训练好的人工神经网络的有效范围内, 系统可能产生错误的输出。再次, 互联网本身的漏洞与人工智能技术本身的漏洞都可能造成巨大的安全隐患。因此, 如果工作的失误代价性高, 就只能由人类来承担。人类的工作过程透明, 且随时可中断、可干预, 随时可以中止有风险的活动, 极大地提高了工作的可控性, 也降低了工作的风险。例如, 在航空行业, 任何小的错误都可能导致严重的事故和伤亡。飞行员需要在高压环境下做出快速决策, 同时遵循严格的程序和安全规范。人类飞行员具备高度的意识、情感反应以及在突发情况下的即时应变能力, 这对防止错误至关重要[89], 因此, 即便设置了自动驾驶模式, 飞行员仍然会被赋予随时从机器中接管飞行任务的权限。

2.2.4 任务约束因素: 伦理相关的任务

人工智能在使用数据库信息时存在伦理风险,可能在人类不知情的情况下进化, 访问个人信息或实施其他潜在风险行为[33]。尤其当人工智能数据库中包含大量个人数据和隐私数据时, 数据滥用和恶意使用可能会给组织机构带来严重的数据安全风险[90]。例如, 在使用人工智能进行招聘背景调查时, 算法可能无意间不当泄露求职者的敏感信息。人类则可以较为稳妥地思考伦理相关的问题, 随时中止有风险的活动。最后, 人工智能在组织管理和具体工作中也会引发组织问责制的实践难题。如何让算法做出的决策能够对所有的利益相关者负责, 成为一个关键议题[91]

此外, 伦理因素涉及产品和(或)服务的长期效应和“跨界效应”, 比如“信息茧房”效应就横跨信息服务和社会文化两大领域, 因此产品和(或)服务的技术成分与这些伦理因素之间的关联变得十分曲折和复杂。现有的设计和研发能力不足以有效地处理这些伦理因素, 对现有人工智能技术构成全新的挑战[92]

2.3 人工智能与人类智能的指数体系

上述胜任力分析共产生 11 个特征, 如表 1 所示。就某项任务而言, 可以就其在每个特征上的程度进行打分, 1=程度很低, 5=程度很高, 由此可以获得该项任务的人工智能和人类胜任的指数。前 7 个为工作任务的人工智能指数, 简称 AI 指数; 后 4 个为工作任务的人类指数, 简称 HI 指数。图 1 展示此特征模型的指数体系。

2.3.1 AI指数

在 7 个 AI 特征中, 前 5 个特征体现人工智能使用的必要条件, 即只有满足这些条件的工作或任务才能使用人工智能, 本文将其命名为 AI 可用指数, AI 可用指数中的每个特征都要达到一定的阈值才能使用人工智能。因此, 如果某个特征的数值最小, 表明该任务在该特征上的表现不足, 可能成为限制人工智能应用的关键因素。基于这一分析, 本文采用 5 个 AI 可用性特征中的最小值来计算 AI 可用指数, 如式(1)所示:

表1 AI与HI指数

Table 1 AI and HI index

分类名称解释特征含义典型任务 AI指数AI可用指数使用人工智能的前提条件1) 可数字化的程度工作流程、内容、标准可以转换成机器可以理解和处理的格式的程度音频处理 2) 信息封闭性可能出现的输入与结果的可预测程度金融风险评价 3) 任务重复性指工作的重复与常规程度图像识别 4) 规则的明确性任务目标与规则的明确程度路线选择 5) 程序的可分解性任务执行过程可以被分解的程度自动驾驶 AI优越指数使用人工智能的优越性6) 信息加工效率数据处理的速度、准确性、客观性与深度的程度简历筛选 7) 不友好程度工作的物理环境恶劣、危险程度、工作内容的强度、枯燥、琐碎程度等矿业开采 HI指数HI优越指数使用人类智能的优越性8) 创造洞察相关任务执行时涉及创造力与洞察能力的程度营销策划 9) 社交互动相关工作中涉及到的感性与理性的程度, 具体包括情感的识别、输出程度冲突解决 HI安全指数使用人类智能比使用人工智能更加安全的程度10) 失误代价性任务中一旦出现失误或错误会导致严重后果的程度飞机驾驶 11) 伦理安全相关工作中涉及到的伦理、隐私安全等问题的不清晰、不确定性程度背景调查

width=416.4,height=186.8

图1 AI-HI任务特征模型的指数体系

Fig. 1 Index system of the AI-HI task characteristic model

AI可用指数=min(可数字化程度, 信息封闭性,任务重复性, 规则的明确性,程序的可分解性)。 (1)

由于评价采用的是 5 级量表, 因此设定阈值为 3, 即 AI 可用指数低于 3 时, 则不建议使用人工智能。

后两个 AI 特征体现使用人工智能的优越性, 本文将其命名为 AI 优越指数。使用人工智能的优越程度取决于任务对信息加工效率的要求和对人类的不友好程度, 如果一个任务在这两项特征上都表现明显, 即对信息处理效率要求高且对人类不友好, 那么使用人工智能将展现出更大的优越性。因此, AI 优越指数可以通过这两项特征的程度相加得出, 如式(2)所示:

AI优越指数=信息加工效率+不友好程度。 (2)

2.3.2 HI指数

在 4 个 HI 特征中, 创造洞察相关、社交互动这两个特征体现使用人类智能的优越性, 即在工作中人类将比人工智能有更出色的表现, 本文将这些特征归为 HI 优越指数。另外两个指数——失误代价性与伦理相关度, 体现使用人类员工的安全性, 或使用人工智能的风险程度, 本文将这类指数命名为HI 安全指数。

HI 优越指数的计算方法与 AI 优越指数相似, 如式(3)所示:

HI优越指数=创造洞察相关程度+社交互动相关程度。 (3)

对于 HI 安全指数而言, 如果其中一个指数较高, 则建议使用人类员工。因此, HI 安全指数取决于两个特征中程度最高的一个, 计算方法如式(4) 所示:

HI安全指数=max(失误代价性, 伦理安全相关), (4)

考虑到所采用的 5 级量表, 此指数的阈值设定为 3, 即当 HI 安全指数大于 3 时, 则推荐采用人类员工。

2.3.3 效率与安全的平衡

本任务特征模型的指数体系综合考量效率与安全两大关键因素。HI 使用安全指数特别关注任务完成过程中的安全和伦理问题, 确保在涉及安全与伦理决策时能够充分考虑风险。其他 3 个指数则与任务完成的效率直接相关, 同时兼顾任务执行的效率与安全。此任务特征模型能够为人工智能和人类智能的分工提供更加全面和均衡的指导。

3 面向人工智能与人类智能的任务分类模型

3.1 任务分类模型

根据任务–技术匹配理论[50], 技术的合理使用取决于技术与任务的匹配。匹配包含两种情况: 一种为任务是否满足技术使用的先决条件, 另一种是应用该技术是否更具优势。本文命名的 4 个 AI-HI指数(AI 可用指数、AI 优越指数、HI 优越指数以及HI 安全指数)可以用来分析任务与人工智能或人类智能的匹配程度, 因此可以根据人工智能与人类使用的可行性与优越性, 对任务进行分类(表 2)。

AI 可用性是应用人工智能的前提条件, 也是其必要条件。当 AI 可用指数低(情形 1)时, 意味着该任务难以进行数字化描述, 输入与产出不封闭, 无法穷举, 任务非常规导致可用数据稀缺, 规则不明确或任务不可分解。大量研究发现, 在这些情况下, 任务不符合使用人工智能的条件[32,53,55,65–66], 因此不宜采用人工智能, 应转而利用人类智能, 即由人类员工来承担。这类任务被称为 AI 不可用型任务。

对于 AI 可用指数高的任务, 分 4 种情形讨论其适用性。当 AI 优越指数高且 HI 安全指数低(情形 2)时, 说明该任务对信息处理效率的要求高, 或者任务对人类不友好(如环境恶劣、工作内容琐碎枯燥等), 并且不涉及安全与伦理的问题, 此时使用人工智能更合适, 因为人工智能在这些任务上能够提供比人类更高的效率[67,70]和耐力[18–19,79]。这类任务可称为 AI 优越型任务。

当 AI 优越指数高但 HI 安全指数也高(情形 3)时, 说明该任务有很高的安全要求或涉及较多伦理问题。此时, 即便使用人工智能效率更高, 但可能会置任务于较大的安全风险之中[59], 或造成伦理问题[92]。已有研究建议, 人类参与人工智能, 或是人与机器协作, 可以提升人工智能在处理不确定性、伦理考量问题中的表现[93]。因此, 在这种情况下, 应该有监控地使用人工智能, 或者通过人与人工智能的协作来完成任务。这类任务被称为 AI-HI 协作型任务, 强调人类监督和控制的重要性。

当 HI 优越指数高(情形 4 和情形 5)时, 意味着该任务可能侧重社交互动或需要人类的创造力、同理心等特质。有研究发现, 受限于已有的数据和模式, 人工智能在新颖性和创造性方面不及人类智 能[81]。此外, 人类智能更擅于共情[84], 解决冲突和沟通协商等[85], 进行情感互动[86]。因此, 这类工作使用人类员工更具优越性[47]。在这些情形下, 应优先考虑使用人类智能来完成任务。这类任务可称为 HI 优越型任务, 突出人类在这些领域的不可替代性。

尽管 AI 优越指数和 HI 优越指数是两个独立的指标, 但大多数任务通常不会同时在这两个指数上都有较高得分: 要么侧重信息处理的理性要求, 此时人工智能更有优势; 要么侧重社交互动和感性部分, 此时人类智能更有优势。很少有任务同时对这两方面都有高要求。因此, 本文不分析 AI 优越性和 HI 优越性同时高情况下的人工智能与人类智能的使用策略。

3.2 不同任务的分工策略

3.2.1 AI不可用型任务

AI 不可用型任务指这些任务在可数字化程度、信息封闭性、任务重复性、规则的明确性和程序的可分解性等至少某一个方面不具备使用人工智能的条件, 因而只能使用人类员工。在这种情况下, 组织机构应采取多种策略来应对这些挑战。首先, 应当专注于人类员工的能力发展, 增强其创造力与问题解决能力。其次, 建立跨学科团队, 鼓励团队成员之间的协作与信息共享, 从而利用多元观点和经验来应对复杂问题[94]。此外, 可以利用人工智能技术提供某些辅助支持, 如数据分析、信息整合等, 支持人类在决策过程中的能力[82]。通过结合人类的创造力, 以及人工智能的分析能力, 企业能够更有效地应对 AI 不可用型任务, 最大化劳动力资源的价值[80]

表2 人工智能–人类智能使用的选择

Table 2 Selection of AI-HI (artificial intelligence-human intelligence) usage

AI可用指数AI/HI优越指数HI安全指数情形任务类型使用策略 AI不可用––情形1AI不可用型使用人类智能 AI可用AI优越性高HI安全性低情形2AI优越型使用人工智能 HI安全性高情形3AI-HI协作型有监控地使用人工智能, 或人类智能与人工智能合作 HI优越性高HI安全性低情形4HI优越型使用人类智能 HI安全性高情形5

3.2.2 AI优越型任务

对于 AI 优越型任务, 组织机构可以充分利用人工智能技术承担任务优化工作流程, 提升效率。这类任务通常信息加工要求较高, 或是在环境恶劣、琐碎且枯燥的情况下进行。因此, 首先, 企业应进行全面的任务评估, 识别哪些具体操作可以被人工智能系统接管, 以便减少人类员工的负担。通过实施先进的机器学习和自动化技术, 人工智能可以高效地处理大量数据、执行复杂计算和自动化重复性工作, 从而提高整体生产力。其次, 企业需要进行人工智能系统的迭代和优化, 确保其能够准确、快速地执行任务, 并针对各种操作环境开展相关测试, 保障其稳定性和可靠性。

3.2.3 AI-HI协作型任务

对于 AI-HI 协作型任务, 组织机构在设计和实施这些任务时可采取综合性策略, 确保安全性和有效性。首先, 必须建立明确的监控机制, 保持人类在任务执行过程中的主导地位。这意味着, 在使用人工智能技术时, 必须让人类员工能够随时干预和接管人工智能的决策和进展, 尤其是在高风险和对失误容忍率很低的环境中[89]。其次, 需要增进对人工智能系统决策过程的透明性, 降低潜在的安全隐患和脆弱性[95]。可以通过建立反馈环路和可解释的人工智能模型, 确保人类能够理解和信任人工智能的输出。此外, 伦理安全相关也是重要考虑因素。应当定期评估人工智能系统的伦理风险, 特别是当涉及大量个人数据时[33,90]。最后, 应培养员工的伦理意识与数据素养, 促使人类员工在使用人工智能的同时, 能够主动识别和中止有风险的活动, 从而维护组织机构的责任和问责制[91]。通过这些措施, 企业不仅能够提高任务的安全性和有效性, 还能在快速变化的工作环境中树立负责任的人工智能使用标准[95]

3.2.4 HI优越型任务

对于 HI 优越型任务, 组织机构可采取以人为本的策略, 充分利用人类员工在创造性思维、情感智能和社交能力方面的优势。首先, 应确保这些任务交由具备相关能力的人类员工来完成, 例如在需要创新、情感理解和复杂社交互动的工作场景 中[81]。其次, 应为员工提供持续的培训和发展机会, 增强其创造力和社交智力, 帮助其在工作中实现最佳表现[82]。此外, 可以促进人机协作, 在利用人工智能处理重复性和数据密集型工作时, 通过自动化来减轻人类员工的负担, 使他们能够集中精力于创意和人际互动。人工智能可以辅助人类在数据分析和信息整合方面提供支持, 但最终的决策和创新仍需依赖人类的直觉和经验[80]。最后, 为了更好地管理与促进人际互动相关的工作, 企业应建立良好的沟通环境, 鼓励信息分享与团队合作, 从而提升整体的工作效率, 创造更具人性化的体验[47]。通过这样的策略, 组织机构能够在 HI 优越型任务中充分发挥人类的独特优势, 促进创新和提升工作质量。

4 基于AI-HI任务特征–分类模型的会计工作任务的分析

O*NET (Occupational Information Network)是由美国劳工部组织开发的工作分析系统, 吸收了多种工作分析问卷(如 PAQ 和 CMQ 等)的优点, 目前已取代职业名称词典(Dictionary of Occupational Titles, DOT, 也译为职名典), 成为美国广泛应用的工作分析工具。O*NET 网站(https://www.onetonline.org)对每种职业都有详尽的描述。考虑到人们认为会计工作未来将被人工智能替代[96], 因此本文选取会计这一职业, 选择两位资深会计作为专家进行访谈。两位专家都是本科学历, 持有会计师资格证, 分别从业 15 年和 18 年。专家 1 曾经服务过的行业包括电力服务、燃气服务、珠宝和软件服务行业, 专家 2服务于银行业。通过访谈, 两位专家分别对每个核心任务, 就本文提炼的任务特征逐一打分, 1=程度很低, 5=程度很高。对于存在分歧的任务, 我们与两位受访者进行讨论, 最终达成一致的评分。最后, 对每个指数所包含特征的得分进行平均, 得到该指数的评分。通过对每个任务在 4 个指数上的评分进行分析, 将 19 个会计核心任务按照 AI 不可用型、AI 优越型、AI-HI 协作型和 HI 优越型 4 种类型进行归类。

4.1 会计工作的任务特征

访谈得到的会计工作 19 项核心任务特征的评价报告如表 3 所示。

以任务 3 为例, 该任务主要为收集和分析数据, 以便发现数据中存在的问题。这项任务加工对象为数据, 其可数字化程度较高, 但是否存在欺诈, 还需要根据实际情况进行具体分析(可数字化的程度赋值为 4); 欺诈等可能出现的问题大多比较常见, 信息封闭(信息封闭性赋值为 4); 它是会计审计中的常规工作, 重复性高(重复性赋值为 5); 对控制缺陷、铺张浪费和欺诈等的认定, 需要根据具体场景进行分析, 不一定有明确的规定和标准(规则的明确性赋值为 3); 这项任务的步骤较为清晰, 可分解(程序的可分解性赋值为 4)。在上述 5 个特征值中, 取最小值, 由此得到任务 3 的 AI 可用指数为 3。该任务涉及的数据量较大, 具有一定的加工深度, 信息加工的效率要求比较高(信息加工效率赋值为 4); 该任务涉及数据的筛查, 稍显枯燥, 因此对人类的不友好程度不算高(不友好程度赋值为 2)。将这两个特征的得分相加, 得到其 AI 优越指数为 6。执行该任务需要一定的经验, 用来判断和洞察是否存在问题(创造洞察相关赋值为 3), 需要与涉事员工沟通, 并探查背后是否存在不当操作, 需要社交智力(社交智力相关赋值为 4)。此两项相加, 得到 HI 优越指数为 7。由于不存在严重的后果(失误代价性赋值为 1), 也不涉及伦理问题(伦理相关赋值为 1), 取最大值, 得到 HI 使用安全指数为 1。

表3 基于AI-HI任务特征–分类模型的会计工作分析

Table 3 Analysis of accounting work based on the AI-HI task characteristic-classification model


核心任务可数字化的程度信息封闭性重复性规则的明确性程序的可分解性AI可用指数信息加工效率不友好程度AI优越指数创造洞察相关社交智力相关HI优越指数失误代价性伦理相关HI使用安全指数任务类型 1.准备详细的审计报告555555437134515AI-HI协作 2.向管理层汇报资产运用情况及审计结果, 并提出运营和财务活动的建议345443415437313HI优越 3.收集与分析数据, 以识别控制缺陷、重复工作、浪费、欺诈行为或违反法律、法规和管理政策的情况445343426347111HI优越 4.监督机构的审计工作, 并确定必要的审计范围−−−−−−−−−−−−−−−− 5.与公司高管就财务和监管事宜进行沟通345222112437212AI不可用 6.检查和评估财务及信息系统, 推荐控制措施以确保系统的可靠性和数据的完整性−−−−−−−−−−−−−−−− 7.核对现金、应收票据、应付票据、可转让证券及已注销支票, 以验证记录的准确性555555358112111AI优越 8.审查账目并与员工面谈, 确保交易记录的合规性和遵守法律法规555555336145111AI优越 9.准备、审核或分析会计记录、财务报表或其他财务报告, 评估其准确性、完整性及是否符合报告和程序标准555555336112111AI优越 10. 准备调整账目分录555555336112111AI优越 11. 审查账目差异并进行对账555555336112111AI优越

续表


核心任务可数字化的程度信息封闭性重复性规则的明确性程序的可分解性AI可用指数信息加工效率不友好程度AI优越指数创造洞察相关社交智力相关HI优越指数失误代价性伦理相关HI使用安全指数任务类型 12. 建立账目表并正确分配账目条目455554336213111AI优越 13. 盘点库存以核实账簿和分类账条目555555336112111AI优越 14. 分析业务运营、趋势、成本、收入、财务承诺和义务, 以预测未来收入和支出或提供建议345222336437111AI不可用 15. 向管理层报告机构的财务状况345443415437313HI优越 16. 利用当前的计算机技术, 开发、实施、修改和记录会计和记账系统−−−−−−−−−−−−−−−− 17. 评估纳税人的财务状况以确定税务责任, 运用对利息和贴现率、年金、股票和债券估值以及可耗尽资产摊销估值的知识345222112437313HI优越 18. 检查组织的目标是否在其管理活动中得到体现, 以及员工是否理解这些目标345222112437212HI优越 19. 审计工资和人事记录, 以确定失业保险费、工人赔偿保险覆盖范围、负债和是否遵守税法555555336112111AI优越

说明: 受访者认为任务4, 6和16在工作中未涉及, 因此不做讨论。

4.2 会计工作的任务分类

按照本文提炼的任务分类模型, 逐一对每项任务进行分析, 可以将每项任务进行归类, 最终的归类结果见表 3 右列。以任务 3 为例, 其 AI 可用指数为 3, 等于门槛值, 因此可以使用人工智能。但是, 其 AI 优越指数为 6, 小于 HI 优越指数 7, 因此属于情形 4, 即 HI 优越型任务, 应该使用人类员工 完成。

从表 3 可以看出, AI 不可用型有两个任务(任务5 和 14), AI 优越型有 8 个任务(任务 7~13 和 19), AI-HI 协作型只有 1 个任务(任务 1), HI 优越型有 5 个任务(任务 2, 3, 15, 17 和 18)。如图 2 所示, 对会计工作而言, 50%的任务可以交由人工智能完成, 有 6%的任务需要在人类员工的监控下使用人工智能。但是仍然有 13%的任务无法交由人工智能完成, 并且有31%的任务由人类员工完成更有效。可见, 人工智能目前仍然无法完全代替人类完成会计工作, 只能接管部分会计工作。

5 讨论与结论

5.1 主要结论

本文在深入分析人工智能与人类各自的工作优势基础上, 识别出凸显人工智能和人类差异的 11 个任务特征。基于这些工作特征, 归纳出 4 个 AI-HI指数——AI 可用指数、AI 优越指数、HI 优越指数和HI 使用安全指数, 并构建人工智能和人类智能的任务特征–分类模型。以会计工作为例, 利用在 O* NET 上获得的核心任务描述, 针对会计工作的 19个任务, 逐一分析其在 11 个任务特征上的得分, 计算它们的 AI 可用指数、AI 优越指数、HI 优越指数和 HI 使用安全指数, 并根据任务分类模型, 对任务进行归类, 指出会计工作中哪些任务应交予人工智能完成, 哪些应该继续交由人类, 以及哪些可以进行人类与人工智能的协作。

width=203.75,height=169.8

图2 会计工作的核心任务分类

Fig. 2 Classification of core tasks in accounting work

5.2 理论贡献

本文的理论贡献主要包括以下 3 个方面。

首先, 本文提出一个创新的任务特征理论框架。该框架基于人工智能的技术特点, 通过深入分析人工智能与人类在工作领域的技能、优势与局限, 识别并梳理人工智能所能胜任的任务特征, 以及人类员工区别于人工智能所能胜任的任务特征。以往关于工作特征的描述, 旨在寻找能够激励员工的工作设计与特征[97], 例如工作的自主性、工作的重要性等。然而, 这些特征无法体现人工智能与人类员工的技能差异, 无法用于衡量工作与人工智能的匹配性。近年已有研究针对人工智能的使用提炼工作特征, 提出例如工作的创造性、重复性等 6 个特征[30]。本文在以往研究的基础上, 全面分析与人工智能、人类员工技能特点有关的 11 个任务特征, 纳入体现人工智能使用条件的 5 个任务特征(可数字化程度、信息的封闭性、重复性、规则的明确性、程序的可分解性), 体现任务的伦理与安全要求相关的两个特征(失误代价性、伦理相关), 弥补以往研究中对人工智能使用要求和伦理安全方面的工作特征关注不足的缺陷。总之, 本研究中识别出的 11 个工作特征, 全面地描述了人工智能和人类员工涉及的工作场景, 并为基于人工智能使用的工作分类研究打下理论基础。

其次, 本文提出一个全新的任务分类框架, 为人工智能和人类员工的分工提供了理论框架与依据。相比于已有的分类[30], 本文的分类框架增加了AI 不可用型类型, 弥补以往研究中对人工智能使用的前提条件的忽略。此外, 本文分类模型提供了可操作、可量化的分类方案及理论解释。虽然以往的分类模型也依据任务特征进行归类, 但未能提供将多个任务特征整合为任务类型的具体思路和理论依据。本文提出的任务分类模型在以下 3 个方面实现操作和量化。在可操作性方面, 通过将任务特征整合为人工智能–人类智能指数, 提供整合任务特征的思路; 通过对多个人工智能–人类智能指数的组合判断, 提供任务归类的具体思路和操作方法。在量化方面, 引入李克特 5 级量表, 实现任务特征的量化计算; 为 4 个指数提供具体的计算公式, 尤其是为 AI 可用指数制定选择最小特征值的计算方式, 为 HI 安全指数制定选择最大特征值的计算方式, 量化实现这两个指数的理论逻辑; 设定 AI 可用指数与 HI 安全指数的阈值, 从而为基于指数的任务归类提供了归类标准。总体而言, 本文的任务分类模型不仅完善了工作分类研究中人工智能使用条件关注的不足, 还弥补了以往分类在可操作性和量化方面的缺陷, 为未来的人工智能研究提供了工作分类的理论基础和操作方案。通过将理论模型应用于会计职业的具体工作任务中, 本文详细地计算了这些任务在 11 个工作特征上的得分, 并据此得出相应的指数, 指明每个任务所属的人工智能–人类员工分工类型, 为其他行业的工作分类和人工智能应用提供了可操作的参考。

最后, 本文研究结论对人工智能与人类员工分工与协作的研究提供了重要启示。对于“哪些岗位应该引入人工智能, 而哪些岗位应该仍然交由人类员工”这一问题, 本文的研究结论启发我们, 应将分析单元从宏观的工作层面降低到微观的任务层 面。以会计工作为例, 本研究展示在同一工作中, 不同的任务在使用人工智能的可行性与必要性上有所差别, 因此, 由分析工作转而分析任务, 能更加合理地对人工智能和人类员工进行分工。同时, 将分析单元降低为任务, 也有助于降低员工被人工智能取代的焦虑。因为每种工作中, 都可能涉及人工智能无法替代的任务。因此, 对“人工智能将取代哪些工作”的讨论, 应该转为“人工智能将代替员工完成哪些任务”以及“哪些任务需要人与员工的共同协作”。这一观点为未来人工智能与人类工作的和谐共存提供了新的思考, 强调在人工智能时代, 人类员工的创造力以及社交智能等优势仍然不可替代[21]

5.3 实践启发

本文的研究结果提示管理者, 不能简单地将整个工作交给人工智能或人类。合适的做法是将工作分解为具体任务, 并分析每个任务的特性, 决定哪些任务更适合人工智能, 哪些任务更适合人类智能。这种精细化的工作设计可以帮助组织机构更有效地整合人工智能技术, 提高工作效率和质量。例如, 在会计领域, 重复性和规则性较强的任务(如数据录入和常规交易处理), 可以交给人工智能处理, 而需要专业判断和场景分析的任务, 则应保留给人类专业人员。这种分工不仅可以提高工作效率, 还能确保工作质量, 同时也为员工提供更多发挥其专业技能和创造性的机会。

本文的研究结论还为人力资源管理提供新的视角。通过识别哪些任务更适合人工智能, 管理者可以重新评估员工的技能和潜力, 并对员工进行再培训和职业发展规划。对于那些被人工智能替代风险较高的任务, 组织机构可以投资于员工的技能提升和转型, 使他们能够从事更有创造性和战略性的工作。此外, 管理者还可以通过设计更具吸引力的工作内容, 提高员工的工作满意度和忠诚度, 从而在人工智能时代保持组织机构的竞争力。

本文的研究强调在人工智能时代, 管理者需要重视员工的适应性和未来技能的培养。随着技术的快速发展, 员工可能需要不断学习新技能来适应变化的工作要求。管理者应投资于持续教育和职业发展计划, 帮助员工掌握与人工智能协作所需的技能, 如数据分析、机器学习和编程基础[67]。此外, 管理者还应鼓励员工发展那些人工智能难以替代的技能, 如批判性思维、创造力和情感智能, 这些技能在未来的工作环境中将变得更加重要[12]。通过这种方式, 不仅能够提高员工的工作胜任力, 还能确保组织机构在技术变革中保持竞争力和创新能力。

5.4 未来研究方向

本文的任务特征分类模型为未来的研究开辟了几个方向。例如, 可以根据本文提出的任务特征以及任务分类, 重构现有工作岗位。具体而言, 可以依据任务特征, 对现有岗位进行细致的分解并归类, 随后将属于同一特征的任务进行整合和重组。例如, 可以将更适合人工智能执行的任务(即 AI 优越型任务)整合形成全新的岗位, 由人工智能系统专门负责, 释放人力资源。同时, 将更需要人类智慧和独特能力的任务(即 HI 优越型任务)整合到另一个岗位, 促进员工在特定领域技能的纵深发展, 发挥人类的不可替代性。未来可以针对某一部门或某些类型的组织机构, 探索如何重构现有岗位。此外, 对于那些需要人机协作完成的任务, 还可以深入研究不同的人机协作模式, 例如“人类监控–机器执行”“人类培养调试机器”“人类辅助机器”等, 并将最佳协作模型与特定任务特征联系起来。例如, 对于失误代价极高的任务, 人机协作模式可能必须采取“机器辅助, 人工审核”的形式, 确保安全性和可靠性。这种细致的岗位重新设计和人机协作方法有望提高运营效率、创新能力并实现协同效应。

此外, 鉴于人工智能技术的快速发展, 未来的研究可以关注人工智能与人类在任务执行中的协作动态。可以探讨随着人工智能技术进步, 人类与人工智能在任务分配和协作中的角色如何演变, 以及这种演化对组织结构和人力资源管理的影响。还可以分析除工作特征外影响人工智能或人类智能的使用的因素。已有研究指出, 员工的人际沟通能力、创造力、判断力和任务结构能力等[98]影响员工对人工智能的使用以及使用效果。除能力外, 其他可能影响人工智能使用以及使用效果的员工特征尚待探索。最后, 随着人工智能在工作场所的广泛应用, 伦理和安全问题日益成为关注的焦点。未来的研究中可以深入探讨人工智能在处理伦理困境和安全风险时的角色和责任。可以研究人工智能在决策过程中如何平衡不同利益相关者的利益, 以及如何设计和实施人工智能系统以确保遵守伦理标准和法律法规。此外, 还可以探讨如何通过技术、政策和教育手段, 提高人工智能系统的透明度, 增强公众对人工智能的信任, 并确保人工智能的安全和负责任的使用。

尽管本文的任务特征–分类模型具有许多值得深入研究的方向, 但我们仍然需要认识到其可能面临的挑战以及需要进一步完善之处。

首先, 人工智能技术的快速发展对本文提出的11 个任务特征的长期有效性提出挑战。随着人工智能能力的进步, 它们处理先前被认为是“人工智能不可及”任务的能力可能会提高。例如, 人工智能处理非结构化数据的能力提高可能会降低“可数字化程度”的重要性, 而人工智能驱动决策的进步可能会改变“规则清晰度”和“程序可分解性”的重要性。此外, 随着人工智能的发展, 人类智能在“创造性洞察力”和“社交互动”方面的比较优势可能会发生变化, 因此未来的研究中可以重新调整人工智能和人类智能各自的“优越性指数”。至关重要的是, 即使人工智能在某些领域表现出色, 围绕“人工智能安全性”的伦理考量以及高“失误代价性”仍然至关重要, 并且随着人工智能系统变得更加自主和具有影响力, 伦理考量甚至可能加剧。因此, 需要根据人工智能的发展, 定期重新评估和修订这 11 个任务特征以及相关指数, 以便持续指导关于人工智能采用和人机协作的决策。

其次, 本文仅通过会计职业展示如何应用所提出的任务特征分类模型, 分析如何在实际的职业中评估不同任务使用人工智能的可行性与必要性。未来的研究中可以将此模型扩展到更广泛的职业领域。这种更广泛的应用具有双重益处: 1)通过将模型暴露于不同的环境中, 研究人员可以识别潜在的局限性并对其进行迭代改进, 从而增强其稳健性和泛化能力; 2)此类研究可以加深我们对人工智能在不同职业领域的适用性的理解, 从而为指导组织机构实践中人工智能的部署提供有价值的见解。通过分析不同职业的细微差别, 我们可以更好地根据特定的任务要求定制人工智能解决方案, 优化其实施, 并最大限度地发挥其潜在影响力。

参考文献

[1] Cortellazzo L, Bruni E, Zampieri R. The role of leader-ship in a digitalized world: a review. Frontiers in Psy-chology, 2019, 10: 1938

[2] 刘松博, 李静雯, 张凯瑞, 等. 数字化转型和领导的相互影响——基于调适性结构理论的视角. 外国经济与管理, 2023, 45(10): 116–136

[3] Benbya H, Davenport T H, Pachidi S. Artificial intelli-gence in organizations: current state and future oppor-tunities. MIS Quarterly Executive, 2020, 19(4): 9–21

[4] Puranam P. Human–AI collaborative decision-making as an organization design problem. Journal of Organi-zation Design, 2021, 10(2): 75–80

[5] Acemoglu D, Restrepo P. Artificial intelligence, auto-mation, and work // Agarwal A, Goldfarb A, Gan J. The economics of artificial intelligence: an agenda. Chi-cago: University of Chicago Press, 2018: 197–236

[6] Stone P, Brooks R, Brynjolfsson E, et al. Artificial intelligence and life in 2030: one hundred year study on artificial intelligence: report of the 2015–2016 study panel [R]. Stanford, CA: Stanford University, 2016

[7] Von Krogh G. Artificial intelligence in organizations: new opportunities for phenomenon-based theorizing. Academy of Management Discoveries, 2018, 4(4): 404–409

[8] Kim N J, Kim M K. Teacher’s perceptions of using an artificial intelligence-based educational tool for scien-tific writing. Frontiers in Education, 2022, 7: 755914

[9] Meijer A, Lorenz L, Wessels M. Algorithmization of bureaucratic organizations: using a practice lens to study how context shapes predictive policing systems. Public Administration Review, 2021, 81(5): 837–846

[10] Pemer F. Enacting professional service work in times of digitalization and potential disruption. Journal of Service Research, 2021, 24(2): 249–268

[11] Trocin C, Mikalef P, Papamitsiou Z, et al. Responsible AI for digital health: a synthesis and a research agen-da. Information Systems Frontiers, 2023, 25(6): 2139–2157

[12] Van den Broek E, Sergeeva A, Huysman M. When the machine meets the expert: an ethnography of develop-ping AI for hiring. MIS Quarterly, 2021, 45(3): 1557

[13] Bowles J. The computerisation of European jobs [EB/OL]. (2014–07–24) [2025–03–20]. https://www. bruegel.org/blog-post/computerisation-european-jobs

[14] Zhou Guangsu, Chu Gaosi, Li Lixing, et al. The effect of artificial intelligence on China’s labor market. China Economic Journal, 2019, 13(1): 24–41

[15] Craig K, Thatcher J B, Grover V. The IT identity threat: a conceptual definition and operational measure. Jour-nal of Management Information Systems, 2019, 36(1): 259–288

[16] Petriglieri J L. Under threat: responses to and the con-sequences of threats to individuals’ identities. Acade-my of Management Review, 2011, 36(4): 641–662

[17] Raisch S, Krakowski S. Artificial intelligence and management: the automation-augmentation paradox. Academy of Management Review, 2021, 46(1): 192–210

[18] Sowa K, Przegalinska A, Ciechanowski L. Cobots in knowledge work: human-AI collaboration in manage-rial professions. Journal of Business Research, 2021, 125: 135–142

[19] Baakeel O A. The association between the effecti-veness of human resource management functions and the use of artificial intelligence. International Journal of Advanced Trends in Computer Science and Engi-neering, 2020, 9(1): 512–606

[20] Frey C B, Osborne M A. The future of employment: how susceptible are jobs to computerisation? Techno-logical Forecasting and Social Change, 2017, 114: 254–280

[21] Chui M, Manyika J, Miremadi M. Four fundamentals of workplace automation. McKinsey Quarterly, 2015, 29(3): 1–9

[22] Fleishman E A. Performance assessment based on an empirically derived task taxonomy. Human Factors, 1967, 9: 349–366

[23] Ilgen D R, Hollenbeck J R. The structure of work: job design and roles // Dunnette M D, Hough L M. Hand-book of Industrial and Organizational Psychology, 1991, 2(1): 165–207

[24] Hackman J R, Oldham G R. Motivation through the design of work: test of a theory. Organizational Beha-vior and Human Performance, 1976, 16(2): 250–279

[25] Reynolds D H, Laabs G J, Harris D A. Occupational genealogies: using job family characteristics in person-nel research. Military Psychology, 1996, 8(3): 195–217

[26] Fleishman E A, Quaintance M K, Broedling L A. Taxo-nomies of human performance: the description of hu-man tasks. Orlando, FL: Academic Press, 1984

[27] McCormick E J, Jeanneret P R, Mccham R C. A study of job characteristics and job dimensions as based on the position analysis questionnaire. Journal of Applied Psychology, 1972, 56(4): 347–368

[28] Christiansen C. Classification and study in occupation a review and discussion of taxonomies. Journal of Occupational Science, 1994, 1(3): 3–20

[29] Shrestha Y R, Ben-Menahem S M, Von Krogh G. Orga-nizational decision-making structures in the age of arti-ficial intelligence. California Management Review, 2019, 61(4): 66–83

[30] 李慧, 李贵卿. 人工智能时代人机协作工作模型构建研究. 现代管理, 2020, 10(3): 360–367

[31] 蔡跃洲, 陈楠. 新技术革命下人工智能与高质量增长、高质量就业. 数量经济技术经济研究, 2019, 36(5): 3–22

[32] 郑南宁. 人工智能新时代. 智能科学与技术学报, 2019, 1(1): 1–3

[33] Siau K, Wang W. Artificial intelligence (AI) ethics: ethics of AI and ethical AI. Journal of Database Mana-gement, 2020, 31(2): 74–87

[34] Kumar K, Thakur G S M. Advanced applications of neural networks and artificial intelligence: a review. International Journal of Information Technology and Computer Science, 2012, 4(6): 57–68

[35] Chowdhury S, Dey P, Joel-Edgar S, et al. Unlocking the value of artificial intelligence in human resource management through AI capability framework. Human Resource Management Review, 2023, 33(1): 100899

[36] Hecklau F, Galeitzke M, Flachs S, et al. Holistic app-roach for human resource management in industry 4.0. Procedia CIRP, 2016, 54: 1–6

[37] Walsh D P, Ma T F, Ip H S, et al. Artificial intelligence and avian influenza: using machine learning to enhance active surveillance for avian influenza viruses. Tran-sboundary and Emerging Diseases, 2019, 66(6): 2537–2545

[38] Kaplan A, Haenlein M. Rulers of the world, unite! the challenges and opportunities of artificial intelligence. Business Horizons, 2020, 63(1): 37–50

[39] Ameen N, Sharma G D, Tarba S, et al. Toward advan-cing theory on creativity in marketing and artificial intelligence. Psychology & Marketing, 2022, 39(9): 1802–1825

[40] Dickson I. Deep-learning AI for neoplasia detection in Barrett oesophagus. Nature Reviews Gastroenterology & Hepatology, 2020, 17(2): 66–67

[41] Chi O H, Denton G, Gursoy D. Artificially intelligent device use in service delivery: a systematic review, synthesis, and research agenda. Journal of Hospitality Marketing & Management, 2020, 29(7): 757–786

[42] Bowen J, Morosan C. Beware hospitality industry: the robots are coming. Worldwide Hospitality and Tourism Themes, 2018, 10(6): 726–733

[43] Gursoy D, Chi O H, Lu L, et al. Consumers’ acceptance of artificially intelligent (AI) device use in service delivery. International Journal of Information Manage-ment, 2019, 49: 157–169

[44] Seeger A M, Pfeiffer J, Heinzl A. Texting with human-like conversational agents: designing for anthropomor-phism. Journal of the Association for Information Sys-tems, 2021, 22(4): 8

[45] Bedaf S, Marti P, De Witte L. What are the preferred characteristics of a service robot for the elderly? A multi-country focus group study with older adults and caregivers. Assistive Technology, 2019, 31(3): 147–157

[46] 尹萌, 牛雄鹰. 与AI“共舞”: 系统化视角下的AI– 员工协作. 心理科学进展, 2024, 32(1): 162–176

[47] Huang M H, Rust R T. Artificial intelligence in service. Journal of Service Research, 2018, 21(2): 155–172

[48] Desideri L, Ottaviani C, Malavasi M, et al. Emotional processes in human-robot interaction during brief cog-nitive testing. Computers in Human Behavior, 2019, 90: 331–342

[49] Yam K C, Bigman Y E, Tang P M, et al. Robots at work: people prefer-and forgive-service robots with percei-ved feelings. Journal of Applied Psychology, 2021, 107 (10): 1557–1572

[50] Goodhue D L, Thompson R L. Task-technology fit and individual performance. MIS Quarterly, 1995, 19(2): 213–236

[51] Efatmaneshnik M, Handley H A. Task complexity measurement framework for human systems integra-tion. IEEE Systems Journal, 2020, 15(2): 2787–2797

[52] Wood R E. Task complexity: definition of the con-struct. Organizational Behavior and Human Decision Processes, 1986, 37(1): 60–82

[53] 顾险峰. 人工智能的历史回顾和发展现状. 自然杂志, 2016, 38(3): 157–166

[54] Dunjko V, Briegel H J. Machine learning & artificial intelligence in the quantum domain: a review of recent progress. Reports on Progress in Physics, 2018, 81(7): 074001

[55] 魏斌. 法律人工智能: 科学内涵, 演化逻辑与趋势前瞻. 浙江大学学报(人文社会科学版), 2022, 52(7): 49–67

[56] 吴飞, 阳春华, 兰旭光, 等. 人工智能的回顾与展望. 中国科学基金, 2018, 32(3): 243–250

[57] Hopcroft J E, Ullman J D. Formal languages and their relation to automata. Reading, MA: Addison-Wesley, 1969

[58] 李白杨, 白云, 詹希旎, 等. 人工智能生成内容(AIGC)的技术特征与形态演进. 图书情报知识, 2023, 40(1): 66–74

[59] 张钹, 朱军, 苏航. 迈向第三代人工智能. 中国科学: 信息科学, 2020, 50(9): 1281–1302

[60] Gregory R W, Henfridsson O, Kaganer E, et al. The role of artificial intelligence and data network effects for creating user value. Academy of Management Re-view, 2021, 46(3): 534–551

[61] 张钹. 人工智能进入后深度学习时代. 智能科学与技术学报, 2019, 1(1): 4–6

[62] Bojarski M, Del Testa D, Dworakowski D, et al. End to end learning for self-driving cars [EB/OL]. (2016–04–25) [2025–02–24]. https://arxiv.org/abs/1604.07316

[63] 陈小平. 人工智能中的封闭性和强封闭性——现有成果的能力边界、应用条件和伦理风险. 智能系统学报, 2020, 15(1): 114–120

[64] Bicchi A, Tonietti G. Fast and soft-arm tactics: dealing with the safety-performance trade-off in robot arms design and control. IEEE Robotics and Automation Magazine, 2004, 11(2): 22–33

[65] Tahri O, Mezouar Y, Chaumette F, et al. Decoupled image-based visual servoing for cameras obeying the unified projection model. IEEE Transactions on Robo-tics, 2010, 26(4): 684–697

[66] Su J. Robotic uncalibrated visual serving based on ADRC. Control and Decision, 2015, 30(1): 1–8

[67] Trocin C, Hovland I V, Mikalef P, et al. How artificial intelligence affords digital innovation: a cross-case analysis of Scandinavian companies. Technological Forecasting and Social Change, 2021, 173: 121081

[68] Parry K, Cohen M, Bhattacharya S. Rise of the machi-nes: a critical consideration of automated leadership decision making in organizations. Group & Organiza-tion Management, 2016, 41(5): 571–594

[69] Wilson P J, Gosiewska S. Multi-agency gold incident command training for civil emergencies. Disaster Pre-vention and Management, 2014, 23(5): 632–648

[70] 徐鹏, 徐向艺. 人工智能时代企业管理变革的逻辑与分析框架. 管理世界, 2020, 36(1): 122–129

[71] Lindebaum D, Vesa M, Den Hond F. Insights from “the machine stops” to better understand rational assump-tions in algorithmic decision making and its impli-cations for organizations. Academy of Management Review, 2020, 45(1): 247–263

[72] Miller S M, Keiser L R. Representative bureaucracy and attitudes toward automated decision making. Journal of Public Administration Research and Theory, 2021, 31(1): 150–165

[73] Bigman Y E, Wilson D, Arnestad M N, et al. Algo-rithmic discrimination causes less moral outrage than human discrimination. Journal of Experimental Psy-chology: General, 2023, 152(1): 1250

[74] 张映锋, 张党, 任杉. 智能制造及其关键技术研究现状与趋势综述. 机械科学与技术, 2019, 38(3): 329–338

[75] Mushtaq S, Islam M M, Sohaib M. Deep learning aided data-driven fault diagnosis of rotatory machine: a comprehensive review. Energies, 2021, 14(16): 5150

[76] Van Dis E A M, Bollen J, Zuidlema W, et al. ChatGPT: five priorities for research. Nature, 2023, 614: 224–226

[77] 彭剑锋. 新一代人工智能对组织与人力资源管理的影响与挑战. 中国人力资源开发, 2023, 40(7): 8–14

[78] Złotowski J, Yogeeswaran K, Bartneck C. Can we control it? Autonomous robots threaten human identity, uniqueness, safety, and resources. International Journal of Human-Computer Studies, 2017, 100: 48–54

[79] Jarrahi M H. Artificial intelligence and the future of work: human-AI symbiosis in organizational decision making. Business Horizons, 2018, 61(4): 577–586

[80] Granulo A, Fuchs C, Puntoni S. Preference for human (vs. robotic) labor is stronger in symbolic consumption contexts. Journal of Consumer Psychology, 2021, 31 (1): 72–80

[81] Jia N, Luo X, Fang Z, et al. When and how artificial intelligence augments employee creativity. Academy of Management Journal, 2023, 67(1): 5–32

[82] Davenport T H, Ronanki R. Artificial intelligence for the real world. Harvard Business Review, 2018, 96(1): 108–116

[83] Noble S M, Foster L L, Craig S B. The procedural and interpersonal justice of automated application and resume screening. International Journal of Selection and Assessment, 2021, 29(2): 139–153

[84] Dellermann D, Ebel P, Söllner M, et al. Hybrid intelli-gence. Business & Information Systems Engineering, 2019, 61(5): 637–643

[85] Huang G, Wang S. Is artificial intelligence more per-suasive than humans? A meta–analysis. Journal of Communication, 2023, 73(6): 552–562

[86] Csaszar F A, Steinberger T. Organizations as artificial intelligences: the use of artificial intelligence analo-gies in organization theory. Academy of Management Annals, 2022, 16(1): 1–37

[87] Koch-Bayram I F, Kaibel C. Algorithms in personnel selection, applicants’ attributions about organizations’ intents and organizational attractiveness: an experi-mental study. Human Resource Management Journal, 2024, 34(3): 733–752

[88] Langer M, König C J, Back C, et al. Trust in artificial intelligence: comparing trust processes between human and automated trustees in light of unfair bias. Journal of Business and Psychology, 2023, 38(3): 493–508

[89] Wiener E. Human factors in aviation. San Diego: Aca-demic Press, 1988

[90] Timmermans J, Stahl B C, Ikonen V, et al. The ethics of cloud computing: a conceptual review // IEEE Se-cond International Conference on Cloud Computing Technology and Science. Indianapolis, 2010: 614–620

[91] Jarrahi M H, Newlands G, Lee M K, et al. Algorithmic management in a work context. Big Data & Society, 2021, 8(2): 20539517211020332

[92] 张兆翔, 张吉豫, 谭铁牛. 人工智能伦理问题的现状分析与对策. 中国科学院院刊, 2021, 36(11): 1270–1277

[93] Holzinger A. Interactive machine learning for health informatics: when do we need the human-in-the-loop?. Brain Informatics, 2016, 3(2): 119–131

[94] Kozlowski S W, Ilgen D R. Enhancing the effectiveness of work groups and teams. Psychological Science in the Public Interest, 2006, 7(3): 77–124

[95] Chen J Y. Agent transparency: smart and intelligent systems. Boca Raton, FL: CRC Press, 2021

[96] 杨寅, 刘勤. 人工智能时代的会计变革: 演进逻辑与分析框架. 会计研究, 2024(3): 3–20

[97] Hackman J R, Oldham G R. How job characteristics theory happened // Smith K G, Hitt M A. Great minds in management: the process of theory development. Oxford: Oxford University Press, 2007: 151–170

[98] 李宁. 解锁AI力, 开启一场人机双向奔赴的生产力革命. 清华管理评论, 2024(6): 62–69

Will Artificial Intelligence (AI) Completely Replace Humans? Ⅰ. A Task Characteristics-Classification Model Based on the Functional Requirements and Advantages of AI and Human Intelligence

ZHANG Yan1, WANG Haizhen2,†

1. School of Psychological and Cognitive Sciences, Beijing Key Laboratory of Behavior and Mental Health, Peking University, Beijing 100871; 2. School of Business, Xi’an International Studies University, Xi’an 710023; †Corresponding author, E-mail: wanghaizhen@xisu.edu.cn

Abstract This paper examines the working conditions and advantages of artificial intelligence (AI) and human intelligence (HI) concerning task input, processing, output, and constraints, leading to the identification of eleven AI-HI task characteristics. Based on these characteristics, we develop four AI-HI indices: AI Usability Index, AI Superiority Index, HI Superiority Index, and HI Safety Index. These indices inform a proposed typology of four task types: AI Non-Usable, AI Superior, AI-HI Collaborative, and HI Superior. This framework underpins a novel AI-HI task characteristic-classification model. Finally, taking accounting tasks as a case, the model is applied to analyze nineteen core accounting tasks, and assess their AI-HI characteristics, indices, and resultant classifications. The result can provide a rigorous analysis of the division of labor and substitution between AI and HI, offering a theoretical foundation for a transition from adversarial to symbiotic collaboration.

Key words artificial intelligence; human intelligence; task characteristics; task classification