张涵 刘德寰:从工具到伙伴:人机协同的伦理转变与权力重构
青年记者 | 2025-07-25 10:24:39 原创
作者:张涵(北京大学新媒体研究院博士研究生);刘德寰[(通讯作者)北京大学博雅特聘教授,北京大学新闻与传播学院教授]
来源:《青年记者》2025年第7期
导 读:
基于技术中介理论、责任伦理学和技术权力理论,构建了一个综合分析框架,阐释了人机协同中伦理规范与权力结构的平衡问题,并探讨了其对社会关系的深远影响。
一、引言
人机协同(Human-Computer Collaboration)作为一种新兴的交互模式,正在经历从传统工具性角色向伙伴性角色的模式转变。这一转变不仅是技术进步的必然产物,还反映出人类与智能系统关系的动态演进[1][2]。人机协同的核心在于人类与机器的合作机制,其本质体现为信息共享、决策协商与行动协调。在传统意义上,机器被界定为人类的工具,其功能与行为完全受制于人类的设计与操控。然而,随着人工智能、机器学习及机器人技术的迅猛发展,机器的自主性与智能水平显著提升,逐渐从机械的执行者转变为能够主动参与、提供建议甚至在特定情境下能够独立完成任务的“伙伴”[3]。
在其中,技术进步是角色转换的关键原因。深度学习与自然语言处理技术的突破,使机器得以更精准地理解人类意图并模拟复杂认知过程;AI技术的革新迭代则赋予了机器更强的行动能力。然而,这一转变在提升效率与便利的同时,也带来了复杂的伦理难题和权力关系的改变。本研究的核心问题是:人机协同如何在伦理规范与权力结构之间寻求平衡并适应新的关系模式。
二、人机协同的历史演变
(一)机械时代
18世纪末至19世纪初的工业革命中,蒸汽机的发明和应用标志着生产方式发生了巨大的改变。特别是在英国纺织工业中,蒸汽机的广泛使用极大地提高了生产效率,但也引发了工人技能的退化,导致社会结构产生变化。在纺织工业中,蒸汽机的引入将传统手工纺织转变为机械化生产。工人的角色从技艺主导的工匠转变为操作机器的劳动力,基础技能对于工人的重要性逐渐减弱。马克思在《资本论》中指出,机器的使用导致了劳动的异化,工人失去了技能的主导权[4]。因此,基于“技术决定论”的视角[5],蒸汽机作为一项技术中介,不仅改变了生产方式,还进一步改变了社会的结构。
(二)信息时代
20世纪末期,随着计算机和自动化技术的普及,信息时代来临。自动化系统在制造业中的应用无疑提升了生产效率,但也再次加剧了对传统的工人技能的冲击。例如,20世纪80年代,美国汽车工业大规模采用自动化生产线,导致传统工匠的职业认同逐渐模糊。
自动化技术迫使人类适应机器的节奏和操作标准,由此推动认知模式逐渐从创造性思维向程序化思维转变。这一过程在流水线等环境中表现得尤为明显:工人必须严格遵循机器设定的流程,其决策和执行能力(自主性)受到显著削弱。更重要的是,自动化技术充当了一种中介力量,深刻地重构了人类与劳动之间的本质关系。这种重构不可避免地引发了伦理和权力层面的担忧。
(三)智能时代
21世纪初,人工智能的崛起标志着智能时代的到来。自然语言处理(NLP)技术的快速发展,使机器正式从单纯的工具进化为“智能伙伴”,也就是说本时代是对于人机协同正式产生革新的关键环节。在写作、翻译等领域,NLP技术赋予机器生成高质量文本的能力,这使得人类写作者面临技能贬值和创造力减弱的风险。NLP技术作为一种中介,不仅改变了人类的思维方式和表达模式,还引发了深层次的伦理与权力讨论。例如,郭栋指出,生成式人工智能(如:Sora)通过“具身关系”重塑人机互动,技术从工具转变为具有主体性的存在,导致权力从人类向技术平台让渡[6]。与生成式人工智能协同写作时,人类须适应机器的逻辑和风格,这可能导致认知模式的同质化。
在技术哲学视角下分析,生成式人工智能挑战了我们对伦理责任、价值判断等核心问题的传统理解,其伦理效应体现为对既有伦理结构的双重解构。邓桂英的研究表明,相较于传统媒介技术的工具性延伸,生成式人工智能通过认知建模和内容生成的双重机制,不仅重塑了新闻生产的价值链条,更引发了主体性重构的深层伦理争议[7]。其研究揭示,当算法系统深度介入事实核查、新闻框架建构等专业领域时,人类认知模式正在经历从主体决策到人机协同的范式转换,这种认知让渡的过程构成了技术伦理异化的哲学命题。
简单归纳三个时代的递进,从机械时代的简单工具使用,到信息时代的自动化系统,再到人工智能驱动的智能伙伴,人机关系经历了从辅助到深度协作的演变。“技术具身史观”认为,技术不仅是工具,更是人类认知和行动的延伸,通过“具身”方式深刻影响人类的感知、思维和社会关系[8]。因此技术作为一种中介,改变了人类与世界的交互模式,进而重塑社会结构和社会权力格局。
总的来讲,人机协同的历史演变揭示了技术进步如何改造人类的认知模式,并引发伦理与权力的深刻变革。以上每一阶段的技术进步都深刻地改变了人机关系,上述技术变迁揭示了伦理与权力的演化趋势,为理论分析奠定基础。技术不仅是人类行动的工具,更重塑了认知模式与社会关系。这种复杂性促使我们借助理论视角更深入地剖析人机协同的本质及其影响。
三、理论框架
(一)技术维度:技术中介理论
技术中介理论源自技术哲学,认为技术并非仅是人类使用的工具,而是作为一种主动的中介,深刻影响着人类与世界的关系。哲学家唐·伊德(Don Ihde)指出,技术通过“具身关系”和“诠释关系”等机制,改变了人类的感知与行为模式[9]。因此,技术改变了人类的感知与行为模式。
在人机协同中,这一中介作用尤为显著。例如,自然语言处理系统通过生成文本或提供决策支持,不仅改变了人类的写作方式和思维习惯,还可能削弱其自主性,重塑主体性[10]。在智能驾驶、医疗诊断等场景中,人类逐渐将部分决策权委托给机器,导致主体能动性的边界被重新构造。这种变化促使我们思考人类在人机协同中的控制权与责任归属。在权力层面,AI技术正在以前所未有的力量重塑全球生产体系,加剧了财富分配不均和阶层重构的现象[11],其影响不局限于个体行为,还扩展至社会经济结构。
与此同时,技术中介理论将技术视为伦理参与者,在人机协同中责任归属变得复杂。比如,当AI在关键决策中出错时,责任究竟应归于设计者、用户还是系统本身?技术通过其中介作用影响人的道德判断和行为规范,这为理解人机协同中的伦理问题提供了关键视角。Chen和Tang提出:资本逻辑可能将技术异化为一种支配力量,但技术也为超越这一逻辑、实现更高层次的社会变革提供了物质基础[12]。这种双重性使技术在伦理层面的角色更加复杂。
(二)伦理维度:责任伦理学
责任伦理学关注人类对行为及其后果的道德责任。汉斯·约纳斯(Hans Jonas)认为,随着技术能力的增强,人类对技术后果的伦理责任随之扩大,尤其是在后果十分严重并无法补救的情况下[13]。他的理论强调人类作为技术的主导者,必须对技术应用承担道德义务。在人机协同中,技术的自主性使得责任分配问题变得更加复杂。例如,在AI辅助医疗诊断中,若系统误诊,责任可能涉及医生、算法开发者或数据提供者。基于责任伦理学的概念,人类作为技术的创造者和管理者应承担最终责任,但随着系统复杂性的增加,传统的以人类为中心的管理模式面临挑战,因此迫切需要建立新的责任分配机制。另外,机器学习带来的不透明性、不可预测性以及对大数据集的需求,进一步引发了对隐私、数据保护和问责制的担忧[14]。
基于此,责任伦理学要求人类对技术进行主动监督和干预,以确保其符合伦理标准。这意味着人类须持续监控系统行为,防止隐私侵犯或不公平现象的发生。责任伦理学将人类定位为技术的道德守护者,维护伦理底线。在当代以技术为中心的世界,以大数据、人工智能、心理图谱分析以及国家和企业间的监控合作为标志——深刻的反思变得尤为必要[15]。这种反思正是责任伦理学所倡导的核心,强调人类在技术发展中不可推卸的伦理责任。
(三)权力维度:技术权力理论
本框架还整合了技术权力理论与米歇尔·福柯(Michel Foucault)的“规训”概念,将技术视为权力的来源与工具,重点分析技术如何通过治理行为和权威再分配重塑社会结构[16]。技术不仅是实现权力的手段,还深刻改变了权力的分布格局。
在人机协同中,技术通过数据控制和算法治理成为权力的新形态,个体对自身隐私的掌控实际上受限于平台的设计和功能[17]。例如,掌握推荐算法的科技公司能够影响公共舆论,从而挑战传统权力等级。这种权力转移催生了诸如数据隐私泄露和算法决策不透明等新型挑战。在人机协作环境中,技术往往成为放大特定行为者影响力的工具,与此同时,人类对复杂系统的最终控制权和决策能力正面临被逐步侵蚀的风险。AI作为当代技术装置,强化了监控与控制的结构,契合福柯的生命权力和自我技术概念,表明其在人机协同中不仅是技术工具,更是权力运作的关键机制。
技术权力理论进一步揭示了人机协同中权力重构的伦理影响,算法的偏见可能导致社会不平等,加剧边缘化群体的劣势。这种权力失衡要求我们在技术应用中关注公平性与透明度,并通过伦理监督平衡技术带来的权力分配变化。数字监控作为对线上线下人类活动的持续记录与追踪,显著增强了政府和企业积累及审查数据的能力。这种监控强化了技术在权力结构中的角色,同时带来了深刻的伦理挑战,促使我们重新审视技术与社会之间的关系。
本框架通过整合技术中介理论、责任伦理学和技术权力理论,构建了一个全面分析人机协同的理论框架,试图清晰揭示技术、伦理与权力之间的交互关系。技术中介理论、责任伦理学与技术权力理论相互支撑:前者提供理解基础,中者设定道德约束,后者解析权力格局。三者交织作用,最终整合为一个系统性框架,深化了我们剖析人机协同中伦理挑战与权力博弈的能力。
四、伦理框架的转变
(一)责任分配
在工具伦理范式下,技术系统的责任归属遵循“设计者—使用者”的线性逻辑。正如约纳斯责任伦理学所强调的,人类作为技术创造者必须对其工具性后果承担全部责任。但智能系统的涌现特性打破了这种简单因果链。这种复杂性印证了技术中介理论的预见:当技术通过“诠释关系”深度介入认知过程时,人类主体性的边界开始消失,从而形成了责任分布的灰色地带,导致归责结构由简单线性到复杂网状共责的转变。“网状共责”指在人机协同系统中,责任从线性分配变为分布在多个代理(人类和技术系统)之间,形成复杂的责任网络。
这种转变在司法领域表现尤为显著。在2016年美国威斯康星州法院审理的State v. Loomis案中,法院讨论了COMPAS算法的透明度问题。法院承认,由于商业秘密保护,被告人难以了解算法评分的具体计算方法,但最终未将算法透明度作为责任认定的要件[18]。此案揭示出人机协同中的责任悖论:当算法决策具有统计学意义上的“群体公平性”却导致个案不公时,既不能归咎于开发者(因其遵循技术规范),也难以问责使用者(因其缺乏专业判断能力)。此时,技术权力理论揭示的深层矛盾开始显现——掌握算法解释权的科技企业实质上主导着责任分配的话语权,形成“权力—责任”的结构性失衡。这种模糊性源于技术本身的复杂性,也体现了传统责任概念在面对机器自主性时的局限性。这正是智能时代伦理问责机制需要转变的原因。
(二)信任机制
传统人机交互中的信任以工具效能为核心,依赖于系统的可靠性与可预测性。然而,当机器角色从工具转向协作伙伴时,伦理框架下的信任构建正经历根本性重构——它已发展为一种融合认知协同(意图理解与能力适配)与价值共识(目标与伦理原则对齐)的复杂动态系统。
Aharoni等人的研究表明:他们对道德图灵测试的创新改良(m-MTT)揭示,人类对AI系统的信任展现出复杂的认知结构。研究发现,受试者对AI道德推理能力的评价在几乎所有维度(如逻辑一致性、结果公平性)均显著优于人类。然而,这种信任存在深刻的内在矛盾:尽管认可AI在工具性道德能力上的优越性,参与者仍能清晰区分AI与人类的道德判断本质[19]。研究指出,人类对AI的信任呈现对技术能力的信任并未同步转化为对其道德意图的接纳。这一现象揭示了人们信任智能系统时,既会理性评估它的能力,也会受到直觉感知的影响。这正体现了人类与计算机合作的必要性。正如Licklider所提出的,人类应与计算机建立紧密的协作关系,形成一种“共生体”,以显著提升人类的智力表现。他强调,这种结合关系超越了计算机单纯执行预设程序的能力,目标是通过计算机实时地辅助人类的创造性思考和决策过程。Licklider这一前瞻理念奠定了人机互动研究的基础,并在后来多个学术领域得到广泛应用[20][21]。
在传播学的语境中,“共生体”被赋予了更丰富的内涵与应用维度。该概念通常聚焦于人类与先进技术系统(如人工智能和机器人系统)之间的动态互动,强调技术通过扩展和增强人类认知功能,进而优化信息传播、内容生成以及协作沟通的过程。
在此背景下,Csaba Veres提出的“强认知共生”概念为我们提供了一个加深理解的视角。他认为,人类与AI系统应形成一种相互依赖的关系,而非单纯的合作。强认知共生强调人类与AI在认知层面的深度融合,AI不仅作为工具支持人类决策,还在道德和伦理等复杂领域与人类思维紧密结合。然而,这种融合也可能导致人类过度依赖AI,从而削弱自身的批判性思维和独立判断能力,形成一种难以摆脱的依赖模式[22]。因此,强认知共生不仅为设计认知计算系统开辟了新思路,还提醒我们在追求技术进步时须警惕其潜在风险。
这种风险在技术哲学上的根源,可以归结为“具身认知”在其中发挥的关键作用。生成式人工智能(如语言模型)通过与用户的互动实现了某种意义上的“认知具身化”,这本质上重构了人对技术的信任方式。这种转变带来双重隐患:其一是技术层面,过度信任可能诱发自动化偏见——即过度依赖自动化系统的倾向,削弱人的判断能力。其二是伦理层面,AI通过拟人化互动模糊了自身作为技术系统的本质边界,这极易引发“道德物化”问题——人们可能错误地将本应由人类承担的伦理责任,推卸给那些本身不具备道德理解和抉择能力的算法系统。
(三)主体性重构
伦理框架的转变,根源在于人类的主体性诉求与技术发展之间的矛盾和冲突。在技术中介理论的视角下,这种矛盾和冲突实际上是人类认知方式的重新构建过程。当人类将技术设备融入自己的思维和行为当中时,既可能拓展自己的能力边界,也可能导致主体性的异化,比如技术依赖所引发的认知能力退化[23]。要解决这种矛盾,需要培养“反思性具身”的能力,也就是通过批判性思维训练,在技术内化过程中保持主体自主性的能力,用以平衡技术依赖引发的认知异化问题。通过训练使人类在技术内化的过程中保持自主性,而批判性思维训练能够帮助人们减少对技术工具的过度依赖,从而在技术环境中重新确立自己的主体性。
学术伦理的变革是技术具身化在主体性上引发重构的具体体现之一。以往的学术伦理主要体现在写作和创意层面的抄袭剽窃,以及涉及人类实验者(实验或问卷调查等)的伦理审查。而伴随着人工智能的快速发展,许多SCI头部期刊出版商都在其官网重点申明了关于使用人工智能的伦理规范。以SAGE出版商为例,AI辅助写作被认作是可以接受的。AI辅助写作变得越来越普遍,是一项能够提供改进或提升作品建议的人工智能工具(例如,用于改进语言、语法或结构的工具),无须作者进行伦理申明。但作者使用可生成内容的人工智能工具(例如生成参考文献、文本、图像或任何其他形式的内容)时,必须申明其使用情况,以便编辑团队评估生成的内容。因此,学术界不得不重新审视和调整传统的伦理标准。这种关系不仅表现为技术为学术研究提供了新的工具和可能性,还引发了关于这些工具如何使用、如何影响学术诚信和原创性的伦理讨论。这些新兴问题表明,学术伦理正在从传统的抄袭剽窃和人类实验审查,扩展到更广泛的技术伦理和透明度议题。
当前伦理框架的转变,实质上是人类文明面对技术具身化浪潮的适应性进化。从工具伦理到伙伴伦理的范式转换,既包含技术中介引发的认知挑战,也承载着责任伦理与权力结构的重构需求。
五、权力结构的重新分配
本节将基于前文提到的技术权力理论,结合社会学视角,系统分析人机协同中的权力动态变化,具体包括决策博弈、控制权转移以及智能技术对职业分工、社会阶层与全球权力格局的重塑。通过从微观、中观到宏观的递进分析(见表1),本文旨在揭示技术如何成为权力再分配的媒介,并探讨其对社会结构的深远影响。
表1 权力层级的特征
(一)微观层面:决策博弈与控制权转移
在微观层面,人机协同中的权力动态主要体现在人类与机器在决策过程中的博弈以及技术系统对人类行为的潜在支配。
1.决策博弈。随着智能系统自主性的增强,机器在决策中的作用逐渐从辅助转向主动参与,甚至在特定情境下能够独立决策。这一变化导致了人类与机器在决策权上的新型互动关系,既包含决策冲突也包含协作。例如,在自动驾驶汽车中,智能系统能够实时分析路况并做出驾驶决策,但在紧急情况下,人类驾驶员与系统之间的决策权分配成为关键问题。技术中介理论指出,技术通过“具身关系”成为人类认知和行动的延伸,从而重塑了决策过程的权力结构。在这种“诠释关系”中,智能系统不仅提供信息,还主动参与决策,模糊了人类主体性的边界。
2.控制权转移。智能技术的自主性增强不仅影响决策权,还可能导致人类对某些行为的控制权减弱。福柯的技术权力理论将这种控制权转移视为技术对人类行为的“规训”。技术系统通过持续监控和调整用户行为,形成了新型的权力结构,使用户在无意识中适应技术的逻辑。智能技术不仅仅是执行预设的功能,它还会根据用户的习惯和数据分析来学习和优化其行为。比如,智能恒温器可能会根据你平时的作息时间自动调整温度,甚至在你还未察觉需求时就预先改变设置。这种持续的监控和调整让用户逐渐习惯技术的主导,减少了主动决策的机会。久而久之,用户的日常生活模式可能被技术重塑,习惯于系统决定的温度而不再手动调节,甚至对机器设定的偏好产生依赖感。这种无意识的适应不仅体现为行为上的顺从,还可能改变用户对自身需求的认知,逐渐形成一种隐性的技术依赖关系。
隐私保护问题与控制权转移密切相关。智能系统通过数据采集和行为预测,持续挑战用户的认知边界,用户在享受个性化服务的同时,丧失了对个人数据和行为模式的控制权[24]。例如,推荐算法通过分析用户习惯塑造其信息偏好,通过大数据规训了用户的喜好,改变了用户的兴趣方向。这是一种权力的失衡,支配者与被支配者关系的倒置,这种权力失衡呼应了技术权力理论的观点,即技术通过算法治理掌握了更大的权力。这种挑战的本质在于,人类与机器之间的权力关系正在从单向控制转向双向协商,这无疑将重塑我们对权威的理解。
(二)中观层面
1.职业分工的重塑。机械时代和信息时代仅是削弱传统职业的技能,而智能技术的引入促使某些传统职业消失或转型,但同时也创造了新的职业机会。例如,在制造业中,自动化技术取代了部分重复性劳动,但也创造了技术维护、数据分析和系统优化等新岗位。这种职业结构的重塑反映了技术作为权力再分配媒介的作用,技术技能成为区分社会阶层的重要标志。掌握技术技能的劳动者获得了更高的职业地位和经济回报,而缺乏相关技能的群体则面临失业或职业降级的风险。这种变化反映了从机械时代到智能时代的技术发展历程。技术始终在重塑劳动力市场。这不仅改变了职业分工,还对社会流动性和阶层结构产生了深远影响。
2.组织权力结构的演变。智能系统正在企业和机构里重塑权力结构,让数据驱动的决策逐渐取代人工判断,削弱了传统管理者的权威,提升了技术专家和数据科学家的影响力。以金融业为例:算法交易系统能即时分析市场并执行交易,传统交易员的角色被弱化,算法工程师则成为核心角色。这种权力转移印证了“技术专家治权”[25]理论:技术专家借由掌控关键技术,成为组织内部的新权力中心。
同时,智能技术还推动着“去中心化”,改变组织结构。比如区块链应用于供应链管理时,实现了信息透明共享,降低了对中央管理层的依赖。然而,去中心化也可能催生新的权力集中——技术平台运营商凭借对基础设施的控制,掌握了更大的话语权。这再次呼应了技术权力理论:技术不仅是工具,更在根本上改变着权力的布局。
(三)宏观层面
1.社会阶层的重构。智能技术的普及加剧了社会不平等现象。掌握技术资源和技能的群体能够获得更多机会和资源,而缺乏相关技能的群体则被边缘化,导致“数字鸿沟”的现象进一步加深。对于连基本网络接入都不太熟悉的群体,使用智能AI简直就是天方夜谭;与此同时,发达地区的群体已经在利用智能技术生产新产品或获取深度信息了。这种技术引发的不平等进一步固化了社会阶层结构,与职业分工变化共同构成了社会分化的新趋势。
而且,智能技术通过自动化减少了对低技能劳动力的需求,导致失业率上升和社会不稳定。劳动异化在智能时代进一步加剧,技术不仅剥夺了工人的技能,还通过算法治理重塑了社会权威。例如,零工经济中的外卖骑手受算法调度支配,其劳动过程完全由技术系统控制。这种现象体现了技术权力理论中的“技术—资本复合体”,即技术与资本结合加剧了社会阶层分化。
2.全球权力格局的重塑。在全球范围内,智能技术的发展和应用不均衡,导致发达国家与发展中国家之间的权力差距扩大。发达国家凭借技术优势,掌控了全球技术标准和知识产权,进一步巩固了其经济和政治霸权。例如,美国在人工智能领域的领先地位,使其在全球科技竞争中占据主导地位,而发展中国家则面临技术依赖和主权削弱的风险。同时,跨国科技公司通过控制核心技术,成为全球权力结构中的新角色。例如,谷歌、亚马逊等科技巨头通过数据垄断和平台经济,影响着全球信息流动和经济活动,其权力甚至超越了某些国家的政府,这是技术帝国主义的典型表现。技术帝国主义是指拥有先进技术的国家或跨国公司通过垄断核心技术、数据和平台,对全球经济、文化和政治施加深远影响的现象,其形式类似于传统帝国主义,但更加隐蔽且以技术为主要手段[26]。这种现象与技术通过算法治理重塑社会权威密切相关,形成了新的权力结构,技术通过“规训”机制重塑了全球权力格局。
而且,智能技术还通过“数字殖民”影响全球文化,例如,社交媒体平台通过算法推荐塑造用户认知,西方文化通过技术媒介渗透到发展中国家,削弱了本土文化的自主性。“数字殖民”被定义为一种由大型技术公司通过其产品和服务主导的现象[27]。这种行为被视为一种殖民形式,因为它强加了某些语言和文化价值观,同时排除了其他语言和文化。
综上所述,人机协同中的权力结构重构是一个多层次、动态演变的过程。从微观层面的决策博弈和控制权转移,到中观层面的职业分工和组织权力结构演变,再到宏观层面的社会阶层和全球权力格局重塑,智能技术在各个层面都扮演了权力再分配的媒介角色。然而,权力重构并非单向的技术决定论过程,人类主体性在这一过程中仍发挥着关键作用。
六、结论与展望
本文通过对人机协同历史演变与理论框架的深入分析,揭示了技术在重塑人类认知、社会结构及权力关系中的核心作用。研究表明,人机协同不仅是技术革新的体现,更是一种涉及伦理与社会变革的复杂过程。随着智能技术的持续发展,人机关系将进一步深化,伴随而来的伦理困境与权力博弈将愈发突出[28]。未来研究需聚焦于在技术快速演进的背景下,构建适应性的伦理规范与权力平衡机制,以应对主体性重构、责任分配及社会不平等的挑战。同时,跨学科与国际合作将成为推动人机协同健康发展的重要路径,确保技术进步能够服务于人类福祉与社会可持续发展的目标。
【本文为“研究阐释党的十九届四中全会精神”国家社会科学基金重大项目“建立全媒体传播体系研究”(批准号:20ZDA057)成果】
参考文献:
[1]刘瑶瑶,梁永霞,李正风.生成式人工智能与科研伦理:变革、挑战与展望[J].科学观察,2024,19(4):1-8.
[2]方兴东,王奔,钟祥铭.无尽的前沿:2024年智能传播研究综述——从人类传播走向人机融合传播的知识探索与边界拓展[J].青年记者,2025(01):35-43+82.
[3]刘德寰,朱琦.颠覆与重塑:下一代人工智能的传播学意义[J].新闻爱好者,2023(09):4-10.
[4]马克思.资本论:第一卷[M].北京:人民出版社,2004: 483-535.
[5] Héder M. AI and the resurrection of technological determinism[J]. Információs Társadalom: Társadalomtudományi Folyóirat, 2021, 21(2):119-130.
[6]郭栋.模拟真实、权力让渡与镜像困境:生成式平台嵌入新闻生产的三重逻辑[J].中国编辑,2024(07):36-42.
[7]邓桂英,郝康云.生成式AI对新闻生产主体的重塑及其伦理审视[J].湖南科技大学学报(社会科学版),2025,28(1):110-116.
[8]周午鹏.技术与身体:对“技术具身”的现象学反思[J].浙江社会科学,2019(08):98-105+158.
[9] Ihde D.Technology and the Lifeworld: From Garden to Earth[M]. Bloomington:Indiana University Press,1990: 72-85.
[10] Verbeek P P.What Things Do: Philosophical Reflections on Technology, Agency, and Design[M]. University Park: Pennsylvania State University Press, 2005: 120-135.
[11] Varela D T. Artificial intelligence law through the lens of michel foucault: Biopower, surveillance, and the reconfiguration of legal normativity[J]. Open Journal of Social Sciences, 2024, 12(12): 189-201.
[12] Chen T, Tang Z. Wealth distribution and class reconstruction in the context of artificial intelligence[J]. Journal of World Economy, 2025, 4(2): 30-36.
[13] Jonas H.The Imperative of Responsibility: In Search of An Ethics for the Technological Age[M]. Chicago: University of Chicago Press, 1984: 45-60.
[14] Stahl B C. Ethical issues of AI[J]. Artificial Intelligence for a better future: An ecosystem perspective on the ethics of AI and emerging digital technologies, 2021: 35-53.
[15] Capodivacca S, Giacomini G. Discipline and power in the digital age: Critical reflections from foucault's thought[J]. Foucault Studies, 2024, 36(1): 227-251.
[16] Foucault M.Discipline and Punish: The Birth of the Prison[M]. New York: Vintage Books, 1977: 200-215.
[17]常静,范海潮.掌控的假象:数字媒体时代隐私主体性价值困境与回归路径[J].教育传媒研究,2024(04):74-80.
[18]陈慧君.算法辅助量刑的风险成因与规范进路——以美国实践争议为切入点[J].青少年犯罪问题,2023(02):45-59.
[19] Aharoni E, Fernandes S, Brady D J, et al. Attributions toward artificial agents in a modified moral turing Test[J]. Scientific reports, 2024, 14(1): 8458.
[20] Sandini G, Mohan V, Sciutti A, et al. Social cognition for human-robot symbiosis—challenges and building blocks[J]. Frontiers in neurorobotics, 2018(12): 34.
[21] Licklider J C R. Man-computer symbiosis[J]. IRE transactions on human factors in electronics, 1960 (1): 4-11.
[22] Veres C. Strong cognitive symbiosis: Cognitive computing for humans[J]. Big data and cognitive computing, 20171(1): 6.
[23]刘德寰,程馨仪.工具依赖的认知风险——ChatGPT工具性与创造性迷思[J].青年记者,2024(03):17-22.
[24]刘晗,黄梦宇.人机互动中的情感辨析:表象、风险与破解[J/OL].青年记者,1-6[2025-06-07].https://doi.org/10.15997/j.cnki.qnjz.20250515.003.
[25]兰立山.技术专家制的历史演进:从政治乌托邦到治理体制[J].东北大学学报(社会科学版),2023,25(3):8-15.
[26] Jabrayilov M. Advancement of humanity from technological imperialism to the stage of technical singularity[J]. Akademik Tarih ve Dü?ünce Dergisi, 2023, 10(2): 193-205.
[27] Brinklow N T. Indigenous language technologies: Anti-colonial oases in a colonizing (digital) world[J]. WINHEC: International Journal of Indigenous Education Scholarship,2021 (01): 239-266.
[28]赵秀丽,周敏.数智时代下的风险升级与治理路径——2024年风险传播研究综述[J].教育传媒研究,2025(01):26-31.
本文引用格式参考:
张涵,刘德寰.从工具到伙伴:人机协同的伦理转变与权力重构[J].青年记者,2025(07):5-11.
责任编辑:焦力