首页
学习
活动
专区
圈层
工具
发布

青记独家|张帆 赵竟瑗:人机协同内容生产的伦理分类治理框架与工具箱构建

以下文章来源于青年记者杂志,作者张帆赵竟瑗

导  读

本文基于资源依赖关系与人机协同模式,聚焦人机协同内容生产中的伦理风险问题,依据“风险识别—目标设定—工具适配”的分析逻辑,探寻伦理分类治理框架和治理工具箱。

一、引言

作为数智时代一种全新的内容生产工具和生产方式,人工智能技术已深度介入内容生产的全流程,重构着数字内容生产体系。2022年5月印发的《关于推进实施国家文化数字化战略的意见》明确提出,我国将在“十四五”时期末基本建成文化数字化基础设施和服务平台,2035年建成国家文化大数据体系。基于深度学习与海量数据训练,人工智能实现了文本、图像、音视频等多模态内容的高效规模化生产,在新闻、广告、影视、教育等领域崭露头角。与传统内容生产模式相比,AIGC具有海量数据、算法驱动流程、计算能力支持、实时交互性、沉浸式体验、模式多样性等特点[1]。

当前,技术迭代推动内容生产范式发生结构性转变,生产主体从单一人类主导转向人机协同共生。这一转变不仅实现了生产效能的跨越式提升,更引发内容创作生态系统的深刻变革。然而,既有研究表明,人机协同内容生产领域暴露出算法偏见、版权侵犯、大模型幻觉等伦理风险。随着AI技术的快速发展和广泛应用,传统同质单一的治理方式已难以应对当前复杂多变的内容生态系统,亟待构建更具差异化和响应性的新型治理范式。本文基于资源依赖关系与人机协同模式,聚焦人机协同内容生产中的伦理风险问题,依据“风险识别—目标设定—工具适配”的分析逻辑,探寻伦理分类治理框架和治理工具箱。本研究提出的分类治理框架,不仅为突破传统伦理治理范式提供创新分析工具,也为构建负责任的人机协同内容生产生态提供可操作性的技术路径。

二、人机协同内容生产中的

资源依赖关系

协调理论最早是由Crowston和Malone于1994年提出,其核心聚焦于对组织活动间依赖关系的管理,以实现资源的有效配置与任务的顺利完成[2]。根据该理论,资源被定义为任务使用或创造的任何东西[3]。在人机交互过程中,人类主体展现认知属性优势,擅长利用知识和认知能力来决策,而机器主体则体现感知属性特征,凭借信息处理和计算能力迅速发现问题。人机属性可看作资源[4],不同属性的人和机器主体贡献其资源以完成协作任务。在协作工作空间中,资源之间会形成不同类型的依赖关系,这些关系可以概括为流型[3]、整合型[5]和共享型[6]三种模式。基于此理论框架,本研究将人机协同内容生产中的交互关系系统归类为上述三种依赖关系模式,并据此展开对不同依赖关系下的伦理风险分析。

(一)流型依赖关系

流型依赖关系是指一种资源的产出为另一种资源提供输入支持时形成的资源依赖关系。在此关系中,人机在序列化的工作流中协同互动,将内容创作过程解构为具有严格时序约束的离散化生产模块。在人机协同内容生产中,前驱模块的输出成果构成后继模块的必要输入条件,由此形成不可逆的线性生产链条。以AIGC视频制作为例,人类创作者首先根据选题设定与创意策划向大模型输入指令,机器再依据指令生成视频脚本并产出视觉内容,人类创作者还需要对机器生成内容进行审核校对与迭代优化,最后将调整后的内容合成输出,形成完整的视频作品。这一工作流呈现出“资源A生成资源B,资源B驱动资源C生成”的流型依赖关系模式。

(二)整合型依赖关系

整合型依赖关系是指当多种资源共同为某种资源提供输入支持时形成的资源间依赖关系[7]。在人机协同内容生产中,这种依赖关系反映了人机分布式生成与集中式整合相结合的创作范式。其运作机制可分解为任务解构阶段和资源整合阶段,前者将复杂创作任务模块化为可由不同主体并行处理的子任务,后者依据任务和规则对前期输出的相关资源进行系统性整合。例如,在跨模态内容生成中,文本生成模型、图像生成模型、音频生成模型、视频生成模型分别产出不同模态内容,然后由人或机器进行整合,完成多模态融合。通常由人类创作者对具有不确定性的内容资源进行整合,而由机器完成对惯例任务的简单整合。

(三)共享型依赖关系

共享型依赖关系是指当多种资源共享某种资源提供的输入时形成的资源依赖关系[8]。它反映了在人机协同内容生产中,同一资源被多个人或机器进行处理的情景。从认知维度来看,当人类主体具备较高的知识异质性时,其差异化的知识结构会促使他们对同一资源形成多维度的认知解读,从而产生多样化的知识观点。从技术维度而言,具备差异化功能模块的机器主体会基于其算法特性和任务目标,对同一资源实施不同的处理行为。比如,新一代AI大模型智能体开发平台“扣子”(Coze)拥有丰富工具集和强大模型整合能力,既有涵盖新闻阅读、旅行规划、工作效率提升等多个领域超过100种不同的插件,也有包括豆包、智谱清言、通义千问在内的大模型。用户如果创建“小红书热搜话题创作助手”智能体,会通过影刀RPA采集小红书热搜榜数据,“小红书文章信息提取”插件解析图片、视频地址,利用“语音转文本”插件实现音频转为文字和“OCR”插件实现图片文字识别,再让大模型自动生成相关优质内容,最后将生成的文章智能推送至微信,打造内容创作闭环。在共享型依赖关系中,多个智能体通过协同处理同一资源实现对复杂任务的拆解和执行。

三、治理对象的分类研判及伦理风险

在人机协同内容生产流程中,基于人机属性的互补会形成流型、整合型、共享型三种主要依赖关系。这种互补依赖关系催生两种稳定的人机协同模式,即人辅助机器和机器辅助人。当前,传统伦理治理范式存在显著的适配性缺陷,亟待建立分类治理框架,通过精准识别不同依赖关系下的伦理风险,优化治理工具配置效率,最终实现风险防控效能的最大化。基于此,本文以资源依赖关系和人机协同模式为两个具体测量标准,构建人机协同内容生产的伦理风险分类治理框架(如表1)。

表1 人机协同内容生产的伦理分类治理框架

(一)机器辅助人协同模式下的伦理风险

在机器辅助人的协同模式下,人类主体凭借其异质化的知识结构和多维认知能力,能够对复杂内容创作任务进行系统性分析和综合性评估,并做出最优决策,从而确保在内容生产过程中的主导地位。与此同时,机器主体通过算法感知和结构化数据处理,提供精准的信息处理和计算支持,辅助任务完成。

1.流型资源依赖关系下的内容失真与隐私侵犯

在流型依赖关系中,“接力式”的人机协同会存在内容失实风险,数据处理流程的中断或异常会导致数据完整性的破坏,出现数据不一致或逻辑错误。这种数据缺陷将沿着序列化工作流传导至下游系统,致使生成内容偏离客观事实。当失实内容传播扩散时,不仅会误导用户决策,更会削弱内容生态系统的可信度。同时,数据流动的过程中也会存在隐私侵犯风险。在数据传输与存储环节,若缺乏《通用数据保护条例》或《个人信息保护法》要求的安全防护措施,敏感数据将面临未授权访问或泄露风险。此类事件违反数据最小化原则和保密义务,构成对用户隐私权的实质性侵害。

2.整合型资源依赖关系下的权利侵犯与知识误导

在整合型依赖关系中,须高度警惕版权侵权、隐私侵犯与知识误导三大伦理风险。在资源整合过程中,若对原始材料的引用、改编或重组未获得著作权人授权,或未遵守相关版权法规,则构成侵权行为。此类行为不仅违反知识产权保护的法律法规,还可能引发民事赔偿或行政处罚。此外,隐私权同样面临严峻挑战。当整合过程涉及个人数据处理时,若未能采取符合《个人信息保护法》要求的匿名化、去标识化等技术措施,或超出必要范围收集使用敏感信息,将直接侵害数据主体的隐私权,导致合规性风险及声誉损失。在知识误导方面,由于多源信息的异构性和质量差异,未经严格验证的整合内容可能包含事实性错误或片面结论。这种信息失真会通过传播链放大认知偏差,最终影响公众决策,损害知识传播系统的公信力。

3.共享型资源依赖关系下的管理失范与数据矛盾

在共享型依赖关系中,伦理风险往往与权限管理失范、数据一致性危机及系统安全问题复杂勾连。在资源共享过程中,若缺乏明确的访问控制规定,将导致资源使用边界模糊。这种权限失控状态不仅违反最小特权原则,更会直接侵害资源所有者的财产权和自主决策权,构成对数字伦理中“尊重自主性”原则的破坏。当多主体并发操作共享资源时,由于缺少原子性和隔离性的事务管理机制,将产生数据版本冲突与状态不一致的问题。这种技术缺陷会转化为认知伦理问题,即用户基于矛盾信息做出的决策可能产生连锁性负面后果。同时,安全防护体系构建的不足,会将伦理风险推至法律规制的边界,使资源面临中间人攻击、数据篡改等威胁。这不仅违反保密性伦理要求,更可能触发《网络安全法》规定的法律责任。

(二)人辅助机器协同模式下的伦理风险

随着人工智能的发展,机器能在内容生产中承担更复杂的任务,凭借其持续工作、数据感知和快速计算能力,可在高结构化任务中成为主导者,而人则利用知识和认知优势担任辅助者。

1.流型资源依赖关系下的归责模糊与价值异化

在内容生产链条中,机器生成的初始内容若存在事实性错误或隐性偏见,人类主体的后续编辑行为可能形成责任遮蔽效应。由于错误溯源的技术障碍和法律归责的适用困境等原因,难以清楚界定责任主体进行归责。此外,由于训练数据中的结构性偏见,机器生成内容可能存在偏见,后续人类主体在处理内容时也可能存在选择性注意等强化偏见机制,加剧社会不公平。同时,人类过度依赖机器输出的工作模式也会引发人类主体创造性思维和判断能力的双重异化。这种异化本质上是工具理性对价值理性的殖民化过程。

2.整合型资源依赖关系下的版权争议与信任危机

AI在整合外部资源时,在输入端若未规范标注来源或处理授权,则极易侵犯原创版权,引发法律争议。在输出端,AI生成内容的独创性判定标准缺失,导致权属认定陷入困境。在社会公平风险方面,AI整合过程依赖数据驱动,若训练集覆盖不均,忽略少数群体,则输出结果可能强化结构性歧视,导致资源分配不公,加剧社会不平等。而这种技术对社会公平的侵蚀又与责任机制的失效形成恶性循环。人类辅助机器内容生产时,极易将AI输出视为“客观依据”,忽略核查责任。同时,AI黑箱决策机制使整合逻辑不可追溯,削弱公众信任。

3.共享型资源依赖关系下的数字鸿沟和内容趋同

数字鸿沟所带来的公平危机正在被放大。专业团队可通过各类参数的精细化调试实现模型的深度定制,而普通用户则只能使用模型的基础功能,创作被限定在预设风格范围内。这种能力断层导致不同主体使用同一资源的产出效果千差万别。当共享机制催生“技术强者愈强、弱者愈弱”的马太效应时,社会公平性将面临深层挑战。同时,多主体对同一资源的使用也会带来同质化风险,侵蚀多元价值体系。当多元主体基于同一套共享模型进行创作时,模型预设的语义表征空间与风格化参数会形成隐性创作框架,导致不同主体的输出内容趋同,抑制了内容生态多样性,对文化发展产生负面影响。

四、治理工具箱的匹配构建

如表2所示,治理工具箱的构建遵循双重目标导向,即功能性目标主要涵盖合规性、真实性和隐私性等基础性要求,价值性目标则聚焦于公平性、导向性和文化多样性等更高层次的治理诉求[9]。

表2 人机协同内容生产的伦理治理工具箱

(一)功能性目标下的政策规范与技术升级

从主体维度审视,伦理问题主要源于人类技术应用的失范和技术自身的局限性。因此,治理工具箱也须从双轨推进。

1.顶层设计:规范机器辅助人模式下技术应用的边界与权责

在机器辅助人的协同模式下,核心是明确人类主体的权利与义务,确保技术应用服务于内容生态优化与人类发展。首先,人的技术使用行为必须具备合规性。人类主体不得利用技术刻意制造并传播虚假信息,侵犯他人隐私。《新一代人工智能治理原则——发展负责任的人工智能》明确反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为;《新一代人工智能伦理规范》(以下简称《伦理规范》)的第五章系统规定了人工智能产品及服务使用规范,防范认知偏差或操作不当导致的技术滥用,避免非故意行为损害他人合法权益,同时严禁违规使用。

此外,人类用户还须着力提升数字素养。《伦理规范》要求技术使用者构建系统化认知体系,精准界定技术的适用边界与功能范畴,并对其潜在风险及负面效应进行充分评估。事实上,随着技术的迭代演进,人类主体更须强化自身能力建设,避免因认知局限或能力不足引发伦理风险,从而切实保障内容输出的有效性,坚守内容的真实性与客观性。

对于隐私侵犯问题,需要进行知情同意授权和明确隐私数据的应用范围。一方面,相应部门应建立标准化的知情同意授权流程,要求平台在采集用户隐私数据前,以清晰易懂的语言告知数据类型、使用目的及共享范围,确保用户在知情前提下自主作出授权决策,杜绝通过模糊表述、默认勾选以及强制同意等方式变相剥夺用户选择权;另一方面,相关部门须通过法规条令明确界定隐私数据的应用范围,禁止将生物特征、医疗记录等敏感数据用于非必要的内容生产环节。贯彻数据最小化使用原则,仅采集与特定任务直接相关的数据信息,且匿名化处理原始数据,保障用户的“被遗忘权”。例如,我国的《网络安全法》《数据安全法》《个人信息保护法》等法律法规具体规定了敏感数据的使用边界;欧盟的《人工智能法案》也建立了相应的风险防范机制,对高风险人工智能应用进行重点监管和严格的评估与审查[10],为人工智能的隐私安全和数据保护提供了法律保障。

2.技术升级:优化人辅助机器模式下的算法与数据

在人辅助机器的协同模式下,主要关注人工智能技术的开发设计与迭代升级。在技术开发设计上,要保障技术的正当性。在开发阶段,建立伦理前置审查机制,对算法目标函数进行多元价值校准,避免单一效率导向导致伦理风险。在数据训练阶段,确保数据合法合规利用,防止结构性偏见。在技术迭代上,须搭建“技术指标—社会影响”双维评估框架,不仅要验证功能升级的技术可行性,更要通过极端场景测试确保算法逻辑、数据质量与迭代方向符合社会伦理规范与法律要求。

在真实性提升上,通过提升训练数据质量、改进视觉感知模块、设计适配训练任务等,从数据侧、感知侧与训练侧等方面夯实大模型根基[11]。此外,要实现价值对齐,确保大模型的输出符合人类价值观。同时,引入外部监督机构,对大模型的性能、安全性、可靠性等方面进行评估和监督[12]。

隐私保护层面,需构建贯穿数据处理全生命周期的保护“围栏”。在数据采集环节,避免输入可识别特定自然人身份或涉及个人敏感状态、活动、偏好等信息。在模型训练环节,确保训练过程中不暴露原始信息中的隐私细节。在内容生成环节,实时扫描文本、图片、视频中的隐私字段及敏感内容,既保障人机协同的创作效率,又从算法与系统层面筑牢隐私保护防线。

(二)价值性目标下的主体把控与算法导向嵌入

人始终是内容生产的核心主体。内容产品承载着社会价值导向和意识形态属性,工具理性不可凌驾于价值理性之上。围绕价值性目标的伦理治理旨在稳固人的主体地位,推动技术为促进社会公平性和文化多样性服务。

1.主体把控:人类对AI技术开发应用的价值校准

人类对技术的开发应用需以促进社会公平正义为目标,契合社会对公平性的需求。我国《人工智能伦理治理标准化指南(2023版)》指出,人工智能活动应保障平等主体交往中的充分交流,在共识机制下合理分配风险,于社会组织中公平分配社会资源与利益,在集体及民族国家交往中尊重不同文化习俗。在公平性目标实现上,一方面,须弥合数字鸿沟,既要坚守技术应用的公共价值,又要通过制度设计保障权益公平,破除技术变革引发的社会分层与不公,让社会成员公平享受技术进步的红利[13];另一方面,要规避算法偏见导致的歧视性问题。我国出台的《生成式人工智能服务管理暂行办法》、《新一代人工智能伦理规范》,要求在算法设计、数据训练、模型生成及服务上防范算法偏见与歧视,以实现AI系统的普惠性、公平性与非歧视性。欧盟的《人工智能法案》明确提出反歧视条款,禁止含歧视性的AI应用。美国的《负责任的人工智能治理法案》明确禁止开发或部署基于种族、性别等特征,且可能实质性扭曲个人行为并造成重大伤害的AI系统。

价值导向层面的治理核心在于确立人的主体性和价值理性的主导地位。《生成式人工智能服务管理暂行办法》提出,生成式人工智能服务的提供与使用须遵守法律法规,尊重社会公德、伦理道德并坚守社会主义核心价值观。为此,人类主体须对内容生产全流程严格把关:在数据库管理环节,严格清理问题数据,从源头把控新数据库建设,确保数据资源真实可靠、导向正确,既要杜绝意识形态风险,又要契合社会核心价值观;在传播监管环节,平台须对违背正确价值观的内容启动拦截修正机制,确保内容与社会价值导向一致。

在推进文化多样化实践中,需从技术设计与政策引导双轨切入。在算法规则层面,要鼓励开发者在算法规则设计中使AI具备主动检索并重组多元文化元素的能力,在大模型中预留差异化创作空间,使技术使用者能够突破模板风格约束,同时规避技术对文化的浅层次解码与机械化拼贴。在政策与资源配置维度,通过政策引导与资源配置,推动跨文化元素的AIGC项目孵化。在此模式下,AI作为高效的文化元素整合工具,可实时调用跨地域文化的数据库实现元素重组,而人类创作者则基于对文化内涵的深度理解,对生成内容进行价值筛选与创意升华,最终在人机协同中打破同质化壁垒,推动文化生态向多元共生演进。

2.规则重构:算法透明性与价值导向的嵌入

在机器主导的人机协作模式中,治理工具箱构建须聚焦三大要点:确保算法的透明性、在规则设计中嵌入价值导向、保障多元内容的可见度。

算法黑箱所引发的偏见和歧视问题,本质是一种社会不公。对此,最有效策略之一是提升算法透明度[14]。随着算法模型的日益复杂,提升算法模型的透明度和可解释性对AIGC的开发和应用至关重要,决定着AIGC系统能否保证其公平性、可信性和合规性[15]。在算法开发应用中,须开放训练智能系统的决策规则、方法和数据,以确保AI数据的透明收集、处理和存储,确保算法的可验证、公平和非歧视。

从技术哲学的角度看,“每一种工具都嵌入意识形态偏向”,即意识形态与价值导向渗透于技术运用全过程[16]。具体到AIGC生产领域,代码之间的逻辑分布和算法规则设计并非随意的,开发者需要在技术设计中赋予算法正确的价值导向。例如,可通过技术编码与架构设计实现人工智能系统的伦理规制[17][18]。具体而言,须首先构建人机协同内容生产的伦理框架,将监管原则转化为可计算的技术规范,并通过算法架构内化于人工智能系统本身,其中涉及的核心道德与法律规范可被直接植入算法设计与运行机制中,确保人工智能系统的运行模式符合既定的伦理规范,形成技术规制与伦理约束的协同治理。

为实现文化多样性,需要建立贯穿算法底层设计、模型架构开发和应用场景落地的全流程治理工具箱。在算法底层上,采用多源文化数据库的异构融合技术,结合生成对抗网络的参数改造方法,实现跨文化元素的非线性融合与均衡采样。在模型架构上,引入分层注意力机制解码文化语义,促使生成内容突破单一模式并保持文化特质差异度。在实践应用上,构建开发交互式编辑平台与强化学习系统,支持创作者对文化元素的“自主编辑”及AI自主探索文化创新组合。

五、伦理分类治理的全周期保障机制

人机协同内容生产的伦理治理需要建立全周期保障机制,具体包含三个关键环节:事前聚焦准入管理与风险评估,筑牢源头防线;事中强化协同规范与动态监控,及时化解协同风险;事后通过追责溯源与伦理修复,完善治理闭环。

(一)事前:准入管理与风险评估

借鉴美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》及生成式人工智能补充指引,采用“治理—映射—测量—管理”四阶段法[19],构建准入管理与风险评估机制。治理层面,成立AIGC伦理管理委员会并建立数据合规筛查体系,明确不同协作模式的管理权责;映射层面,制定风险预警清单,将流型、整合型、共享型模式的风险类型一一对应;测量层面,开发风险评估工具对伦理问题进行量化评估;管理层面,设定分级准入标准,通过技术审查与伦理评估对AIGC项目的伦理风险实施量化预判与纠错,从源头筑牢伦理治理防线,实现资源流动前的有效管理。

(二)事中:协同规范与动态监控

针对流型、整合型、共享型三种资源依赖关系,实施差异化协同规范与动态监控,确保协同流程的透明性与规范性。对于流型依赖的链式协作,建立实时数据检测系统,严格审核前序环节输出数据的合规性,确保各环节的数据流转透明。对于整合型资源依赖关系,构建多源数据协同监控体系,实时检测模型输出偏差,避免内容偏见的累积扩散。对于共享型资源依赖关系,降低技术使用门槛,促进资源平等分配,使多元主体均能共享技术发展红利,弥合数字鸿沟,推动社会公平目标落地。

(三)事后:追责溯源与伦理修复

针对流型依赖关系,应借助因果链分析工具,依托事前阶段的数据记录与伦理偏差定位开展分析。若伦理问题源于人类指令偏见,须追溯指令输入主体责任;若算法训练数据存在缺陷,则由技术提供方履行优化义务。针对整合型依赖关系,追责溯源须聚焦不同模型与数据输入的协同影响,依据各参与主体提供的数据规模及算法逻辑对最终内容的影响权重进行科学地责任归属划分。针对共享型依赖关系,须从两方面实施伦理修复:一方面,通过追溯共享资源使用记录,精准识别资源滥用行为;另一方面,溯源高度相似的内容片段及其来源主体,追踪具体参与整合的模型及其输出内容,并进行相应的优化调整,最终实现伦理治理的完整闭环。

六、总结与展望

本研究通过系统分析人工智能深度介入内容生产所引发的伦理问题,创新性地构建了基于资源依赖关系和人机协同模式的伦理分类治理框架。构建的治理工具箱基于功能性目标与价值性目标的双重导向,为行业实践提供了可操作的技术标准和价值基准。本文提出的全周期治理保障机制,通过将伦理要求嵌入内容生产的技术架构和业务流程,为构建负责任的人机协同内容生产生态提供了系统性解决方案。

本研究也存在一些问题和不足:第一,虽构建了人机协同内容生产的伦理分类治理框架,识别了多种伦理风险类型,但对于某些风险的细分程度仍显不足;第二,虽系统性构建了伦理治理工具箱,但当前的人工智能技术在某些方面仍存在局限性。这些技术瓶颈限制了伦理工具箱中某些工具的有效性,如提升算法透明度和可解释性的工具可能因技术不成熟而难以广泛应用。

未来研究应继续关注人机协同内容生产的伦理治理问题,深化精细化伦理风险分类体系构建,建立风险等级量化指标体系,深度嵌入敏捷治理思想,以应对快速变化和复杂性的伦理风险[20]。在技术迭代与社会适配中寻求动态平衡,进一步优化人机协同的数字内容生态治理范式,推动技术健康发展和社会良性进步。

【本文为国家社科基金项目“生成式人工智能赋能新闻生产的人机协同优化策略研究”(批准号:24CXW043)成果】

参考文献

[1] Jiang L, Zhang Y. Ethical risk and pathway of aIGC cross-modal content generation technology[J]. International Journal of Social Sciences and Humanities , 2024, 9(1): 85-99.

[2] Malone T W, Crowston K. The interdisciplinary study of coordination[J]. ACM Computing Surveys , 1994, 26(1): 87-119.

[3][8] Crowston K. A taxonomy of organizational dependencies and coordination mechanisms[M]. In Malone T W,Crowston K, Herman G A(Ed.).Organizing business knowledge:the MIT process handbook. Cambridge:MIT Press,2003:85-108.

[4] Malone T W. How human-computer 'Superminds' are redefining the future of work[J]. MIT Sloan management review, 2018, 59(4): 34-41.

[5] Malone T W. Modeling coordination in organizations and markets[J]. Management Science, 1987, 33(10): 1317-1332.

[6] Malone T W. Crowston K. The interdisciplinary study of coordination[J]. ACM Computing Surveys , 1994, 26(1): 87-119.

[7] Malone T W, Crowston K, Lee J, et al. Tools for inventing organizations: Toward a handbook of organizational processes[C]. IEEE Proceedings Second Workshop on Enabling Technologies-Infrastructure for Collaborative Enterprises. Morgantown, USA: IEEE, 2002:1-18.

[9]薛澜,贾开,赵静. 人工智能敏捷治理实践:分类监管思路与政策工具箱构建[J].中国行政管理,2024,40(3):99-110.

[10]宫玺涵,杨梓怡,李芊睿,等.生成式人工智能风险识别及对策[J].合作经济与科技,2025(11):174-176.

[11]李煦,朱睿,陈小磊,等.视觉语言大模型的幻觉综述:成因、评估与治理[J/OL].计算机研究与发展,2025,1-24.

[12]喻国明,金丽萍,刘佳颖.大语言模型下机器的幻觉与人机信任构建机制探讨[J].未来传播,2025(02):2-10.

[13]王敏芝,屈晓亮.智媒时代的数字鸿沟:议题聚焦、理论拓展与实践理性[J].传媒观察,2023(11):82-88.

[14] De Almeida P G R, dos Santos C D, Farias J S. Artificial intelligence regulation: A framework for governance[J]. Ethics and Information Technology, 2021, 23(3): 505-525.

[15] Zhang H, Bi K, Tian L. How artificial intelligence generated content can be effectively regulated: A technological governance framework based on algorithm, data, and computing power[C]. 24th Biennial Conference of the International Telecommunications Society (ITS). Seoul, Korea, 2024: 302520.

[16]田菊.“主流价值导向驾驭算法”的原理、模式与路径[J].科学技术哲学研究,2024,41(4):95-100.

[17] Ghosh A,Saini A, Barad H.Artificial intelligence in governance: Recent trends, risks, challenges, innovative frameworks and uture directions[J/OL]. AI & SOCIETY, 2025. https://doi.org/10.1007/s00146-025-02312-y.

[18] Taeihagh A. Governance of artificial intelligence[J]. Policy and society, 2021, 40(2): 137-157.

[19] AI N. Artificial intelligence risk management framework: Generative artificial intelli-gence profile[DB/OL].(2024-7-25)[2025-5-17]. https://pathologyinnovationcc.org/s/R8b_1722118549750.pdf.

[20]田丽,陈馨婕,许洁.基于“智能对抗”的生成式人工智能内容治理探究[J].青年记者,2024(11):74-78.

(张帆:湖北大学新闻传播学院教授、博士生导师;赵竟瑗:湖北大学新闻传播学院硕士研究生)

【文章刊于《青年记者》2025年第7期】

本文引用格式参考:

张帆,赵竟瑗.人机协同内容生产的伦理分类治理框架与工具箱构建[J].青年记者,2025(07):19-25.

人机协同的内容生产:

边界与伦理

在生成式人工智能技术迅猛发展的当下,媒体行业进入“混合智能时代”,传播实践进入从“机器辅助人类”到“人机协同传播”的新阶段。这一变革打破了人类与技术的传统边界,引发了关于责任归属、真实性维系及权力分配的深层伦理博弈,亟待从理论与实践层面厘清边界流变轨迹,构建适配的伦理治理框架。

张涵 刘德寰:从工具到伙伴:人机协同的伦理转变与权力重构

闫桥  陈昌凤:人机协同内容生产中的边界问题:何以建构、消融与重塑

编辑:小青

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OKx_LEFHKSunu2iwyOtmXU5g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券