网站公告: 星空体育·(StarSky Sports)官方网站
咨询热线

400-123-96856

THE LATEST INFORMATION

| 资讯中心 |

郭小平 郭瑞阳:新闻传播业的生成式星空体育app下载人工智能应用及其风险应对

时间:2024-09-05 14:06:56
  

  郭小平(华中科技大学新闻与信息传播学院副院长、教授);郭瑞阳(华中科技大学新闻与信息传播学院博士研究生)

  聚焦个人隐私与版权保护,警惕深度伪造滥用,探究“AI治理AI”新模式,坚持人本主义,是生成式人工智能风险治理的关键。

  人工智能的创新应用形塑社会互动模式。在信息传播、医疗、交通、教育等场景中,人工智能成为社会互动的代理,促使人与人的互动越来越多地转换机互动。智能技术重构新闻传播的业态和生态,深度嵌入信息获取和决策过程,影响公众的社会阐释框架。

  作为社会的信息传递基座,新闻传播业在接受人工智能技术赋能的同时,也成为人工智能风险生成、扩散和演变的关键场域。自2022年以来,人工智能的内容生成和交互水平取得突破性进展。人工智能聊天机器人程序ChatGPT、人工智能图片生成平台Midjourney和文生视频大模型Sora等生成式人工智能出现,掀起内容生产和信息消费热潮。生成式人工智能的数据训练、程序设计和生成结果应用等环节,也可能产生“被制造的风险”(manufactured risks),[1]涉及人机关系、深度伪造、产业变革等多个维度。

  人类历史从根本上是人与物、物与物纠缠的历史。[2]人与技术物的关系大致有具身关系、诠释关系、它异关系和背景关系四种,[3]技术物是身体认知的放大器,也是人类观察、理解和操纵世界的中介,可以作为它者或准它者与人类共存,也可以融为生活环境的一部分,潜移默化地发生作用。作为一类技术物的人工智能与人类展开长期的互动实践,新闻生产和传播实践就是其中之一。从数据处理到信息分发再到内容生成,人工智能成为新闻传播业的创新驱动力和生产力。

  无论是将人工智能视作“工具”还是“潜在的合作伙伴”,公众对它的存在已习以为常。人工智能发展和应用是基于不可见的基础设施支撑体系,包含计算、存储、网络硬件等硬件基础设施体系和多样化的机器学习框架、算法以及相关工具软件、PaaS平台、服务等软性基础设施体系。近年来,人工智能的研发致力提升人工智能与人类社会的适配性,沿着“类人”和“类物”两个方向使人工智能融入社会的过程“自然化”。[4]所谓的“类人”,是指不断丰富人工智能算法模型的情感和心理维度,如通过分析文字词频、音频文本中的声调语速、图像文本中的面部表情特征等推测情感类型。所谓的“类物”是将易于交互的人工智能物嵌入人类熟悉的场景,如家庭生活场景中的育儿机器人、养老护理机器人和智能音箱等。

  人工智能在不同场景中“类人”和“类物”的应用发展,也包括对传统信息生产流程的重构。继专业生产内容(PGC)和用户生产内容(UGC)后,人工智能生成内容(AI-Generated Content, AIGC)成为一种新型内容。作为一个复合型概念,人工智能生成内容“既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”[5]。而生成式人工智能(Generative Artificial Intelligence, GAI)是指通过复杂的算法和模型对大规模数据进行集中学习,具有“文本、图片、音频、视频等内容生成能力的模型及相关技术”[6],是“根据人类制定的规则训练而成的有立场、一定程度上受控的智能内容生成工具”[7]。在狭义上,人工智能生成内容是生成式人工智能参与生产的结果,但生成式人工智能更聚焦于技术、模型和工具。

  生成式人工智能可以完成多模态文本转换,还能模仿人类的不同情绪口吻来输出内容。目前,按照任务类型划分,传媒机构生成式人工智能的应用形态有写作机器人、数智记者和AI主播等。人工智能在灾害事件(地震和暴雨等)、天气预报、财经、体育等垂直领域的报道方面,具有明显的时效性优势。包含生成式人工智能在内的人工智能,将记者从转录、翻译、校对等流程性工作中解放出来。传媒机构希望利用智能工具提升生产力,放大人类记者在新闻深度和事实核查等方面的独特优势,发展解释性报道和建设性新闻,进而巩固行业边界。

  人工智能应用于平台型媒体,以场景化、个性化的智能算法分发满足用户需求。通过收集用户的个人信息数据和使用数据,智能算法分析总结出不同的用户画像,根据历史偏好、相似群体偏好以及社交关系进行推荐。同时,平台算根据用户的点击量、阅读时长、完播率、个性化设置等不断调整内容推荐模式。

  生成式人工智能实现跨平台内容聚合和分析,还能根据用户需求提炼总结出核心关键信息,产出定制化内容。因此,生成式人工智能有望发展成为“下一代网络入口”,[8]也将再次改变内容分发逻辑。

  人工智能丰富新闻呈现形式,推动“认知新闻”向“体验新闻”转变。面对新闻回避和新闻疲劳的双重挑战,新闻业转型的重要策略是进一步增加音视频形态的新闻数量,[9]以满足用户需求。新闻的数据可视化、碎片化、视频化等趋势,丰富了新闻阅读体验。2023年,安徽寒潮来袭时,大皖新闻的数智记者“小朱姐”迅速上镜播报,省略拍摄场地准备、妆造彩排等步骤,保障了新闻的时效性。川观新闻的数字记者矩阵包含20个真人记者的数字分身,可以充分发挥多线程播报的优势,提升内容生产效率。

  近期发布的Sora类文生视频模型,引发使用生成式人工智能进行时空模拟和时空再造的丰富想象。Sora虽然在新闻现场采集、新闻调查和信源核实等方面有缺陷,但能够帮助记者还原一些“难以重回的现场”或制作便于理解和传播的解释性影像,提升新闻覆盖率和受众参与度。

  未来,生成式人工智能和AR/VR等技术结合,将会以逼真的感官体验和自由设定,让用户沉浸式体验各类新闻场景。此外,生成式人工智能还能对新闻内容作出调整,以满足不同用户群体的阅读习惯偏好。新闻阅读程序“Artifact”,可以用不同的风格总结用户感兴趣的文章内容,将其改写成Z世代喜爱的风格或一系列便于在社交媒体传播的表情符号。智能社会与图像社会叠加,使世界更加趋于图像化、影像化。用户的认知模式也随之转变,从借助全面、客观、深度的信息进行“认知”转向习惯于通过影像和主观情感联想进行“体验”。

  虚假信息的生产传播是人类社会存在的长期问题之一。事实核查主体和技术变迁主要经历了三个阶段:传统的新闻事实核查;基于大数据、区块链等智能技术的事实核查;用AI治理AI的事实核查。

  一是传统的新闻事实核查。传统的事实核查依赖人力核实新闻信源与经过,主要由职业新闻从业者完成,所需时间和人力成本较高。

  二是基于大数据、区块链等智能技术的新闻事实核查。大数据和区块链技术出现后,人们能够通过爬梳并分析信息来源的账号特征、文本特征、传播路径特征等信息,开展数据管理、追踪和溯源,核实信息真实性。新冠疫情期间,社交媒体上混合着大量有关疫情扩散与治疗的信息,淹没了可信任的信息来源,影响公众的健康认知和决策,形成“信息疫情”。[10]大数据和区块链技术以分析高效、难篡改、易追踪等优势,为真实防疫信息的共享和传递提供技术支撑。

  三是用AI治理AI的新闻事实核查。人工智能推动事实核查进入新的发展阶段,各国传媒机构和科技公司逐步探索“AI治理AI”模式。国际事实核查网络(IFCN)等组织以及相关主题国际会议,推动全球事实核查创新运动的制度化发展。其中,机器作为行动者的角色受到重视。谷歌DeepMind团队和斯坦福大学研究人员开发的搜索增强事实评估器(Search-Augmented Factuality Evaluator, SAFE),可通过大型语言模型分解聊天机器人生成的文本,再分别核查其中所涉及的事实信息准确性。相较于文字文本的核查,音频检测工具的发展应用相对滞后。美国西北大学计算机科学教授苏夫拉曼尼(V.S. Subrahmanian)开展人工智能音频检测实验,测试了14种现有、免费且公开的音频深度伪造检测工具,结果却不尽如人意。尽管目前使用AI工具识别深度伪造内容的难度较大,但构建行动者网络、开展人机协同、“AI治理AI”仍是发展趋势。

  机器主体的参与给人类记者带来职业发展忧虑。生成式人工智能融入新闻生产场域的过程,不是简单的“技术使用”,而是人类行动者与非人类行动者间的交互、协商与磨合。[11]面对新技术的冲击,身处生产一线的记者和编辑能更加敏锐地捕捉到人机权力关系的变化与职业边界的流动。组织星空体育app下载、制度、文化变革往往会滞后于技术采纳,形成一段与技术发展不相匹配的转型阵痛期。因此,面对生成式人工智能嵌入导致的新闻生产工作常规重构、组织机制变革、新闻文化重塑,不少一线从业者表现出不同于机构管理层的怀疑和冷漠,甚至是抗拒和。[12]作为传播主体的机器改变了以人为主体的传播生态。记者与编辑要应对行业内外的双重压力,迎接包含机器生产者在内的多元主体的挑战。

  生成式人工智能及相关技术的发展带来高阶智能社会的迷思。ChatGPT和Sora等便于交互、面向公众的生成式人工智能出现,带动新的内容创作和消费方式流行。在Sora发布的女性漫步东京街头的视频中,人物在布满霓虹灯牌和广告牌的街头走动,五官和肢体动作都较为自然。尽管Sora生成视频中还存在着细节处理不够精细、自然规律和文化理解错位、叙事逻辑断裂等问题,它仍然承载着公众对于高阶智能社会的想象。

  生成式人工智能的应用加剧新闻传播从业者的职业技能恐慌。生成式人工智能通过人机交互来产出内容,因此需要国家、群体或个体具备一定的数字资源调用能力。生成式人工智能可以根据指令实现多模态文本转换,进一步降低了生产门槛,但也考验着使用者自身的综合素质。自主性的提升常被认为具有赋权意味,例如提升个体传播能力和弥合数字文明社会的能力沟,或是增强个体的知觉与连接能力等。[13]然而,技术扩散会受到社会资本不平等的制约。“技术带来的特权越来越多地只属于那些负担得起的人,特别是当国家退出基础设施和公共服务供给时。”[14]当前,生成式人工智能的赋能所需的前置条件涵盖语言能力、创意能力、信息获取能力、技术使用素养和可接入设备条件等多方面。

  生成式人工智能的新形态嵌入新闻传播业,不仅会改变新闻生产、分发和接收环节,也会推动相关制度和文化环境发生转型。技术创新、制度创新与知识创新的时差,给新闻业带来多元风险,并经由信息传播扩散至其他社会领域。

  生成式人工智能参与信息生产,导致人类生成的版权内容与AI生成内容混杂。生成式人工智能的模型训练、内容生产及生成物应用环节,都存在着侵犯版权的风险,如未经授权使用文本数据或者生成结果中模糊版权信息等。2024年2月,Raw Story、The Intercept、AlterNet等新闻机构指控OpenAI及微软的生成式人工智能删除了文章作者和标题等版权识别信息。无版权识别信息的人类产出内容与人工智能生成内容一同出现在信息流当中,客观上会对用户产生误导,干扰用户对生成式人工智能可信度的判断。

  生成式人工智能加剧了深度伪造内容泛滥。2024年初,世界经济论坛发布的《2024年全球风险报告》提出,“未来两年全球十大风险”的首位是“人工智能生成的错误信息和虚假信息”。[15]以深度伪造的负面使用为代表,生成式人工智能正在危害公民和。ChatGPT出现后不久,就被发现用强大的文本处理能力来拼凑、编造虚假信息,对用户“一本正经地胡说八道”。相比之前的Pika、Runway等视频生成模型,Sora生成视频时长较长、分辨率较高且在多角度多景别的镜头变换中能够保持一定的主体一致性。脱离了生产主体等背景信息,许多人工智能生成内容看起来与人类生产的内容极为相似,几乎能够以假乱真。作为深度伪造最典型的应用,“AI换脸”和音频深度伪造也被用于欺诈和侵权。普通用户利用公开数据和生成工具,就可以轻易生成名人、娱乐明星甚至普通社交媒体用户的有害内容,侵犯其名誉权和隐私权。鉴别深度伪造内容和控制其传播的成本远远高于生成成本,被侵犯者常常难以自证。此前,有用户故意使用Elevenlabs公司的软件来制作传播种族主义言论的明星发言视频。深度伪造的负面使用不仅仅是用户的个人行为,平台的内容筛选、信息分发等设计也会产生引导作用。相较于图像/视频深度伪造内容,音频的制作成本和技术门槛更低,且缺少视觉线月,新奥尔良街头魔术师保罗·卡彭特(Paul Carpenter)只花了20分钟和1美元,伪造了美国总统拜登劝阻党人投票的音频。深度伪造音频常常通过电话而非在线播放的形式传播,其内容难以被暂停、回放、留存和截取片段分析。

  生成式人工智能的应用,使“后”征候更加严重。传统新闻生产中,新闻现场的人、物、环境等诸多要素,既是启发记者进行个性化表达的灵感来源,也是新闻真实性的佐证。记者的身体在场和专业素养使现场变为新闻现场,“将各类事情转化为新闻事件”。[16]随着互联网成为信息传播基础设施,新闻传播主体范围拓展至非专业新闻机构、普通社会个体甚至是机器。UGC和AIGC生产模式普及开来,使新闻生产规范受到冲击。监控摄像头和各类传感器等媒介作为记者身体的延伸,开始代替记者进入现场。“身体离场”的方式提升了新闻生产的效率,但也制约了“现场感”的表达和实证功能的发挥。[17]在融合传播环境下,新闻的传播和接收迁移到社交媒体平台,新闻生产流程和新闻文化发生转变。“流量为王”的利益驱动机制以及信息核查的高昂成本,致使部分媒体转而用制造同意替代追求真实。大量不以事实为基础且信息、情感和立场混杂的复合体层出不穷。“后”征候频繁出现,表现为“成见在前、事实在后,情绪在前、客观在后,话语在前、在后,态度在前、认知在后”[18]。训练数据库中信息质量良莠不齐,会影响人工智能生成内容的质量。在互动过程中,生成式人工智能所“臆造”的内容根据用户要求不断被改写完善,变得更加难以辨别。

  信息分发渠道集中在互联网平台,使传媒业产生路径依赖。与AIGC不同,传统的新闻生产主要依托于记者对各类新闻现场的挖掘,新闻价值的定义和传播方式取决于掌握信息传播主导权的专业新闻媒体,而传受互动主要采用受众的订阅、收听/视行为或读者来信等方式。当互联网平台崛起为信息分发的主要渠道,平台既是信息的中介和代理,也改变了传受互动关系。传媒机构改用不同平台的账号或账号矩阵作为内容输出终端,根据平台的内容规范和推荐机制调整内容,以获得更高可见性。传媒机构对受众的了解也越来越依赖于平台的数据反馈,尽管这与真实的用户需求还存在一定差异。

  为采纳生成式人工智能,传媒机构对科技公司产生技术依赖。目前,我国除少数中央级媒体外,大部分地方媒体的相关业务都依赖腾讯、字节跳动等少数平台巨头的技术支持。传媒机构的技术依赖,导致平台公司对新闻生产的控制权从分发渠道侧拓展至内容生产侧。[19]许多地方传媒机构虽然采纳态度较为积极,但具体措施更像是完成一种“AI热”下的“必选项”:采纳生成式人工智能的主要贡献在于获取新闻效应,缺少连续的、实质性的内容产出能力以及与之配套的制度和文化环境。

  生成式人工智能的发展具有一种潜在的垄断属性,强化平台对媒体市场的影响力。资金、高水平人才和关键技术缺失以及对意识形态风险的担忧,制约着传媒业的智能化发展。在平台媒体化与媒体平台化的双向进程中,传统媒体机构承载了更多的市场竞争压力,不得不与科技公司开展合作。少数科技巨头掌握着生成式人工智能的研发主导权。传媒机构担忧媒体投资会因此受到影响,从而导致媒体多样性削弱,影响行业生态平衡。

  生成式人工智能的信息生产是基于既有语料库进行人机互动,本质上是根据用户提出的需求,对已有信息进行聚合、分析以及多元化呈现,无法为公众提供知识增量。从生成逻辑上,生成式人工智能遵循基于相关性的概率学分析和匹配,本质上是数据逻辑,不同于人类基于人生经验和特殊情境触发的情感表达。技术不可生成的部分,也即物的能动性界限,证实了人的主体性价值以及多元主体协同的重要性。

  逐利的商业逻辑会引导生产逻辑,进而损害创意实践空间。新技术展现出的可供性常常引发美好浪漫的想象,但社会资本不平等的现实和资本逐利的特性,可能导致技术使用“应然”与“实然”的偏差。在生成式人工智能之前,算法推荐也曾被认为能够鼓励个性化、创意化的视听生产,使小众内容走向大众。相反,平台的流量投放成为创作者的指挥棒,推动他们使用相似的视频元素和叙事方式生产大量同质化的“工业品”。平台型文化生产的结果是出现了一个“不太可能有创意的阶层”(Unlikely Creative Class),[20]他们具备一定影响力,却不断生产平庸的内容占据注意力空间。

  生成式人工智能改变公共的形成环境,可能导致公共议题的失焦。智能算法提供个性化推荐,而生成式人工智能则走向定制化信息服务。这将进一步强化个体层面的微观重要性,使公共利益层面的总体重要性不再占据主流。[21]市场导向下,新闻接收方式和新闻内容趋向大众化和商业化,曾占据主流的“公众启蒙”实践走向衰弱,社会生活的其他领域成为媒介信息产品的原料。[22]新闻内容与社会议题间的连接变得松散,对国家政策制定和社会行动的影响具有不确定性,地区、国家、群体与个人的联结处于松散耦合状态。[23]如果无法有效设置公众场的议程,形成“共同焦点”,连接个体与集体、国家与公民等社会关系,大众传媒就面临着功能失灵的窘境。

  “AI治理AI”揭示出深度媒介化时代风险生产的递归性。平台媒体上虚假信息泛滥,诸多媒体、监管机构和科技公司加快探索智能核查工具的使用。事实核查主要包含三种类型:信息发布前后对事实信息的核查纠偏,对观点信息的核查纠偏,识别信息来源账号主体。训练事实核查AI需要信息来源更可靠的数据库。一旦数据库中混入错误信息或负面价值观的信息,事实核查不但无法实现治理,还会带来更大的真伪识别难题。许多观点类信息的理解往往需要结合具体语境,在观点与情境脱嵌的情况下,事实核查AI容易存在理解偏差。在被要求辨别网络仇恨和极端主义言论时,事实核查AI无法理解情绪的多义性、情绪产生的复杂场景和情绪传播中丰富的象征形式。[24]受原始数据库和程序设计影响,事实核查AI的诞生和应用带有原始立场和价值标准,可能导致观点霸权的形成。识别账号主体能够助力防范机器人水军操纵。事实核查AI主要通过账号的使用行为辨别人类用户和机器账号,但也容易因无法理解人类使用行为的复杂性导致识别错误。事实核查AI用于治理,可能导致信息、伦理、社会等度的风险以相似的机制被再生产。

  生成式人工智能的治理过程不仅会导致原有风险的循环,也会引发新风险。从长期来看,提升公民媒介素养是必要的应对举措,但在短期内容易制造出一种“说谎者的红利”(liar’s dividend)[25]——操纵者利用公众对虚假信息的警惕和防范心理,将与自己立场不同的内容称为“虚假新闻”和“深度伪造内容”,用简明的断言替代复杂的举证过程,从而在公众中制造怀疑,排挤其他观点。无论原始信息究竟是否真实,损害社会信任都变得越来越容易。这不仅会诱发用户的新闻回避,也会导致话语权再度集中于少数意见领袖之处,形成话语权垄断。

  从算法推荐到生成式人工智能应用,信息的偏见循环仍然存在。智能模型和算法对人类偏见和立场的复制和循环,主要来源于原始数据库、程序设计和人机互动。[26]生成式人工智能的训练使用大量包含立场偏见的网络信息数据,其内容拓展和总结功能常常融真假信息为一体,甚至放大原始数据中的逻辑错误和价值观偏见。此前,智能模型和算法生成歧视言论的相关案例时有出现,使相关科技公司遭受压力。由于清洗数据库成本极高、用户使用行为难以控制,科技公司主要通过优化程序设计来控制价值观风险。

  生成式人工智能的价值观“矫正”,又陷入刻板化和模糊化的窘境。生成式人工智能的偏见循环和“正确”,本质上都是源于数据在情境脱嵌、转换和再嵌入时发生了偏差。生成式人工智能目前无法做到根据不同情境作出价值排序,再给予适当反馈,在面对历史事实与现代观念的冲突、不同社会文化的异质性等复杂问题时显得十分刻板和生硬。原本具备特殊性和情境性的数据被公理化,制造出数字的“普世景观”,掩饰社会中业已存在的不平等现象。[27]谷歌的智能生成工具Gemini因过于尊崇美式“正确”,忽略客观事实以及用户的创作需求和文化背景,引发用户不满。有用户指出,对指定人物肤色或种族的要求,Gemini有时会拒绝响应,或者随机生成不同肤色的人物图像。与之类似,ChatGPT也在战争、种族、宗教、性别等议题上表现得立场混乱或回避。生成式人工智能存在着被武器化的风险,[28]可能被用作国际博弈的工具。少数平台巨头在发达国家的背后支持下,凭借数据掠夺能力、算力壁垒和丰富的模型训练经验,抢占AI领域发展制高点并借此发挥舆情制造和引导能力。数字资本主义及数字帝国主义操纵的企图,常常隐匿在貌似开放、“无国界”的生成式人工智能背后。内容的智能生成和传播伴随着意识形态的输出和话语权的争夺,影响话语生态。

  嵌入新闻传播业的生成式人工智能,体现出“媒介发展中持续不断的、显而易见的‘新异性’(newness)”[29],也引发了“自动化规范”与社会秩序中人类传统规范的冲突。传媒机构对人工智能角色认知和采纳态度的暧昧性,导致风险认知和应对存在差异。人工智能技术的迭代与应用,使信息环境和人机关系发生变化。不同国家和地区相继发布针对性的规制措施,以控制AI使用风险。

  GAI的核心功能是生成,其治理首先围绕内容生产主体以及内容线.传媒机构对版权保护的态度差异。训练和应用生成式人工智能的过程信息吞吐量巨大,涉及大量版权信息。绝大部分传媒机构都在技术采纳与版权保护之间寻求平衡,但具体措施中也体现出明显的优先级差异。作为最早使用人工智能赋能新闻生产、分发与核查的传媒机构之一,美联社的态度相对包容。美联社积极与科技公司展开合作、设立人工智能和新闻自动化部,同时也进一步规范新闻生产领域的AI使用。2023年7月,美联社与OpenAI公司签署合作协议,同意OpenAI使用美联社的部分文本资料来训练生成式AI模型,而美联社将获得OpenAI的技术和产品知识支持。2023年8月,美联社发布给记者和编辑的“生成式人工智能使用指南”,规定智能生成内容在发布前必须通过人工审查,不能使用智能工具更改照片、视频或音频素材的任何元素,也应避免传播虚构现实的图像。[30]相较而言,纽约时报高度重视版权保护,对智能工具的使用作出严格限制。2023年8月,纽约时报更新服务条款,明确禁止将纽约时报的内容(包括文本、照片、图像、音频/视频剪辑、“外观和感觉”、元数据或编译内容等)用于开发“任何软件程序,包括但不限于训练机器学习或人工智能系统”。未经书面许可,禁止使用爬虫类自动化工具访问、收集纽约时报平台发布的内容。[31]2023年12月,纽约时报起诉OpenAI及其投资者微软公司侵犯版权,[32]双方就信息获取的合法性、证据真实性等问题相互指控。传媒行业积极通过法律诉讼等方式捍卫自身合法权利,同时也希望向外释放预警信号,提醒公众关注生成式人工智能的威胁。2023年8月,盖蒂图片社、法新社、欧洲新闻图片社等组织机构联合签署公开信,要求人工智能模型数据透明化并尊重原作版权,呼吁制定AI的使用标准。[33]公开信指出,训练生成式人工智能和语言模型使用了海量的原创数据,其中包括大量新闻文字和图像文本,却并未给原作者相应的价值回馈。

  传媒机构与科技公司的博弈,反映出当前算法优化和版权保护之间的矛盾。一方面,新闻产品可以作为优化算法的高质量数据,提升AIGC的准确度和合规性;但另一方面,在版权未得到有效保护的情况下,算法的优化会威胁到原创作者的利益,导致版权方缺少支持模型训练的积极性。

  2.深度伪造的治理包括源头防范、过程控制与末端治理。技术的健康发展往往需要调用伦理、法律等其他维度的资源。不同国家和地区相继推出了伦理法律规制举措。

  欧盟侧重从源头防范深度伪造的负面使用,集中于数据管控和主体权利保护等方面。2018年,欧盟通过《通用数据保护条例》(GDPR),保护数据主体的知情权、删除权、反对权和自动化个人决策等相关权利,提出公平、合法、透明、目的限制性、存储限制等数据保护原则。2022年6月正式生效的欧盟《数据治理法案》(DGA)则鼓励为了公共利益的数据共享和使用,标志着欧盟对数据使用的整体态度从主张严格限制转向倡导“合理使用”。2024年3月13日,欧洲议会通过《人工智能法案》(Artificial Intelligence Act),提倡促进以人为本、值得信赖的AI发展,保护公民基本权利、、法治和生态环境。

  我国对数据和智能技术应用的规制具有弹性,侧重流程管控和分类监管,在促进技术创新发展和维持社会环境有序之间寻求平衡和共赢。在我国,网络安全法、数据安全法和个人信息保三部基础性法律构成了数据使用和智能工具应用的基本规制框架。2020年更新的《中国禁止出口限制出术目录》中,“基于数据分析的个性化信息推送服务技术”被列为禁止出口的技术,例如字节跳动公司研发的TikTok核心算法等。2022年发布的《互联网信息服务深度合成管理规定》中,明确了深度合成服务技术支持者、提供者和使用者三类主体,构建以服务提供者为核心、连接技术支持者与使用者的监管模式,强化平台中介在深度合成内容传播和使用过程中的责任和义务。2023年7月,国家互联网信息办公室发布的《生成式人工智能服务管理暂行办法》提出,坚持包容审慎和分类分级监管:对于合理创新的应用,鼓励行业协作和场景优化;对“具有属性或者社会动员能力”的生成式人工智能,要求按规定进行安全评估。相关条例办法以及网络治理行动作为对基础性法律的灵活补充,可以更加及时地应对技术的快速迭代和应用风险。

  美国是最早提出对深度伪造技术进行立法规制的国家,从联邦到各州政府层面都确立了相关法案,侧重对深度伪造的负面使用结果进行治理,涵盖干扰选举、传播等多个方面。2019年6月,美国众议院的《深度伪造责任法案》要求,任何创建深度伪造视频媒体文件的人必须添加“不可删除的数字水印以及文本描述”予以说明,否则将属于犯罪行为。随后,美国得克萨斯州通过了《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》,弗吉尼亚州也颁布了一项反复仇修案,把发布和传播深度伪造视频视为实施报复的一种方式。2024年3月底,美国田纳西州通过《确保肖像、声音和图像安全法案》,“保护个人的声音和形象不在未经授权的情况下被人工智能所使用”,把权利主体范围拓展到了未成年人和已故个人,并特别提及了对音频作品的保护。

  “现代社会的控制形式在新的意义上是技术的形式。”[34]媒介影响社会各类制度以及制度之间的互动,不仅是通过一系列媒介技术装置的嵌入,也体现在围绕媒介技术形成的特定认知视角发挥着建构作用。生成式人工智能带来的机遇与挑战,为反思高度现代性时期的治理伦理提供了一个契机。

  2017年,美国举办的“Beneficial AI”会议上,由844名人工智能和机器人领域的专家联合签署的23条AI发展原则,被称为“阿西洛马人工智能原则”。其内容包括坚持人类价值观、确保人类控制权等,并强调人工智能研究的目标是创造有益于人类而不是不受人类控制的智能。“阿西洛马人工智能原则”成为全球领域AI发展的指导性原则。然而,人工智能的发展和应用始终伴随着伦理争议。由于发展历史、现实情况和执政观念各不相同,不同国家和地区对于智能社会的愿景存在差异,其核心问题是:AI发展的受益者是谁?

  美国的人工智能研发计划重视本国的国家利益以及全球领导力,对以中国为代表的AI发展大国多采用竞争修辞。欧盟坚持追求理性与道德的传统,以维护“公共利益”作为AI发展的基本原则,从制度设计上将数据利他主义作为新的数据使用理念。中国近年来从国家战略层面鼓励智能技术创新和数字化基础设施建设,同时始终强调坚持以人为本,致力于构建共建共享的和谐社会。

  生成式人工智能将机器的主体性提升到了前所未有的程度。即便是在风险治理场景下,社会行动者的应对思路仍然是诉诸媒介,进一步引入媒介技术来解决问题。

  “AI治理AI”存在着技术逻辑和治理逻辑的融合和博弈,其中的悖论隐藏着一个启示:应对生成式人工智能的相关风险,需要多元行动者的协同参与,尤其需要建立整体性、系统性和结构性的韧性治理思维。传播学研究者需突破围绕“恐惧”的研究范式,[35]客观认识技术和社会互动中的人机关系及其变化,探索健康高效的人机交流和协作方式,以应对内外部风险。

  以生成式人工智能为代表的智能技术,提供了更多元的信息生产、呈现和场景体验模式。垂直领域的写作机器人能够自动进行数据抓取、分析并生成稿件,从而快速响应突发事件、精准分析财务报表、低成本地报道体育赛事。图像生成模型可以突破时空限制,根据已知信息模拟事件发生经过和“还原”新闻现场,用具象化的方式解释新闻事件。参与式文化下,“我在现场”“重返现场”不仅是记者的职业需要,也是普通用户通过适度曝光、提升可见性,满足自身存在感需要的一种途径。生成式人工智能的“创造”属性将进一步提升用户的自由度,提供“第一视角”的场景体验,也便于用户生产出更个性化的解读内容。

  生成式人工智能在信息呈现上的聚合化、影像化特点,会加剧环境失序。同时,“AI治理AI”的模式却暂时难以跳出虚假信息和偏见循环的怪圈。生成式人工智能的虚假信息和价值偏见源于原始数据库、技术设计和人机交互,从根本上是对现实世界的映射。生成式人工智能还被用在经济博弈中,甚至被用于发表仇恨言论、煽动情绪。就现实状况而言,“AI治理AI”的模式在当前承载了过高期待。现有的AI治理工具无法精准辨别复杂情感及其文化语境,也难以分辨情感表达的不同信息载体。[36]生成式人工智能会进一步模糊人类生成内容和机器生成内容的界限,让环境面临更大的风险。

  在与技术的相互规训和共生中,人类需要共同承担维护公共利益和价值观的责任。生成式人工智能具备“成为道德上被接受的新闻内容生产主体”的潜力,[37]但它只是有限道德代理者,无法替人类做出道德决策和承担责任。[38]生成式人工智能的技术迭代和监管具有明显的区域特色和文化差异,但其作为一种新兴媒介所引发的风险具有相似性。在此过程中,人本主义仍然是应对风险的基本价值取向,发展对社会负责的AI是人类社会的共同目标,建立一个情境兼容的全球性信息治理框架是大势所趋。

  【本文为国家社科基金重大项目“提升面对重大突发风险事件的媒介化治理能力研究”(批准号:21&ZD317)阶段性成果】

  [1]吉登斯,皮尔森.现代性:吉登斯访谈录[M].尹宏毅,译.北京:新华出版社,2001:79-80.

  [2]霍德.纠缠小史:人与物的演化[M].陈国鹏,译.北京:新经典文化出版社,2022:68.

  [3]伊德.技术与生活世界:从伊甸园到尘世[M].韩连庆,译.北京:北京大学出版社,2012:72-117.

  [7]陆小华.智能内容生成的实质、影响力逻辑与运行范式:ChatGPT等智能内容生成现象透视与解析[J].新闻大学,2023(04):19.

  [8]喻国明,苏健威.生成式人工智能浪潮下的传播与媒介生态:从ChatGPT到全面智能化时代的未来[J].新疆师范大学学报(哲学社会科学版),2023,44(05):81-90.

  [12]周葆华,陆盈盈.生成式人工智能影响下的新闻生产创新:实践与挑战[J].青年记者,2024(03):10.

  [13]胡正荣,李涵舒.“数字在场”:社交媒体时代视觉图像的传播范式重构[J].传媒观察,2024(02):64-71.

  [16]塔克曼.做新闻:现实的社会建构[M].李红涛,译.北京:中国人民大学出版社,2022:18.

  [17]胡洪江.从“身体在场”到“多元在场”:移动互联时代记者与新闻现场的关系重构[J].青年记者,2022(15):53-55.

  [21]郑满宁.人工智能技术下的新闻业:嬗变、转向与应对:基于ChatGPT带来的新思考[J].中国编辑,2023(04):39.

  [22]夏瓦.文化与社会的媒介化[M].刘君,李鑫,漆俊邑,译.上海:复旦大学出版社,2018:28.

  [23]夏瓦.文化与社会的媒介化[M].刘君,李鑫,漆俊邑,译.上海:复旦大学出版社,2018:37-38.

  [24]卞清,陈迪.互联网、智能算法与赛博仇恨:人类的情感干预如何可能?[J].媒介批评,2021(02):1-22.

  [26]郭小平,秦艺轩.解构智能传播的数据神话:算法偏见的成因与风险治理路径[J].现代传播,2019(09):21-22.

  [29]库尔德利,赫普.现实的中介化建构[M].刘泱育,译.上海:复旦大学出版社,2023:7-12.

  [34]赫伯特.单向度的人:发达工业社会意识形态研究[M].刘继,译.上海:上海译文出版社,2014:9.

  [36]卞清,陈迪.互联网、智能算法与赛博仇恨:人类的情感干预如何可能?[J].媒介批评,2021(02):1-22.

  [37]刘海明,张铭麟.想象AIGC:生成式人工智能浪潮下融媒体内容生产的思维特征与操作关键[J].中国记者,2024(02):6.

  [38]简小烜.人工智能体作为有限道德代理者的道德责任[J].伦理学研究,2022(06):124-132.

  郭小平,郭瑞阳.新闻传播业的生成式人工智能应用及其风险应对[J].青年记者,2024(06):5-13.户外拓展训练收费青少年拓展训练

地址:广东省广州市天河区星空体育·(StarSky Sports)官方网站   电话:400-123-96856
版权所有:Copyright © 2012-2024 星空体育·(StarSky Sports)官方网站 版权所有    
ICP备案编号:浙ICP备2999910782号-1
HTML地图 XML地图 txt地图