《中国食品工业》主办

中国食品新闻网

青记观察丨从人机关系看社交媒体智能传播风险

2021-04-24 20:59:31来源: 全中看传媒

   导 读

  社交媒体信息传播呈现智能化趋势,表现为人机协同的信息生产模式、人机共生的信息传播生态和人机交互的内容体验。“人机合谋”加剧社交媒体传播失范和伦理风险,亟待“人机协作”治理。

  以人工智能(AI)为代表的新一代信息技术广泛应用,使社交媒体传播呈现显著智能化趋势。“大数据+深度学习”的AI主流计算范式应用不断加深,机器人账号、智能算法推荐、虚拟/增强现实(VR/AR)等已深深嵌入社交平台。在技术加持下,借助社交网络病毒式传播,后真相时代、假新闻泛滥、极端和仇恨言论广泛传播等风险日益显化。本文着眼于人工智能对社交媒体信息传播的正负影响,以“人机关系”为焦点从信息生产模式、传播方式、体验形式三方面透视智能传播,并从传播生态和伦理维度剖析传播风险。

  社交媒体智能传播:

  人机协同、人机共生、人机交互

  (一)自动化、可视化的“人机协同”信息生产模式

  AI与大数据分析结合有效过滤了社交媒体信息“噪音”,协助人从海量数据中进行信息采集与线索发掘的拓展。大量社交行为、舆情数据使社交媒体成为新闻线索富矿,为媒体提供了选题依据,也使基于社交大数据的舆情监测、预警及管控成为可能。

  在“内容+社交”的发展趋势下,用户更倾向用社交媒体来关注新闻,而不是与朋友保持联系。[1]一方面,社交媒体与传统媒体合作,为自动化新闻生产提供数据素材;另一方面,社交媒体自身也在智能化内容生产上作出诸多尝试。从文字、图片再到视频、短视频,AI不但能独立完成结构化写作,在财经、体育等领域实现了自动化新闻生产,助力人类用户提高内容生产效率,而且通过人机协作辅助、赋能人类用户,特别是UGC内容生产者,并促使内容生产者拓展专业高度和深度。

  (二)个性化、沉浸式的“人机共生”信息传播生态

  1.算法推荐:个人化的信息接触路径。作为AI的核心逻辑和方法论,算法推荐逐渐成为社交媒体信息推荐的主流,平台通过算法模型将用户信息数据与内容信息数据进行匹配,实现内容高效聚合、精准分发。

  社交平台通常采用深度学习技术,从信息内容、用户特征、社交关系三个层面搭建算法模型。算法推荐使社交媒体信息过滤更高效,节约了用户注意力资源,也使后真相、信息茧房、回音室效应等问题更突出。对此,脸书推出“AI+人工”的事实核查机制,利用光学字符识别处理图像内容,并建立人工团队辅助筛查,追踪识别虚假信息;2019年10月,推出“新闻标签”(News Tab),聘请经验丰富的记者编辑参与策划开发,推送购买的专业媒体新闻内容。社交媒体算法推荐正从AI一路高歌转向“人机协同”,在人与机器的信息权力博弈中,人不仅仅是被算法被动“喂食”信息的个体,而是拥有在算法协助下获取高质量、个性化信息的主动权。

  2.交互与扩散:人机共生的社交网络。机器人是AI的一项重要应用,广泛渗透于社交媒体,呈现出“AI+人”的共生生态。据估计,推特账户中至少有9%至15%是机器人。[2]社交机器人成为由人类操控者设置、由自动化算法程序操控的社交媒体账号集群。[3]其特点之一是模仿人类账户的行为状态,发文、转发、关注其他账号等,二是通过与人交互达到影响甚至操纵人类用户的目的。有研究将社交媒体上的机器人分成两类,一类是聊天机器人,以微软小冰为代表,通过自然语言互动,以人格化形象参与到虚拟社会网络中;另一类是垃圾机器人,以政治机器人为代表,通过算法和自动化技术在社交媒体广泛散布特定信息以影响和操纵舆论。[4]各类自动化工具操纵社交机器人完成自动关注与反关注账号,自动发布、转推、点赞、评论等。[5]社交机器人生成和传播大量迎合受众的信息,直抵目标受众,渗入社交网络,改变了既有传播结构。

  社交机器人已经不仅是传播媒介,更是传播中的对话者。[6]社交媒体必须重新思考人与人、人与机器乃至机器与机器的社交关系,重构人机共生的传播路径和生态。

  (三)具身性、临场感的“人机交互”内容体验

  智能时代内容体验的显著特征在于媒介技术向人性化方向进化,使媒体融合出现具身性的体验模式。物联网使物体成为可感知的智能化存在、人的生物信息成为可见的大数据,人与物实现了互动,并与周围环境集成,人的感官体系得以全面增强实现了再平衡,身体成为内容体验的新起点。

  在AI协助下,社交媒体正围绕用户感官再平衡重塑具有临场感的内容体验。VR/AR社交利用计算机技术带来了模拟数字体验的维度提升(三维立体)和感知提升(扩展至全身),弥补了“旁观式”异步交互临场感的缺失。“AI+物联网”弥补了用户社交大数据分析无法判断行为动机,特别是无法对情感进行评价和衡量的不足,生物传感器可获取用户第一手的生理反应数据,直接读取用户体验。

  “人机合谋”加剧社交媒体传播失范和

  伦理风险,亟待“人机协作”治理

  (一)算法权力导致信息环境失衡,“人机合谋”操纵信息和舆论

  智能时代,算法渗透进个体生活和社会运作各方面,成为一种社会权力。在社交媒体,算法权力的一个主要风险是个性化信息推送塑造了拟态环境,形成“信息茧房”,在“人以类聚”的社交互动中产生“回音室效应”,导致信息环境不平衡,而且算法本身不能判断信息的社会价值和客观立场,更滋生了假新闻、不实信息、极端言论等“病毒式传播”。

  在社交媒体中,算法使信息生产“智能化”、信息分发“个性化”、信息扩散“拟人化”,假新闻呈现“人机合谋”新特征。社交平台上高度活跃和有党派倾向的人员(和机器人)合谋操纵假新闻的扩散,这些人员(和机器人)成为强大的错误信息来源。[7]“深度伪造”借助机器学习,将个人的声音、面部表情及身体动作拼接合成虚假内容。

  社交机器人和算法推荐是假新闻借助AI传播的主要方式。首先,社交机器人在假新闻扩散中起到重要作用。研究表明,社交机器人在假新闻传播初期异常活跃,随后人类用户参与转发,最终导致假新闻扩散。[8]其次,看似中立客观的算法并非旨在客观表征人的行为或社会实在,而在于影响、控制和调节人的行为,其中渗透着算法主导者的意图。看似客观的数据和算法一旦被心怀不轨者用于篡改信息、操纵民意,公众将遭到严重误导。剑桥分析公司以脸书的用户大数据分析个体心理并引导群体,协助特朗普赢得2016年美国总统大选。后真相时代,存有偏见的群体或个体封闭于所在的社交圈层,重视情绪大于事实,并通过社交平台转发、评论等行动巩固这种态度和立场。长此以往,人机共谋之下虚假信息传播将会制造更多认知混乱,瓦解以尊重客观事实为准则的社会共识,致使社会信任基础崩塌。

  (二)智能传播使媒介伦理复杂化,亟待“人机协作”治理

  AI不确定性带来的技术风险向传播领域渗透,可能转化为现实的伦理风险。一是社交平台存在身份认同偏差带来的伦理风险。社交平台多以科技公司自居,对自身媒体属性缺乏正确认知和伦理自觉,在智能技术研发应用中很少内嵌新闻伦理价值。二是AI应用于社交媒体导致新的伦理问题。脸书“偏见门”、特朗普当选等黑天鹅事件都折射出缺少伦理约束的智能传播危机,人机界限日渐模糊,传统信息伦理遭受考验。

  当前,隐私和数据安全、算法偏见伦理风险已引起广泛关注。海量的用户数据是人工智能的生产资料,也是技术实现自我升级优化的必要储备。个体享受智能化成果的同时,需要以让渡部分隐私权利为代价。因此,如何在开发应用中保护用户隐私和防止敏感信息泄露成为新挑战。算法偏见是算法程序在信息生产与分发过程中失去客观中立立场,造成片面或者与客观实际不符的信息生产与传播。

  结 语

  新冠肺炎疫情引发了一场社交媒体“信息疫情”,相关风险随社交媒体智能化深入还在进一步酝酿发酵。在以信息过载与传播失序为主要特征的常态化“信息疫情”环境下,群体极化、反智主义、污名化等舆论风险凸显。着眼未来,把握社交媒体智能传播趋势和风险,以人为本、聚焦“人机关系”,构建多方协同、多管齐下、多元共治的治理体系和行动方案已迫在眉睫。

 

  (责编:霍海斌)

  免责声明:中国食品新闻网对文中陈述、观点判断保持中立,不对所包含内容提供任何明示或暗示的保证。转载目的在于传递更多信息,请读者仅作参考,并自行承担全部风险与责任。 网站转载上传图片或文字的知识版权如有侵犯,请及时通知我们,本网站将在第一时间及时删除。


0
0

我来说两句