干货!算法社会的“三大隐忧”与“两大治理路径”
随着互联网技术的全面普及,算法社会已经来临。在人们使用社交媒体、浏览新闻网站、进行网络购物时,算法——互联网软件背后运算的规则,成为人与现实世界之间的中介。值得警惕的是,算法可能通过攫取用户隐私,影响人们对世界的认知与判断。
算法社会的隐忧
1
算法社会中的信息获取:“无菌”的“过滤泡”
在信息时代,用户选择性地获取信息成为一种必然。传统媒体时代,信息的选择权掌握在记者和编辑手中,新闻专业主义使从业者在考虑受众喜好的同时兼顾信息的公共性,即不仅考虑“受众想要知道什么”,还进一步与“受众应该知道什么”平衡。
当算法取代人工编辑时,新闻专业主义逐渐隐退,算法通过记录用户行为以及参考与用户相似的人群,猜测用户信息喜好从而做出推荐,通过取悦、顺从用户的个性化信息推荐运算规则,最终达到让用户对软件“上瘾”的目的。用户在愉快地享受算法服务的同时,不可抑制地陷入更深的拟态环境中。
信息推荐算法将与用户意见相悖的信息、受众不感兴趣的知识拒之门外,看似为用户营造了一个“无菌环境”,但社会的复杂性也随之消失。用户被孤立地放置于封闭性的信息拟态环境之中,却又时常感知不到算法的隐秘操纵;其被算法反复“投喂”类似的信息,消除了偶遇其他观点的可能性。
有学者在研究搜索引擎背后的算法时,将算法为用户形成的信息环境称作“过滤泡”,它使得用户沉浸于熟悉、认可的信息中,而非多维视角内,使得用户更习惯被动地接收信息而非主动地探索信息,从而进一步丢失创新的可能性。
2019年5月26日至29日,2019中国国际大数据产业博览会在贵州省贵阳市举行。图/传播君李晗 摄
2
算法社会中的判断:依赖算法的思考
算法对于人类的影响不止于对世界的认知。在算法社会中,很多时候人们依赖算法做出判断,甚至将判断的权力交付于算法手中。例如,现在人们在规划出行路线时,依靠导航系统判断最佳出行路线甚至全权由系统决定出行路线。
的确,基于大数据的算法通过高效的运算在很多时候帮助人们做出更好的判断,但这是否证明算法的判断一定是最优解还处于未知状态。
人类的判断模型不仅应建立在事实层面,还应包括情感、道德、伦理等层面,后三者是如今算法无法抵达的。
事实上,研究者发现,算法对于人群的分类与判断常常携带着人类社会习惯性的偏见与歧视。但不同的是,算法的学习在于对过去数据的输入及模仿,而人类能够基于此进行反思。
若人们将决策的权力交给算法,人们将逐渐被贴上“算法标签”,算法携带的偏见与歧视将优质资源更进一步倾斜给算法标记的社会优势人群,社会不平等将进一步扩大。
3
算法社会中的隐私:无孔不入的数据收集
数据收集并非只是互联网时代的产物,传统媒体时代,电视收视率报告、用户调研皆为用户数据收集的典型代表。但与之不同的是,由于数字痕迹的出现,平台依托算法的数据收集,成为 7×24 小时的常态化行为。
算法对用户的数据收集的确带来了便利,但同时也对人们的隐私形成巨大威胁。社交平台收集用户数据,进而推荐个性化广告;在私人领域中,智能音箱、家庭摄像头等互联网家居无时无刻不在收集着信息,且将用户信息上传至平台。
同时,用户有时甚至会向算法主动提供信息,以隐私换取便利,但却忽略了便利背后的风险。算法在收集用户数据后还会对用户数据进行处理,以描绘用户画像,进而控制用户行为。
在短视频平台上,用户的点赞、评论、浏览单个视频时长、浏览记录、在线时间等都决定着算法对于用户喜好的判定,也决定着用户将接收何种内容的信息推荐;在购物平台上,算法通过个性化推荐进一步挖掘用户的购买欲望,助推消费主义;在社交平台中,算法通过收集用户之间的互动历史测算亲密度,决定其信息流的排序,也决定了不同好友信息的可见性。
可见,用户的所有行为都将成为算法运行的基础,最终影响算法运行的结果。
算法须协同治理
我们现在仅处于“弱人工智能时代”,算法的智能化水平比较有限,但算法作为一个拥有极大发展潜力的新兴技术,其对人类产生愈发强烈的影响,无疑是一种时代趋势。将算法社会的风险以依靠个体算法素养来解决显然不现实。未来,对算法的治理需要多主体、多层级共同参与。
1
平台:伦理约束,创新设计
作为对算法最了解的一方,算法开发平台首先需要在遵守算法伦理规范的基础上自觉进行内在约束。其次应改变算法的“黑箱子”性质,提高运算规则的透明度。
此外,近年来有学者提出可以在算法设计过程中应用参与策略。参与式设计即通过赋予用户权力的方式,使他们在一定程度上参与到对技术的开发中。
这不仅有助于开拓用户的计算机思维,提高他们对算法风险的应对能力,还能帮助算法开发平台解决设计者意图与使用者期望之间的脱节问题。
2
政府:规范法治,加强监管
如今,算法技术发展日新月异。2017 年,国务院颁布的《新一代人工智能发展规划》中强调,适应人工智能发展的基础设施、政策法规、标准体系亟待完善。
虽然我国目前已经出台《中华人民共和国网络安全法》《互联网信息服务管理办法》等一系列针对互联网信息安全和信息服务的法律规定,但对于高速发展的智能算法技术带来的问题和风险,还须更完备的法规建设和更强力的监管措施。
未来,人类必将面临算法带来的信息权力动荡、意识形态风险等问题,但也正如媒介素养教育中所强调的,我们不能一味抵制媒介影响,而应提升自身的综合能力来应对风险。
算法素养也是如此,我们需要合理运用人的价值理性驾驭算法的工具理性,在探索与实践中寻求最佳的共存方式。
(责编:霍海斌)
免责声明:中国食品新闻网对文中陈述、观点判断保持中立,不对所包含内容提供任何明示或暗示的保证。转载目的在于传递更多信息,请读者仅作参考,并自行承担全部风险与责任。 网站转载上传图片或文字的知识版权如有侵犯,请及时通知我们,本网站将在第一时间及时删除。
我来说两句