查看原文
其他

吴飞 等 | 算法权力的获得、运行隐患与规制

吴飞、李含含 未来传播期刊 2023-03-26


点击蓝字 · 关注我们

2021年第5期


作者简介

吴飞,男,浙江大学传媒与国际文化学院教授,博士生导师;

李含含,女,西北政法大学新闻传播学院硕士研究生


摘要:随着5G时代的到来,人工智能与算法技术越来越成熟,愈加推动传播者传播能力的提高,促进受众信息需求的满足,给新闻传播注入了新的活力,带来了生产、媒体机构等多方面的革新,但也出现了一系列挑战。算法权力最初来源是用户赋予,根本的内在驱动力是算法权力主体的利益考量。伴随着5G等技术的发展,算法权力愈演愈烈,长此以往可能会导致媒介伦理困境、职业退场危机、价值坐标游移、价值导向缺失等运行隐患和挑战。因此,应该在源头、新闻生产、把关标准和问责机制等方面对算法权力进行规制,以期对算法权力有一个清醒理性的认知,同时引起社会的警醒与反思。


关键词:算法权力;来源;运行隐患;规制




正文

全文约10956字



01

问题的提出


2021年5月13日,工信部发文表示,之前通报的93家存在侵害用户权益行为APP企业的名单中尚有39款APP未按照要求完成整改。[1]这已经是2021年第三批通报的有关APP侵害用户权益文件,而此文件中所涉及的APP正是我们经常使用的一些软件。某时报记者曾经做过一个实验,他把手机放到一边,自己跟朋友聊天,讲到最近想吃日料,紧接着他打开外卖软件,发现首屏推荐里竟然就出现了日料店。后来他把聊天关键词改成了海鲜、火锅等,APP的推荐竟然也跟着产生相应改变,准确率可以达到80%。当然我们可以说这个实验不严谨不科学,但真相究竟是怎样的呢?

“人工智能”概念在1956年的达特茅斯会议中首次被提出,指的是制造智能设备来开发相关程序,从而延伸和扩展人类智能的技术。[2]从13世纪欧洲哲学家拉蒙·柳利最早提出“逻辑机”的设想,到1955年美国科学家约翰·麦卡锡第一次明确提出“人工智能”一词,[3]再到谷歌公司的阿尔法狗战胜世界顶尖围棋选手李世石,人工智能技术正在影响着社会生活的方方面面,对新闻传播领域尤是如此。一方面,人工智能对新闻生产全链条的渗透拓展着传播疆域,另一方面,其可能带来的技术中心主义、权力操控等也在新闻传播中埋下了诸多风险。

算法是人工智能时代的产物,可以说算法的优劣直接决定人工智能水平高低,算法几乎是人工智能的灵魂。算法最早用于计算机领域,是指解题方案准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。[4]在传媒领域,算法可以作为一种机器指令被应用于新闻采集、生产、分发等各个阶段。而算法推荐是指依托互联网技术与大数据技术,对用户的阅读偏好进行跟踪,经过计算分析后得出用户画像,并据此进行新闻生产与分发。[5]当下算法类软件正迅猛发展,算法软件推荐的内容纷繁复杂,算法推荐造就了算法内容的流量王国。时至今日,算法已经成为国内资讯类APP的“标配”,今日头条、一点资讯、天天快报等,无不以算法作为其核心配置。[6]算法推荐本该是为了更好地服务用户,而当下算法推荐内容的过度窄化、软件对算法的过度推崇等则与之初衷背道而驰。我们一方面享受算法给我们带来的个性化内容,另一方面又担心沉溺于此。因此,无论学界还是业界,都有必要对这一倾向保持冷静的态度,并思考算法权力究竟从何而来?算法权力运行又会给我们带来什么隐患?我们又该如何进行规制?


02

算法权力的获得


(一)用户赋予

算法权力的获得是用户赋予的。同一生态甚至使用同一插件的不同软件之间普遍存在着共享信息现象,也就是说如果A软件没有获得用户权限,但当它的好兄弟B软件获得了该用户权限,那么B软件就会把它得到的信息共享给A。不少用户对此存在疑问:这难道不是泄露个人隐私吗?谁给它的权力?答案是:你给的。点开这些APP的“个人隐私协议”后我们会发现,95%以上的软件都会有一个条款写着它要把用户的个人信息共享给第三方或者合作伙伴,美其名曰“为了更好地服务你”。而这些“个人隐私协议”都是用户为了能够顺利使用此软件才被迫同意的“霸王协议”。因此,可以说一些算法软件权力的获得其实是在用户点击“我已阅读并同意此条款”的那一刻就已经开始了。

算法权力的运行高度依赖数据,而数据的采集方式主要是用户在互联网留下的数字痕迹和个人信息。未来媒体趋势中所谈到的若干个技术,大多是基于用户的个人数据分析之上的,但这样的一种底层逻辑实则侵犯了用户隐私。在网络信息技术高度发达的今天,用户的一切网上行为都处于一种被“监视”的状态,这些被让渡出来的用户信息如果不慎泄露,将会严重损害个人隐私权。[7]个人“表演舞台之后的自我”逐渐被技术剥离出来,成为资本掌握的流量本源。算法时代的新闻运作流程背后,实际上与福柯“全景监狱”所描绘的场景不谋而合,人人暴露在数据抓取模式下,一切行为都毫无掩藏。智能化时代我们(用户)每一个人都是囚牢中央、全域焦点的毫无隐私的个体。当然,用户也在极力地想要爬出这座受监控的牢笼。基于上述时报记者的实验,不少用户试图用方言沟通交流来规避此类隐私的泄露,但目前人工智能已经发展到可以识别20种以上的方言,准确率达到97%以上,这一规避方法无异于杯水车薪。

值得关注的是,愈演愈烈的算法权力倾向必定有其背后的用户需求。当前,受众选择信息的目的性和个性化大大增强,主体地位进一步凸显,部分网络用户有着强烈的猎奇心理和个人领地意识,对符合自己口味的内容趋之若鹜,算法权力也是出于对这些用户的迎合。

(二)利益驱使

首先,算法权力的驱动力是经济层面的利益考量。大多数传统媒体机构是“事业单位、企业化经营”,算法软件开发公司或者新型媒体企业在市场化的大环境下生存与较量,两者的共通点在于其生产的产品都要拿到市场上检验。算法相关软件和媒体机构的投入、运行本身就是出于商业逻辑考量,通俗来说就是为了追求经济利益。一方面,算法技术的研发与运行保障等都需要大量的资金支持,资本自然而然就介入了算法运行,算法权力也就相伴而生。另一方面,算法软件和媒体机构公司本身可能存在追求算法经济的情况。随着互联网的不间断发展,信息以指数函数的速度急剧增加,以前所未有的力量冲击着社会的政治、经济和文化,改变着人类社会的结构和形态,并推动着信息时代的到来。[8]在这个信息爆炸的时代,各种媒体机构为了追求广告收入等经济利益的最大化,一味追求“流量至上”和“阅读率”“点击率”,依赖于算法形成的“投其所好”,长此以往,媒体机构沉迷于这种智能依赖,自然而然会驱动算法权力的进一步“扩张”。

其次,算法权力的驱动力是政治目的的追求。人工智能的技术本质是算法,而算法的社会本质则是一种权力。[9]大多数情况下,权力涉及政治层面的含义,而最早把权力与传播联系在一起的是法国哲学家福柯。在《规训与惩罚》一书中,福柯注意到作为话语的知识是如何与权力嫁接、互相助长,并被运用到现实实践之中对某些特殊群体形成规训作用。[10]算法权力是掌握算法技术的个人和企业利用自身的技术优势和行业便利,把控社会资源及信息,引导政府做出决策,从而形成的一股不可小觑的力量。[11]马克斯·韦伯认为,“权力意味着在一种社会关系里哪怕是遇到反对也能贯彻自己意志的任何机会,不管这种机会是建立在什么基础之上。”[12]表面而言,算法能够对各种资源、信息等进行整合、分析并进行个性化的分发、推送,但实际上是算法在将信息、用户、传播等相连的同时也在行使一种社会权力。算法权力利用社会中现存的信息数据,通过对其进行学习分析进而将其自身价值转换为一种“准公权力”,从而实现对社会进行控制的目的。[13]也就是说,算法背后的权力中心可能通过不断发展的算法技术来表达自己的价值观与思想,使这种通过“话语”传播的权力实现经济或者政治上的利益与目的,从而能够实现对社会的控制。

(配图源自网络)


03

算法权力运行隐患

      (一)媒介伦理困境:数据挖掘、二次利用带来隐私权让渡

对于一般用户而言,算法技术的应用离不开大数据的挖掘与处理,尽管精准描绘用户画像提高了用户消费信息的效率,但用户的数据泄露与隐私保护的难题也随之而来。在线索采集阶段,算法需要在互联网、社会化媒体上采集碎片化数据并结构化处理来生成新闻内容;在内容分发阶段,需要收集用户浏览记录从而实现精准推送。算法权力的实现高度依赖数据,在此过程中,用户隐私权逐渐让渡,用户在媒介接触过程中留下的数字痕迹,成为媒体实现算法推荐的数据支撑,信息安全问题成为媒介亟待解决的伦理困境。如何保护数据、如何评估风险、如何防止数据泄露、如何保护用户隐私等都亟待完善。

在当下用户数据化生存的网络世界中,用户不得不让渡自己的隐私来换取权利的同时还面临数据泄露后被二次利用的危险。林更新病历泄露、对德阳女医生的曝光等都表明隐私保护成为新闻媒体的一大难题。2019年6月底,Spotify就因过度收集数据引发争议。隐私坍塌的背后,也正是当前被遗忘权难以保障的无奈现状。正如福柯所说:“我们的社会不是奇观社会,而是监视社会。”[14]智媒时代背景下,个人隐私数据是享受技术福利的根本,因此就难以避免对用户隐私的侵犯。同时,目前大部分应用软件存在的“霸王条款”,不注册、不同意使用用户数据则无法使用软件,加剧了对用户隐私的侵犯。如何平衡用户的信息安全与保障用户的体验与传播效果,是新闻传播业亟待解决的问题。

(二)职业退场危机:机进人退,新闻工作者的角色让渡

1.从“舰队街”到“硅谷”,传统媒体沦为内容供应者

传统新闻生产主要由人工采写,耗时长且流程繁杂。当前,人工智能与算法技术渗透到新闻生产流程的每一个环节。如:大数据技术支撑着受众前馈的生成;传感器拓展了新闻采集的维度,实现了多元素材的及时采集;机器写作依托大数据技术,通过预先设定的算法程序,对数据进行快速抓取、分析并生成新闻文本,推动新闻采写高效化,加快了新闻产出的效率。通过人机协同的形式,人工智能与算法技术精准重塑新闻生产模式,提高了新闻的时效性和精准性,新闻业务实践的全链条正在逐步由智能技术所重塑。

借助于人工智能的发展,资本逐渐入侵新闻传播领域,社交媒体逐渐成为阅读新闻的平台。技术和资本对新闻行业的冲击,实质上是从“舰队街”转向“硅谷”的新闻主导权的转移。而传统媒体为了寻求渠道,不得不高度依赖平台,从而沦为平台的内容供应者,新闻业也将被边缘化。但在挖掘有效新闻线索方面,人工智能的有效性并不高。一方面,机器写作已经自动化、常规化,局限于特定题材和模板,并不具备人类的思考能力和判断能力,其生产的新闻产品仅仅是信息的简单堆砌,难以在“深度”报道与创造力上媲美人类。另一方面,机器难以捕捉和分析相对复杂的事实与事实之间的关联,也难以挖掘事实背后的因果逻辑进行价值判断,因此也就难以超越事实的表象。与机器相比,职业媒体人的优势不仅体现在其价值判断和专业阐释能力上,还体现在文字表达上。信息的机械化、模 式化生产弱化了记者的主观表达和诉求,导致新闻内容的浅层化、同质化,缺乏深度思考与价值判断,这使得本应有思想、有情感的报道沦为冷冰冰的数字代码,丢弃了温度和本真,也就无法与公众产生内心共鸣。

2.从“社会公器”到“盈利机构”,把关标准异化,舆论引导难度增加

技术消解着把关权力,舆论引导难度增强。人工智能的应用虽然提高了把关的精准性,但算法技术同时也在消解着新闻从业者的把关权力。与过去由专业的媒介工作者担任的传统人工把关不同,依托于机器算法的智能把关使得专业把关人的功能弱化,也使得新闻价值规律让位于用户兴趣,传统的议程设置者和新闻把关人让位于算法程序。而具有商业性质的算法推荐把关标准,会使媒体机构从“社会公器”滑向“盈利机构”,假新闻、标题党、后真相等问题层出不穷,媒体权威性与公信力大大降低,舆论引导能力降低。此外人工智能基于算法对内容的审查更多是迎合用户喜好,其背后隐含的偏见和歧视在将用户困于信息茧房之时,也损害了新闻媒体作为“社会公器”的形象。基于自身兴趣的算法把关将用户囿于自己建构的茧房中,减少了对公共事务的关注与参与,社会被割裂为各种细分群体,无法形成沟通与交流,也使得舆论引导难度增加。

(三)价值坐标游移:算法偏见对新闻专业地位的挑战

如上文所述,算法权力对新闻工作者的内容生产、把关标准造成威胁,长此以往,算法权力甚至对整个新闻业的价值坐标与导向产生影响,比如目前所存在的算法偏见对新闻专业主义的挑战。算法偏见其实是人工智能制造下隐藏的一种偏见。算法看上去是客观、公正的,但事实上它也隐藏着偏见。由于人工智能是学习人类过往经验而形成的智能化机器,所以本身带有隐藏着的群体固化、标签化、模板化,造成对某些报道群体的污名化和倾向性报道。相较而言,传统的传播效果研究更关注传播内容本身对人的影响,传播政治经济学派更强调关注传播背后的权力中心,算法推荐形成的是批判学派所言的“假意识”,政治与经济组织仍处于权力中心,表面理性的数据背后隐藏着权力结构。算法推荐中所满足的用户需求沦为人为构建的“假意识”而存在,“把关”后移,新闻业地位削弱。另一方面,机器借助大数据、算法程序实现新闻信息迅速生成,提高新闻生产效率的同时却消解了媒体的价值引导力。量化算法动摇了新闻的价值坐标,流量至上的逻辑驱使新闻的专业性更难坚守,媒体权威性在一定程度上被消解。

正如英国学者斯科特·拉什(Scott Lash)所说,在一个媒体和代码无处不在的社会,权力越来越存在于算法之中。[15]个性化分发的应用使得内容分发的权力由编辑转向了算法,而以“用户为中心”的算法分发更多是以“点击量”“浏览量”等作为新闻价值的终极考量,极容易造成假新闻、谣言、低俗内容的大量传播,真正有价值的新闻却被隐藏在算法的黑箱中,这是对新闻专业地位的挑战与践踏。在“一切皆可量化”的逻辑思维下,算法只会根据新闻的阅读点击率去判断新闻价值,与传统新闻专业主义价值观相悖,更与新闻从业者本身所肩负的人文关怀、社会告知与权力监督等使命相悖,使得传统意义上新闻的专业地位产生动摇。

(四)价值导向缺失:隐藏的技术权力中心加剧不平等

除了对一般用户、新闻工作者、新闻业造成威胁之外,对社会现状而言,资本把控算法技术,这种隐藏的技术权力中心也加剧了社会上的不平等现象。算法和大数据的迅速发展使得新闻分发更加精确,实现了尼葛洛庞帝口中“我的日报”的预言。具体而言,算法通过对数据的收集、清洗、分析能够精准定位用户画像,推荐用户感兴趣的信息,增强用户黏性。例如今日头条的算法分发机制精确定位了用户喜好。在智能技术出现之前,专业媒体或权威机构是新闻传播领域的显性权力中心,而技术赋权使得集权式传播格局开始向分权式转变,但这并不意味着人工智能时代的传播格局不再受权力宰制。掌握技术或数据的背后组织力量已成为新的权力中心。大数据和AI时代也成就了诸如微软、谷歌、腾讯、阿里等一大批超国家实体,它们的用户遍布全球,对数据和算法的控制力在某些领域甚至超越了不少主权国家,是AI时代不可小觑的算法权力新贵,拥有强大的支配力。[16]受众的数据画像、新闻分发的机制、新闻搜索结果的呈现等均可被其掌控,且这种掌控更为隐蔽和广泛,这对新闻伦理的规范和新闻行业的规制提出了新的难题。出于商业考量,企业的算法一般是非公开的,这就形成了算法黑箱,算法所包含的一些歧视和偏见很可能成为企业发展自身利益的工具,掌握数据技术的企业和个人成为新的权力中心,形成了数据霸权,引发数字独裁。长此以往,将不利于构建媒介与用户之间的信任关系,加剧社会不平等现象。


(配图源自网络



04

算法权力的规制

(一)培养算法工作者和用户的素养,从源头上保障隐私权利

算法权力主体对大量信息的掌握会导致用户失去隐私和主体性价值。[17]正如舍恩伯格在《删除:大数据的取舍之道》中所言:“在今天这个时代,遗忘成为例外,记忆成为常态,人们住进了数字化的圆形监狱。[18]隐私坍塌的背后,也正是当前被遗忘权难以保障的无奈现状。技术本身是中性的,没有偏见,但研发技术的人有。算法背后的“打工人”、资本和科技巨头等都不是中性的。过度的算法权力与算法背后的“人”的素质密切相关。他们对于这一新兴技术及其所产生的影响缺乏全面且理性的认识,大多是为了完成工作任务或者追求经济效益。同时,为了迎合受众喜好,算法软件的传播内容趋向大众化、平民化。面对此种情形,算法及平台工作人员应该提高自身素养,理性看待算法权力,合理运用智能力量,在设计算法时遵循一定的伦理常识。对于算法从业者来说,应自觉遵守国家、行业和平台层面的规范和标准,坚守伦理道德和价值观念,在法律和道德的指导下设计自己的软件和程序。从业者还应意识到算法软件对社会的影响和媒体人的社会责任,明确算法权力的度在哪里,积极打造优质、富有正能量的算法软件。互联网是有记忆的,对于普通用户而言,应该注意个人信息的保护,不随意将涉及个人隐私的信息(如身份证号、银行卡号等)上传到算法软件上,及时删除浏览记录,进行相应的隐私设置,发现隐私权等合法权益受侵害要及时运用法律武器保护自己。需要明确的是,“被遗忘权”是一项法定权利,而且是一种值得受到法定保护的价值或利益,权利主体有权要求数据存储方删除自己或他人放置到互联网上的、令其尴尬的照片或者其他数据信息,除非数据的保存和使用为法律规定的维持公共利益的正常运作所必需。[19]同时,用户应培养积极健康的内容品位,以之取代过度的猎奇心理、低级趣味和窥视欲,提升个人的媒介素养,自觉抵制低俗的推荐内容,对算法软件进行监督,共同营造张弛有度、和谐向上的网络环境。

(二)培养新型人才,拓展多维视野,在新闻生产上占据优势

相较于算法工作人员,媒体及行业工作人员同时还面对着人工智能时代带来的退场危机,这要求他们以更加包容、开放和创新的心态面对算法权力,同时提高自身媒介素养,为传统媒体和算法平台提供最优质的内容生产。我们应该引进和培养更多兼具专业性知识和互联网思维的新型人才,做到持续的内容深耕,保持主流媒体的竞争力和活力。应该提倡和鼓励新闻从业者“一专多能”,但是“多能”的前提是“一专”。能够在深挖题材、增加报道深度的基础上,发挥互联网思维的新闻从业者,才是未来推动媒介融合发展的必要力量。虽说国家已出台政策加强校企合作项目,高校也开设了人工智能等相关专业,但同时具备人工智能技术和新闻传播知识的人才仍十分匮乏,且从业人员素质参差不齐。因此,在强人工智能时代到来之前,新闻媒体人和算法工作者还需做好相应的知识储备和实践基础,以核心竞争力推动人工智能对新闻媒体的发展,以更高的知识素养和道德素养应对未来的挑战。

此外,要实现从内容的“搬运”到产品的“创造”的思维转变。当前,受众主体地位进一步凸显。在新闻生产方面,应摒弃以往内容“搬运工”的思维,树立用户、产品为中心的思维,以受众为中心,向垂直领域纵向挖掘,满足用户个性化、精细化的信息需求,倡导符合受众习惯的定制化、垂直化、互动式的服务理念,生产出适合不同媒介特性的新闻产品。如央视推出的《主播说联播》栏目,通过接地气的语言表达方式对热点新闻进行即时解读,长话短说、官话民说、硬话软说,正是媒介融合发展中“用户思维”的体现。值得一提的是,之前所描述的“传统媒体沦为内容供应者”现象,大部分算法软件的做法是直接将内容移植到新技术上,这仅仅是简单的物理层面的相加。而未来,媒体需要以技术为支撑,建立高效的媒体运作平台,充分运用人工智能和算法技术,实现“人工智能+媒体”的双赢。

(三)明确双重把关标准,让新闻业回归价值理性

克里斯托弗·斯坦纳在《算法帝国》一书中指出,在未来的发展中,我们将面对一个如何划定效用和威胁之界限的任务。[20]在这个信息爆炸的时代,我们的眼前充斥着各种信息,引导主流价值观的优质原创内容依然是媒体必须始终把握的关键,亦是在迭代迅速、群雄逐鹿的注意力经济时代脱颖而出的核心竞争优势。同时在内容生产领域应坚守和深化作为主流声源的公共服务价值,以冷静客观的专业视角形成合理化融媒报道体系,重视打造新闻传播的建设性维度。疫情期间,主流媒体多次深入一线并访问专家,在鲜活事实和权威解读的基础上进行融媒报道,如南方周末疫情系列深度专访、南风窗聚焦国际疫情形势专栏、财新特稿专栏“封面”等皆是优秀作品代表。他们以深刻笔触还原现实并挖掘公共传播价值,实现优质融媒作品生产,实现了受众注意力和社会影响力的双重回归。

算法把关和人工把关都是目前存在的把关方式,现行的人工智能技术可以为新闻核查服务。在可以预见的未来,越来越多的高端人工智能与算法技术将会参与到新闻的核查工作中,实现“人工+算法”把关,极大减轻事实核查环节的工作量,可以从源头上防止虚假新闻出现,提高媒体发挥作用的公信力。比如中国第一个媒体人工智能平台——新华社“媒体大脑”具有人脸核查功能,能有效地检验新闻的真实性。人工智能与算法技术还可以进行版权审查、识别假新闻。对大数据的汇总、分析能力以及算法能力使得智能媒体可以针对信息进行溯本追源,包括对图像和声音视频进行“一站式”审核。我们既要紧抓算法把关的智能红利,为媒体发展赋能,也应洞察技术弊病,做好算法把关的掌舵者,让新闻业回归价值理性,让算法为新闻业更好发展助力。算法把关与新闻业不应该呈现出零和博弈的局面,而应在建立相关制度、规范算法推荐内容基础上,发挥好算法把关的作用,实现“人工+算法”把关才能实现“人工智能+传媒”的双赢。

(四)明确算法问责机制,维护社会正当性

正当性(legitimacy)概念由韦伯提出,经Parsons(1960)引入组织社会学中,成为研究组织形成、企业经营和社会接受的概念工具。它主要用来表明组织竞争不仅仅是为了争夺资源和顾客,更需要争取政治权力支持和制度正当性。[21]算法的设计过程是不透明的,在研发过程中存在黑箱操作的空间和可能,人们在很大程度上只能被动接受算法运行的结果。[22]此外,算法运行具有隐蔽性、主动性和实时性的特征,根据读取客户端的用户信息(包括浏览记录、个人喜好甚至日常语音聊天内容等)能够在用户不知不觉中选取相关内容推送“猜你喜欢”。它并不是在用户要求下发挥其作用与功能,而是本身具有主动性,能够主动去进行人与信息的连接,这样更容易存在隐蔽性运行风险。

我国法律对于运用算法所产生的违法行为的一系列问题存在较大争议,目前并没有专门的法律法规来规范此类行为。为此,需要建立相应的算法问责机制为算法权力套上“制度的笼子”。只有明确好相关问题的责任认定与事后规制问题才能够对算法权力的无限制扩张起到震慑作用。对于平台而言,应该坚守平台责任,对国家或行业层面的管理规范进行细化,制定具有可操作性的平台标准,从而真正起到算法的实质性作用。

建立算法的问责机制以保证算法决策的正当性成为学界和业界共识,使算法对设计者、用户和所有受算法结果影响的人透明被很多学者认为是建立算法问责机制的前提。[23]正是因为算法设计存在黑箱运作的风险,国家需要加强对算法研制方面的立法,加大有关推动算法可解释性的政策供给力度,增加算法的可解释性,确保算法设计回应社会的关切和民众的需求,建立透明化的算法运行机制,让“那些对结果抱有怀疑的人可以掀开‘引擎盖子’看个究竟”。[24]今日头条总裁张一鸣曾公开算法的运行模型就是最好的例证。只有让“黑箱子”前面的幕布打开一部分,让政府或其他监管人员能够深入其中了解其运行模型,才能真正维护社会正当性,减少社会不平等现象。


(配图源自网络


05

结语


近年来,人工智能与算法的发展普及,推动了传播者传播能力的提高,促进了受众信息需求的满足,为新闻传播注入了新的活力,带来了生产、媒体机构等多方面的革新,但也出现了一系列挑战。算法权力区别于其他传统意义上的权力,是人工智能时代下的产物,它并不是自发形成的,而是算法背后的组织为了追求经济利益或政治目的在用户赋予和需求中逐渐汇聚而成。随着人工智能与算法技术的进一步成熟,算法权力得到进一步扩张,算法背后的组织成为隐藏的权力中心,有可能通过技术垄断和数据霸权实现经济或政治目的。算法权力的扩张可能会导致隐私权等媒介伦理困境、新闻职业工作者退场危机、价值坐标游移和社会价值导向缺失等一系列运行隐患。智媒时代的到来不可避免,我们不能用非黑即白的眼光去看待算法权力。若在源头、新闻生产、新闻把关以及责任认定与事后问责机制等方面进行联合规制,可以最大限度地消除其弊端,发挥其积极作用,在满足人们需求的同时促进新技术产业的发展。当然,制度规范的建立一定要跟上技术发展的脚步,媒体也需保持自身对世界的洞察力和判断力,真正实现人机协同。




请上下滑动查看参考文献全文


参考文献:

[1]宋岩.关于下架侵害用户权益APP名单的通报[EB/OL].http://www.gov.cn/xinwen/ 2021-05/15/content_5606719.htm.

[2]赵双阁,牛文静.人工智能视域下新闻教育反思与重构[J].河北经贸大学学报(综合版),2019(3):80-87.

[3]史安斌,杨轶.硅谷与舰队街:化敌为友还是亦敌亦友[J].青年记者,2015(22):83-84.

[4]王吉伟.互联网技术普及的泛滥,未来会给社会管理造成什么恶果?[EB/OL].https://www.zhihu.com/question/29937927/answer/1597853275.

[5]宛清.什么是算法新闻?[EB/OL].https://www.zhihu.com/question/330899714.

[6]姜红,鲁曼.重塑“媒介”:行动者网络中的新闻“算法”[J].新闻记者,2017(4):26-32.

[7]梁金凤,邱晶.人工智能对新闻生产的影响及趋势研究[J].新闻研究导刊,2017(11):64.

[8]郭庆光.传播学教程(第二版)[M].北京:中国人民大学出版社,2011:30.

[9]喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(5):5-12.

[10]石义彬,吴鼎铭.论媒介形态演进与话语权力的关系变迁——以话语权为研究视角[J].新闻爱好者,2013(5):4-7.

[11]郑戈.算法的法律与法律的算法[J].中国法律评论,2018(2):66-85.

[12][美]马克斯·韦伯.经济与社会(上卷)[M].林荣远,译.北京:商务印书馆,2006:81.

[13]郭哲.反思算法权力[J].法学评论,2020(6):33-41.

[14][法]米歇尔·福柯.规训与惩罚:监狱的诞生[M].刘北成,杨远婴,译.北京:生活·读书·新知三联书店,1999:338-354.

[15]Lash,S.(2007).Power after hegemony:Cultural studies in mutation?Theory,Culture & Society,24(3):55-78.

[16]肖冬梅.“后真相”背后的算法权力及其公法规制路径[J].行政法学研究,2020(4):3-17.

[17]张爱军,李圆.人工智能时代的算法权力:逻辑、风险及规制[J].河海大学学报(哲学社会科学版),2019(6):18-24,109.

[18][英]维克托·迈尔-舍恩伯格.删除:大数据时代的取舍之道[M].袁杰,译.杭州:浙江人民出版社,2013:21.

[19]吴飞.名词定义试拟:被遗忘权(Right to Be Forgotten)[J].新闻与传播研究,2014(7):13-16.

[20]喻国明.为算法植入价值观[N].光明日报,2018-9-21(11).

[21]DiMaggio,P.J.& Powell,W.W.(1983).The iron cage revisited:Institutional isomorphism and collective rationality in organizational fields.American Sociological Review,48(2):147-160.

[22]陈鹏.算法的权力和权力的算法[J].探索,2019(4):182-192.

[23]师文,陈昌凤.新闻专业性、算法与权力、信息价值观:2018全球智能媒体研究综述[J].全球传媒学刊,2019(1):82-95.

[24][美]弗兰克·帕斯奎尔.黑箱社会——控制金钱和信息的数据法则[M].赵亚男,译.北京:中信出版社,2015:262.



[责任编辑:华晓红]



end


本刊声明


本刊对所有来稿概不收取版面费、审稿费等任何费用,亦未委托任何中介机构或个人收费组稿。


严禁一稿多投,如由于作者原因造成一稿两刊或多刊的,作者须承担全部责任和损失,本刊保留追究作者法律责任的权利。





CSSCI扩展版来源期刊

RCCSE中国核心学术期刊

全国百强社科学报

全国地方高校名刊


未来传播 传播未来

   唯一投稿网址:

http://zjcmxyxb.paperopen.com/

联系电话

0571-86832092,86832735



往期推荐:

论新世纪以来新闻生产主体的结构变迁

中国文化软实力的实证评估与模拟预测

重塑新闻:美国平台新闻业发展现状、趋势及批判

概念与典范更新:近期两本SSCI新闻传播学期刊研究创新专辑剖析



点击“阅读原文”可下载查看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存