在平台社会和智慧媒体的浪潮中,新闻传播学科面临着审计方法体系的引入和本土化的机遇。 智能和算法的技术操作真的是不透明和不可知的,还是只是记者和研究人员回避难题的挡箭牌,还是政策制定者无所作为的免责声明?经典社会科学研究中的审计研究有可能成为解决这个问题的起点。 本文试图介绍审计研究的方法,并分析其在新闻与传播学科中的地位。
审计研究的跨学科发展轨迹
审计研究是指识别社会中系统性偏见的准实验方法。 偏见是一个中性词,包括偏见和歧视,其中偏见是态度层面的情感偏见,而歧视是基于偏见的行为偏见。
审计起源于20世纪中叶的英国和美国,在社会科学研究中已经使用了60多年,早期的审计侧重于住房和就业方面的系统性偏见。 在英国,第一次尝试是在英联邦国家移民委员会主持的住房审计研究中进行的。 1968 年,为了评估《种族关系法》的社会影响,一些部门合作对三个群体在住房、就业和服务方面的歧视进行了审计:以英语为母语的白人、白人移民和黑人求职者。 “审计”此时被描述为“情境测试”,以区别于更复杂的调查、实验室实验等方法。 在美国,审计研究是在民权运动期间出现的。 2024年,美国住房和城市发展部进行了第一次大规模的住房审计。 该部门与促进住房公平的非营利组织合作,在20个城市对住房条件进行了3,264项审计研究。 这些调查结果揭示了住房销售和租赁市场对黑人的歧视,这表现在对黑人的歧视性销售和租赁条款以及更高的交易经纪费用。
早期,审计研究是面对面进行的,但随着互联网在住房和就业方面的普及,审计研究开始通过电子邮件进行,通信审计逐渐形成。 研究人员还超越了对偏见的简单描述,更深入地探索了偏见的机制、意图和条件。 1969 年,世界上第一个通信审计出现在英国。 研究人员将256名申请人的简历应用于128个职位空缺,发现在英国出生的白人在现实生活中的招聘中比其他四组移民受到更有利的待遇,揭示了该国就业中的系统性种族歧视。 传统的审计研究侧重于种族和歧视等问题。 进入21世纪以来,审计研究的对象进一步扩大到医疗卫生和营销领域的偏见问题。
传统的审计研究蕴含着对社会公平和公共利益的关注,这与新闻业长期以来的价值规范和合法性话语不谋而合,因此审计结果成为新闻报道的重要课题。 近年来,平台和算法成为新的审计对象,这也加速了审计研究在社会科学和新闻传播研究中的跨学科融合。 记者和学者有意识或无意识地使用审计思想或方法来试图识别算法偏见,并发现决策者的立场、工程师的逻辑、用户习惯和社会偏见是如何嵌入到新的“技术-社会”链中的。
审计算法偏差
算法偏差是当前审计研究的重点。 算法是计算机为解决特定问题或实现明确目标而运行的一组指令和步骤。 利用审计方法系统地审查算法的结果偏差,又称算法审计,常用于检测算法中隐含的阶级、种族、性别偏见,分析算法与社会的互建关系。
算法审计的对象是不同类型算法与社会实践之间的相互作用。 我国《互联网信息服务算法推荐管理规定》将算法技术分为个性化推送、排序选择、检索过滤、调度决策、生成合成五大类。 前四种类型的算法主要涉及从现有数据和资源中挖掘、过滤、优化和调度信息生成合成算法用于生成新的文本和图像,例如 ChatGPT,在 2023 年初引起了热议。 在新闻传播领域,记者和学者综合运用审计方法,调查各种算法所蕴含的偏见及其社会后果,并将数据偏见、信息差距等问题纳入审计范围。
搜索过滤算法的审计研究是最常见的。 纽约大学的 Marina Frasnu 等人结合使用爬虫审计和非侵入式用户审计来审计 153 个国家/地区的图像搜索算法,以验证搜索算法中的性别偏见。 该论文发表在《美国国家科学院院刊》(PNAS)**上,揭示了偏见在社会、人工智能技术以及数字听众的多维互动中的循环扩散。 再比如,中国学者陈长峰和石温对国内主流搜索引擎的搜索进行了审计,发现搜索引擎与商业**之间的利益关系会导致偏见,挑战数字生态的公共性。
调度决策算法在社会上的采用和操作更加隐蔽,需要专业记者进行长期、系统的审计研究。 非营利性组织Propublica的调查性故事系列名为“机器偏见”,入围2024年普利策解释性新闻奖。 该报告发现,黑人被告在此过程中更有可能被误判,而白人被告更有可能被遗漏,这揭示了司法系统使用算法协助裁决的系统性偏见。
算法审计的方法可以归纳为五类。 首先是审计,分析平台源头,发现可能的程序错误和安全漏洞;第二种是爬虫审计,审计员向平台发送查询请求,观察数据结果第三种是非侵入式用户审计,邀请真实用户报告其与系统交互的结果,然后进行系统分析第四,第一次审计,利用计算机程序模拟用户观察算法的输出,可以简单理解为研究者使用机器人对算法系统进行实验;第五,众包审计,根据用户的意愿,直接干预用户的账户,收集数据进行审计。 然而,上述审计方法存在侵犯隐私、复制虚假信息等未解决的伦理问题,值得警惕。
定位审计研究
审计研究应该如何融入现有的新闻和传播学科?从实践、理论、方法三个方面进行分析。
在实践中,算法审计有可能成为一条独立的新闻报道线,扩大公共问题的报道空间。 例如,孙平等研究人员发现,算法平台对骑手、代驾司机等群体的数字劳动和情感劳动进行纪律约束。 包括《人物》杂志在内的多家新闻系统跟进,将算法偏见引入第一篇报道和公众视野,让数字劳工问题受到广泛关注。 自2024年起,“篮子计划”**持续聚焦算法系统中的弱势群体,讲述数据标注员、程序员等不同职业的故事。 另一个例子是数据报告“The Markup”,它通过获取基本数据集来研究平台技术公司的社会影响。
在理论上,审计研究拓展了数字新闻理论建构的思路,特别是为论证“透明”概念提供了理论和方法上的准备。 在大众**时代的新闻理论中,新闻报道区分事实和观点的“客观性”原则一直奉行,但始终面临无法实现的质疑和权力附庸的批评。 在专业内容(PGC)、用户内容(UGC)和算法内容(AGC)高度混合的后真相背景下,“客观性”原则受到前所未有的挑战。 一些学者建议用透明性取代客观性。 例如,比尔·科瓦奇(Bill Kovacs)和其他人认为,“使用核查,特别是透明度的概念,是解决偏见的最有效方法之一”。 越来越多的新闻正在采用透明的做法,例如在故事的末尾披露源数据,宣布人机协作是如何划分的。 利用审计方法,研究人员可以评估世界主流的透明度实践,并将透明度、可审计性、问责制等概念引入数字新闻研究,以拓展数字新闻的理论建构。
从方法论上讲,审计研究本质上是一种准实验方法,简单来说就是系统上的实验。 算法技术深度嵌入的互联网数字空间,既是信息记录空间,也是新的社会行动空间。 研究者可以在现有的社交平台和算法平台上根据研究目标构建实验场景和模拟实验条件,算法与人类行为的交互可能存在系统性偏差。 该方法具有成本低、外部效度高等优点。 因此,审计研究可以看作是数据化、智能化条件下实验方法的一种新发展。
综上所述,审计研究旨在实证检验社会中存在的系统性偏见,积累了丰富的案例和可行的方法。 审计研究有助于提高新闻质量,确保公信力,完善平台监管,提高公众媒体素养,促进相关学术研究。
本文是国家社科青年项目“人工智能条件下新闻生产边界重构与价值领导力研究”(19CXW008)的阶段性成果。
(作者单位:中国传媒大学新闻学院;中国传媒大学新闻学院调查统计研究所)。
作者:邱云谦、吴傲、张红茹 **《中国社会科学报》第2812期,2024年1月10日。