从社会责任视角看企业算法治理

    |     2022年12月2日   |   2022年, 客世原创   |     评论已关闭   |    821

随着互联网信息技术的蓬勃发展,企业运用数据、算法、算力,可以迅速获知用户的个人信息和消费轨迹,对市场行情做出精准判断。算法技术的应用促进了企业利益增长,但也引发了一系列企业社会责任缺失与异化问题。对于用户来说,基于用户行为的推荐与过滤算法导致的个性化排名和差异化定价侵占了消费者福利,其提供的碎片定制化信息让用户身处“信息茧房”而不自知。对于企业竞争业态来说,企业可以通过算法排斥新进场者,压制竞争对手发展,实现垄断。同时企业之间也可以通过算法实现共谋,破坏市场环境。因此,针对算法的监管迫在眉睫,关于算法治理的相关制度法规不断涌现。

通过对算法治理的相关文献进行梳理,可以整理得到算法治理的四个重点:算法黑箱、算法歧视、算法霸权和算法共谋。从企业社会责任的角度出发,本文对《互联网信息服务算法推荐管理规定》(以下简称《算法规定》)进行详细解读,以期为未来算法治理探寻可行的发展方向。

一、算法和算法治理

算法是一系列解决问题的清晰指令,代表着用系统的方法描述解决问题的策略机制以及具体的操作程序。当前,算法已经渗透到社会系统的方方面面,与企业、政府、消费者无不息息相关。美团、淘宝等平台型企业采用各种算法分析数据这一新型生产要素,以帮助企业完成大部分运营工作并获取利润,在运营过程中也利用不断更新的数据优化算法实现对人力资源的节省。例如,用户在抖音发布短视频后平台会为每个视频提供一个初始流量池,并根据曝光数据结合账号分值进行叠加推荐。抖音短视频推荐算法机制抵制了垃圾视频行业的发展,传播优质内容,带来更好的用户体验;在增强用户粘性的同时,也给企业本身带来了巨大流量和多种获利方式,例如广告投放、“DOU+”、直播音浪分成、第三方引流变现等。

政府也同样重视对算法的应用,针对一系列特定政务场景进行成果分析、结果判别、行动对策判断和预警信息预测。例如,上海市浦东新区卫生局在微软SQL Server的帮助下,利用大数据和算法建立当地居民健康档案和电子病历数据库,全面检测疫情,并通过集成疾病监测快速进行响应,推动医疗信息化的新发展。

对于数字时代的企业来说,算法不仅代表数字化的竞争力,还体现企业价值观和社会责任担当。算法连接了企业内部的员工、开发者、高管,以及企业外部的消费者、客户、供应商、市场监管者等,各类主体在应用算法时很可能存在利益冲突的情况。同时,企业在应用算法时还需要考虑数据安全性等问题。由此,算法治理概念应运而生,被指向企业在经营管理过程中构建算法和执行时遵循的规则集合,这些规则集合明确了此过程中的角色任务、工作责任、执行流程、监管法规等,保证了多方利益的协调以及企业责任的遵守。目前,算法治理已成为数字时代突出的研究议题,也是企业转型发展的引领性思维。

二、算法治理的重点

企业在经营管理过程中对算法的滥用导致了企业社会责任缺失与异化问题的出现。一方面,算法在执行过程中的不确定性导致其结果难以预测,最终则可能导致用户利益受损;这类算法问题引发的企业社会责任缺失,担责主体很难追溯到算法开发企业。例如,2022年9月初成都在全市范围内开展全员核酸检测,面对两千多万人的检测需求,成都“天府健康通”的核酸检测系统崩溃。专家认为,核酸检测系统崩溃的技术原因很多,网络带宽、云服务稳定性和资源扩展性、应用系统设计、数据库性能以及运维能力都可能影响系统服务,其中最主要的原因是核酸检测系统对短时超大并发量预估不足,超出系统承载能力,导致检测系统出现访问异常。

另一方面,企业在算法开发建模中存在技术恶性,以自身利益最大化为目的嵌入企业不道德基因导致用户利益受损,担责主体为企业本身。这一类问题主要体现为算法黑箱、算法歧视、算法霸权以及算法共谋,是算法治理的重点所在。

1. 算法黑箱

算法黑箱是指算法在设计开发过程中的不透明性。企业社会责任的重要理念之一就是企业所生产的产品和服务需要对利益相关方保持较高的透明度,在高度透明的企业运营管理空间下创造一个与利益相关方信息共享和价值互惠的信任环境,最终促进企业与社会环境的和谐共生。但从知识产权的角度来说,算法实质上是企业的核心技术之一,具有高度的商业机密性和复杂性,即使是企业内部的研发团队也未必完全掌握算法决策的可能影响与后果。相应地,社会公众与企业算法开发人员之间的知识差距过大和信息不对称使其更加难以理解算法背后的原理和命令,利益相关方也难以清晰的观察企业在设计开发算法过程中所嵌入的企业不道德基因。因此,企业能利用算法的“黑箱”属性获取利益最大化,并在算法的技术外衣下掩盖自身的企业社会责任缺失行为,甚至可能侵犯公众知情权和自主决策权,威胁个人信息安全。

例如美团、饿了么等外卖平台的用户消费隐私泄露,Uber价格算法中的公平性和透明性问题,搜索引擎的竞价排名等,背后都有算法黑箱的因素存在。专就搜索引擎竞价排名来讲,这是一种按用户点击效果付费的网络推广方式,任何企业和个人只要向搜索引擎运营商投入一定的广告费,就能获得相应的网站搜索结果排名位置。付费越高,排名越靠前,获得的点击量可能也就越多。由于算法的黑箱属性,搜索竞价排名机制往往存在付费竞价权重过高、商业推广标识不清等问题,用户无法分辨搜索排名的真实性和有效性,因而易于被误导,导致类似于“魏则西事件”的发生,引发了社会信任危机。

2. 算法歧视

在经济方面,算法歧视是指企业基于算法自动捕捉各类用户的个性化信息,根据用户所处区域、消费偏好、收入阶层等形成不同的用户画像,最终对用户采取的个性化定价行为。该个性化定价机制不仅侵犯了消费者的个人信息自主权,更侵占了消费者福利,将原本属于消费者的剩余转移至企业。例如淘宝、滴滴、携程等平台型企业通过算法进行个性化、动态化定价的“杀熟”行为使用户深受其害。而针对亚马逊平台的调查则显示,有40%的商家在产品销售期内利用算法技术形成的个性化用户画像,至少更改了20次产品价格,形成“千人千价”的局面。

在社会方面,算法歧视主要是指由算法伦理引发的性别和种族偏见。例如美国部分法院运用的犯罪矫正替代性制裁分析管理系统(COMPAS)算法判定的黑人犯罪的概率远远高于白人,但事实并非如此,存在明显的种族歧视。算法歧视使得算法自动生成的结果会产生较大的误差,难以保证结果的公平公正,导致算法决策破坏了社会公正。

3. 算法霸权

算法霸权是指算法大规模应用并嵌入到企业决策的利益分配过程中,由于不同主体的差异化利益诉求而产生的算法权力属性。例如企业利用算法对用户的历史行为数据和各项信息进行收集、整理、分类,进一步识别分析用户的偏好,精准推送相关信息诱导用户进行消费。在新闻媒体平台,大数据中多样化的信息被算法带来的定制化信息埋没,导致用户身处“信息茧房”而不自知,加剧社会撕裂的可能性。

4. 算法共谋

算法共谋是指企业利用算法自动收集对手的商业数据及市场的动态价格信息,以价格合谋来实施垄断行为,降低消费者的福利水平。例如淘宝等交易平台中的商家用户可以利用平台提供的统一动态定价算法,较为准确地判断其余商家的价格变化,形成一致性的定价决策,实现商家间的暗中合谋,破坏消费者福利。因此,算法仍处于被社会不断认知与接受的阶段,社会信任对于应用算法的企业发展至关重要。

三、《算法规定》的治理内容

企业社会责任治理的本质是在企业多元利益相关方打造的公共治理场景下,各类治理主体依据一定的制度法规,共同实施企业社会责任治理机制,对企业的投机行为进行约束,规范企业的社会责任认知和管理实践。虽然算法在开发设计过程中被赋予了企业的价值导向,但在运营过程中算法的推理和决策行为不再被人所控制,能够独立自主地配置经济资源和社会资源,成为一种具备社会权利的类社会主体,需要承担相应的社会责任。因此,区别于传统的以企业为治理对象的企业社会责任治理,以算法为治理对象的算法治理成为由数字信息技术驱动的互联网人工智能企业和平台型企业乃至相应社会主体所面临的全新企业社会责任内容维度。从企业社会责任视角出发,通过对《算法规定》进行分析,可以明确和创新企业社会责任组织载体、治理方法和算法治理范式,阐述算法治理思维,从而提升企业的管理运营能力。

1. 企业社会责任组织载体

在数字化全面发展下,共享经济、平台经济等数字经济成为新的经济形态。企业社会责任组织载体也从传统企业变为由数字信息技术驱动的互联网人工智能企业和平台型企业。《算法规定》明确了主体权责,在算法设计、运行和应用的各个阶段以全周期视角构建算法合规体系。同时,企业在算法设计开发过程中需要对其产生的社会影响进行评估和管控,明确算法治理的价值取向,完善向上向善的算法模型。

具体体现为:1)算法推荐服务提供者应当落实算法安全主体责任,建立健全算法机制机理审核等管理制度和技术措施,制定并公开算法推荐服务相关规则,配备专业人员和技术支撑。2)定期审核、评估、验证算法机制机理、模型、数据和应用结果,禁用诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。3)制定完善服务规范,依法提供服务并接受社会监督,设置便捷有效的用户申诉和公众投诉、举报入口。4)提供算法推荐服务应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。

2. 企业社会责任治理方法

对于传统企业,用户更加关注的是企业最终提供的产品和服务。而对由数字信息技术驱动的互联网人工智能企业和平台型企业,用户更加关注其在算法开发应用过程中的负责任程度。针对由于企业社会责任缺失和异化产生的算法黑箱、算法歧视、算法霸权和算法共谋等问题,《算法规定》采取了一系列治理方法。

具体体现为:1)增加算法透明度和可解释性,以显著方式告知用户其提供算法推荐服务的情况,给予用户算法知情权,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等,最大程度平衡算法透明度和企业运用算法的商业机密性,尽可能避免“算法黑箱”问题的出现。例如,抖音的《隐私政策》在“个性化推荐”以及“自主订阅及个性化内容”中向用户告知个性化推荐服务的运行机制以及实现控制的方式,一定程度上解释了推荐算法的原理。2)保护消费者公平交易的权利,不得根据消费者的偏好、交易习惯等特征利用算法在交易价格等交易条件上实施“大数据杀熟”等违法行为,消除算法歧视。3)加强信息安全管理、用户模型和用户标签管理以及算法推荐服务页面生态管理,赋予用户退出个性化推荐的权利,向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能,给予用户算法选择权;禁止利用算法进行屏蔽信息、过度推荐、控制热搜或精选等干预信息呈现的“信息茧房”行为。以京东为例,除个性化内容推荐之外,还增添了个性化广告推荐,并在其中设置详细的标签列表;用户可以自主选择是否关闭个性化广告推荐或者在细分标签里增加或者删除感兴趣的类别,拥有了更细化的选择权和拒绝权,为其他算法推荐企业提供了参照。4)《算法规定》明确了针对老年人、未成年人和依赖算法调度工作的劳动者等特殊群体的算法保护条款,要求算法推荐服务提供者依法开设电信诈骗信息的检测、识别和处置,方便老年人安全使用算法推荐服务;禁止向未成年人推送可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络;保护劳动者取得劳动报酬、休息休假等合法权益,为算法霸权造成的困在系统里的劳动者(如外卖骑手)的权益保护提供了明确的法律依据。例如,抖音在《隐私政策》中向用户告知平台如何保护未成年人,明确未成年人通用条款,并设置未成年人保护相关功能,如儿童/青少年模式、时间锁、亲子平台等。5)禁止算法推荐服务提供者利用算法对其他竞争企业进行不合理限制;禁止妨碍、破坏其它竞争企业合法提供的互联网信息服务正常运行;禁止算法共谋带来的垄断和不正当竞争行为。

3. 企业算法治理范式

企业本质上是经济与社会复合属性主导的微观组织,其利益主体不仅有投资者,还包括员工、政府、客户、供应商等经济和社会性的多元利益相关方,也要承担相应的社会责任。由于算法具备社会权利从而嵌入并影响社会,区别于传统上基于企业的个体式社会责任治理,算法治理的主体场域处于算法应用与渗透的社会场域之中,衍生出多边式的平台生态化治理。有鉴于此,《算法规定》提出了一种“政府—企业—社会组织”等利益相关方协同治理的算法治理范式。

首先,政府网信部门协同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度、算法备案制度和安全评估制度,构建平台算法全生命周期问责机制,明确责任主体及违反相关规定的法律责任,赋予企业社会责任治理制度的合法性。其次,作为算法推荐服务提供者的企业应强化责任意识,遵守法律法规,承担算法安全的主体责任。同时,设置基于法律和道德双重依据的定期评估机制,明确数据收集、使用、开放的制度以及算法在各个应用场景下的决策过程和最终结果带来的社会影响和经济影响。在算法设计开发过程中始终坚持向上向善、公开透明、公平公正,避免算法歧视、算法黑箱、算法共谋等负面问题的出现。最后,对社会组织而言,社会组织和个人有权对算法和算法责任主体进行监管。《算法规定》鼓励相关行业组织加强行业自律,建立健全行业标准、行业准则和自律管理制度,督促指导算法推荐服务提供者制定完善服务规范、依法提供服务并接受社会监督。

四、总结与展望

作为企业社会责任组织载体,由数字信息技术驱动的互联网人工智能企业和平台型企业在开发算法时应审慎考量主观意愿、商业目标和算法的实际用途,遵守法律法规,降低可能带来的社会运行的不稳定性和风险;同时,运用“政府—企业—社会组织”等利益相关方协同治理的算法治理范式,在《算法规定》的指导下,解决算法黑箱、算法歧视、算法霸权和算法共谋等企业社会责任缺失和异化问题,推动企业社会责任生态系统的建立和升级。

在算法治理的未来发展中,可以为算法透明制定标准制度,建立代码开源平台,鼓励适当的代码开源。对于算法黑箱带来的巨大社会影响,应赋予公众一定的知情权。同时,也应把握好算法透明性的尺度,避免过度披露对企业商业技术核心和创新能力造成影响。此外,还应建立针对算法的权威第三方评价体系,对算法设计、开发和运行过程中存在的问题和可能带来的负面影响进行评估,增强公众和政府等监管部门对算法的认知的判定依据。

 

作者:郭红丽 温若钰,来自厦门大学经济学院

本文刊载于《客户世界》2022年11月刊。

转载请注明来源:从社会责任视角看企业算法治理

相关文章

噢!评论已关闭。