点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:冀翠萍
数字社会中的人与人、人与物、物与物之间的关系与活动产生了大量的数据,如何应对信息超载和海量数据的危机,“算法”作为一种技术力量,成为必然选择。以算法推荐、算法分析、算法决策等方式无缝接入社会生活、深度参与资源配置、拓展调整社会格局,已成为数字社会运行的底层逻辑。
“算法推荐”成为社会信息传播新范式。“算法”是互联网信息分发的重要工具,围绕“以用户为中心”的价值逻辑,把用户的喜好作为关键因素,通过数据、算法与算力之间的组合动态构建起信息供给与用户需求之间的个性化适配关系。这种精准对位的信息推荐,改变了以往粗放型的信息分发模式,适配了用户的个性化需求,使得用户的主体性得到充分发挥,增强了客户黏性,提升了社会信息的流动效率。但是,将“算法”作为信息推荐的模式会过滤掉多元信息,用户将被困于信息茧房中。
“算法分析”改变民众认知与生活逻辑。民众的生产生活在产生数据、记录数据,同时又被算法分析后的数据所改变。一方面,算法分析改变民众的认知逻辑。当前数字社会所积累的大数据以及在此之上的算法分析,使得商家可以根据以往市场销售、用户分布、用户兴趣点等对未来销售作出预判,进而有计划的安排生成和市场推广,在未来,用户对于商家来说是可被认知的;对于用户来说,算法分析能够以可视化的方式清晰呈现算法帮助规划的行车路线、交通堵塞点、预计到达时间,未来对于用户来说是可被认知的。民众在这样一些算法分析的形态下形成了预测未来的认知逻辑。另一方面,算法系统强大而高效,它通过不断纳入和完善影响因素来提高算法的准确性,用户慢慢接受并开始享受这种“定制化”生活方式,但同时却产生了“大数据杀熟”“困在算法里的外卖骑手”等算法偏见问题。
“算法决策”支撑政府社会治理的向度。算法与大数据被赋予提高治理的透明性、公平性、有效性等使命,一是算法决策辅助政府治理的精度。比如大数据算法辅助精准扶贫,地方政府采用建立人口基数、收入来源、健康状况、生产能力等多种要素构成的识别模型,做到贫困人口的精准识别。二是算法决策提升政府治理的效率。在抗击新冠肺炎疫情中,速度是跑赢疫情的关键要素,运用算法高效率排查四类人员,用看得见的数据迅速控制疫情。然而,在政府依托算法进行治理的同时,算法对于个人隐私权保护和安全问题凸显。同时,算法鸿沟也会拉大社会距离。
我们正处在一个“算法无处不在的社会”,算法在给我们带来各种福利的同时,相伴而生了信息茧房、算法偏见、算法鸿沟等一系列问题,这是技术风险同时也是治理风险,需要全社会多元力量参与共同进行治理探索。
主流价值导向“引导”算法。首先,增强主流价值导向在算法推荐中的优先权。增加主流意识形态内容的有效供给,增强主流价值内容在信息分发中的比重,用内容的创新性、多样性对冲用户个性导致的单一性,为用户提供多元的信息环境。其次,用主流价值导向把关算法推荐的信息分发。推动将把关的窗口前移,用“防火”理念建立人工和AI合力进行的前置把关,用主流价值导向引领信息生产和信息把关。最后,借力算法推荐进行主流价值导向的传播。主流媒体、传统媒体可充分发挥自身优质内容的生产能力,借助算法推荐的模式和机制,进行主流价值导向的精准化、个性化、趣味化传播。
法制规范化解算法风险。我国已经初步形成了互联网信息安全和信息服务法律规范体系,《网络信息内容生态治理规定》对互联网内容生产提出了明确方向和要求,《国务院反垄断委员会关于平台经济领域的反垄断指南》对“二选一”“大数据杀熟”等问题进行科学有效的针对性监管,但相较于算法技术的快速发展,算法的法律规制和制度规范建设依然任重道远。这其中关键是要明确法律规制的客体和本体。其一,明确将算法使用者、运营者作为规制的客体。算法本身是一种自动学习、自动决策的技术,但这并不意味着算法享有“技术中立”的地位,算法的使用者、运营者赋予算法一定的使命从而使其产生效用,因此法律规制的前提是要将算法使用者、运营者置于规制的客体位置,法律规则的设置要围绕着算法的使用者、运营者展开。其二,明确将算法技术性权力的运用作为规制的本体。数据是算法的“根”和“源”,算法是通过对数据的利用而形成的规则和权力,这些数据来自于用户个人的消费、言论、行为等,保障用户的个人隐私、个人数据权利的主张,划分厘清数据的权利边界,制止算法技术性权力的无序扩张,这是法律法规体系分层、细化的关注点。
技术和伦理消解算法权力。技术带来的风险还需要技术的进步来解决。算法黑箱造成的过滤气泡和信息茧房,需要提升算法的透明度,这里必须指出的是,提升透明度并不是要公开整套算法的模型和过程,甚至侵犯其商业隐私和知识产权,因为平台或系统算法模型复杂,公开算法源代码这样的数据无益于公众的认知,提升算法透明度重点是要对算法进行解释,提高算法的可读性,让用户知晓平台用了哪些数据、做了怎样的分析,甚至算法可能导致的后果也要做说明,使得用户对如何规避算法推荐的风险有清晰认知。算法推荐的核心问题是信息来源的片面性和单一性,要纠偏算法推荐带来的认知窄化,就要扩大算法推荐的信息范围,通过反向推荐、尝试推荐等手段,推荐一些用户平常不怎么关注的信息,增强内容供给的异质性和多元化,进而消解信息茧房带来的意识形态极化风险。(冀翠萍)