算法必须为社会服务,而不是反过来——重新思考数字化之十二 
2022-04-01 13:41:17
  • 0
  • 0
  • 5

下文章来源于中欧商业评论,作者胡泳 

2022年3月1日,国家网信办等四部门联合发布的《互联网信息服务算法推荐管理规定》(以下简称《规定》),正式实施。算法推荐技术一般指通过抓取用户日常的使用数据,分析得出人们的行为、习惯和喜好,进而精准化地提供信息、娱乐、消费等各类服务。

算法推荐的本意,是在更好地挖掘用户潜在需求的基础上,提升企业服务水平,实现用户与企业的双赢。早期沃尔玛通过数据分析发现啤酒与尿布在周末存在高度相关的销售关系,进而改变货架陈列,就是一个经典的案例。

然而,近年来算法推荐在为用户提供便利的同时,“大数据杀熟”、诱导沉迷等不合理的应用也在影响用户的正常生活。随着《规定》的实施,算法推荐会在更加规范的框架下运营,这将对企业和个人带来哪些影响?我们邀请了北京大学新闻与传播学院教授、“信息社会50人论坛”成员胡泳,进行了深度解读。

撰 文 | 胡 泳 北京大学新闻与传播学院教授、 “信息社会50人论坛”成员责 编 | 齐 卿

算法如何(秘密地)管理世界

当你在网上浏览一双新鞋,在Netflix上挑选一部流媒体电影,或申请住房贷款时,一个算法很可能对结果有话要说。

复杂的数学公式在各行各业发挥着越来越大的作用:从检测皮肤癌,到推荐新的社交媒体朋友,决定谁能得到一份工作,如何部署警察资源,谁能以何种成本获得保险,或者哪一位在“禁飞”名单上。

我们可以看到算法在这个世界上的工作。我们知道它们正在塑造我们周围许多事务的结果。但我们大多数人都不知道算法是什么,或者我们是如何被它们影响的。

算法是一个黑盒子。

我们熟悉一些明显的例子,比如谷歌搜索算法、亚马逊推荐算法、百度地图算法或美团外卖算法。但人们很少觉察到,算法已经被邀请进入我们的政府、法庭、医院和学校,它们正在代表我们作出很多决定,悄悄地、但是巧妙地改变了社会的运作方式。

往往只有在算法出错的时候,我们才意识到其深入人类生活的程度。往好了说,我们与算法的关系都是一言难尽的。人对机器的态度十分复杂:有的时候,我们盲目信任机器。我们期望它们成为几乎是神一样的存在,如此完美,如此精准,以至于我们会盲目地跟随它们,去往其所带领的任何地方。

另一方面,我们又有一种习惯,一旦某一算法被证明有一点缺陷,我们马上就会否定它。如果Siri出错,或者GPS导航错误,我们就会认为整部机器都是垃圾。更不用说机器人医生误诊、自动驾驶汽车撞死行人这类事。

其实两种截然相反的态度都没有任何意义。算法并不完美,它们往往包含创造它们的人的偏见,但很多时候,它们仍然令人难以置信地有效,使我们所有人的生活也变得更加容易。因此,最正确的态度应该是介于两者之间。我们不应盲目地相信算法,但也不应完全否定它们。

人类和机器不一定要相互对立。我们必须与机器合作,承认它们有缺陷,就像我们一样。它们也会犯错,就像我们一样。

如同伦敦大学学院的数学家汉娜·弗莱所说:“我们不必创造一个机器告诉我们该做什么或如何思考的世界,尽管我们很可能最终进入这样一个世界。我更喜欢一个人类与机器、人类与算法都是伙伴的世界。”

现在,我们花大量精力讨论,人类和人工算法最终很可能会以模糊两者区别的方式结合起来。其实这个愿景距离我们还非常遥远,因此,尽管这样的对话很有趣,但却也可能令我们对目前正在发生的事情分散了注意力。我们迫切需要关注的是,管理我们生活的规则和系统正在我们周围发生变化,而算法是其中的关键部分。

我们一直生活在技术的狂野西部,在那里大科技公司可以在未经允许的情况下收集私人数据并将其出售给广告商。平台正在把人变成产品,而他们甚至没有意识到这一点。互联网巨头实际上成为巨大的媒体公司,但假扮成中立的平台,吞食曾经维持旧媒体生态系统的收入,同时拒绝承担正常形式的编辑责任。同时,它们的领导人拥有跨国管辖权,行使着传统的种种权力——从文化审查、政治放逐到构建巨大的市场——却缺乏传统的监督机制。

在此过程中,即便某一个特定的算法是有效的,也没有人评估它是否为社会提供了净利益,还是消耗了大量的社会成本。不存在任何人、任何机构做这些检查。只有到一系列问题浮出水面之后,各方才逐渐形成共识:社会需要一个强大的算法监管框架。

中国走在全世界算法监管的前列

在中国,应用程序(App)近年来蓬勃发展,这要归功于它们为用户提供其所喜好的视频、开展产品和服务比价或完美定制消费的能力。但是中国第一部算法法规的出台,似乎将会限制科技巨头的这些能力。

2021年11月16日,国家互联网信息办公室审议通过了《互联网信息服务算法推荐管理规定》,2022年伊始,会同工业和信息化部、公安部、国家市场监督管理总局联合发布,自2022年3月1日起施行。《规定》旨在遏制算法不合理应用导致的问题。由于种种不合理的应用,在过去很长一段时间里,公司和商家能够利用看似无所不知的算法来锁定特定人群或个人,以销售产品或影响意见。

算法新规是否会影响从阿里巴巴、腾讯到美团、字节跳动等公司的商业模式,以及监管机构又将如何执行该法规,都值得我们下一步密切关注。

以下是算法法规中的一些重要条款:

公司不得利用算法推荐从事法律、行政法规禁止的活动,如危害国家安全和社会公共利益、扰乱经济秩序和社会秩序等。

算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。

鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷。

算法推荐服务提供者提供互联网新闻信息服务的,应当依法取得互联网新闻信息服务许可,不得生成合成虚假新闻信息,不得传播非国家规定范围内的单位发布的新闻信息。

算法推荐服务提供者应当以显著方式告知用户“算法推荐服务的基本原理、目的意图和主要运行机制”等。

算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。

算法推荐服务提供者不得向未成年人推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络。

算法推荐服务提供者向老年人提供服务的,应当保障老年人依法享有的权益,充分考虑老年人出行、就医、消费、办事等需求。

算法推荐服务提供者向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法。

算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者公平交易的权利,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇等违法行为。

这些规定反映了当今中国社会最关注的一些问题——大型科技公司的透明度和反竞争行为、网上内容控制、零工经济、人口老龄化、未成年人保护等,并寻求在算法被用来腐蚀社会团结或加剧市场问题之前未雨绸缪。

实质上,《规定》要求在其服务中使用基于算法的推荐的公司提供更多的透明度,说明这些算法是如何工作的,以及将对用户产生什么影响。《规定》要求平台“积极传播正能量”,并确保它们的算法应用“向上向善”;禁止它们设计诱使用户参与“过度消费”或对平台上瘾的模式;禁止它们滥用个人信息,实行“大数据杀熟”;鼓励平台综合运用内容去重、打散干预等策略,不得利用算法操纵榜单、控制热搜等干预信息呈现;要求平台满足不同群体的利益诉求,更好保障未成年人、老年人、劳动者等群体权益,消除算法歧视等。

这些要求与许多内容平台、社交媒体、游戏厂商或电子商务供应商现行的商业模式不尽一致,预计会对所有过度依赖预测消费者偏好而将其商业模式与之挂钩的公司产生影响。

但算法法规的执行可能会在监管机构和科技公司之间引发冲突。这是因为,为了让监管机构发现违规行为,它们可能不得不检查算法背后的代码。而算法是一个公司最深藏的秘密,也是其最宝贵的资产,让政府在其中展开挖掘,有可能带来很多争议。比如,监管部门能获得多少代码的权限?即使它们可以接触到代码,真的能确保算法违规的事情不再发生吗?

同时,监管机构在试图监督科技公司的算法方面,将进入一个未知的领域。鉴于算法新规的规定相当广泛,部分内容具有较强的技术性,无论对执法机构和公司来说,都是一个学习过程,它们将承担遵守这些规定的主要责任。

然而,无论从哪方面看,这些规定都代表了全球最领先的算法监管框架之一。所有本地消费产品和零售服务商、电商公司、短视频应用和社交媒体平台都将受到这一法规的影响。根据新规则,算法将不再被允许影响网络舆论,逃避监督管理,或促成垄断和不公平竞争。当然,对于收入可能在短期内受到影响的企业来说,这不是一个好消息。但是,如果企业现在必须重新谈判他们与用户的关系,而把数字生活的控制权至少部分交还给用户,这难道不是一件好事吗?

大规模展开的社会实验,必须认真对待

眼下,全球各国政府都纷纷提出立法建议,试图遏制科技巨头的权力。这些巨头的算法被指推荐加剧仇恨言论和恶化政治极化的帖子,促成封闭和高度同质化的回声室而让每个人得到自己的现实片断,在电商交易中偏向平台和平台可以收取服务费的卖家,诱使青少年进行不当的社会比较并放大他们在社交网络中的不安全感等等。对头号互联网大国美国来说,监管互联网平台的挑战比中国更棘手,因为美国宪法第一修正案限制了政府命令私营公司删除某些类型内容的能力。

很明显,在反垄断方面,中国目前比美国的力度大得多。体现在算法监管上,中国的领先体现在:其一,中国的算法法规强调算法的透明度和可解释性,强大的透明度要求、严格的算法机制机理审核和科技伦理审查,凸显了适当的平台监督的重要性,如果缺乏这种监督,平台可能因为权力过大而对社会造成损害。

其二,中国的算法法规明确提出让用户控制推荐算法,这将迫使平台尊重隐私或在算法上不那么具有强制性。平台应该致力于提供算法推荐服务以外的服务版本,其中的内容不是由“不透明的算法”所选择的。比如,社交媒体平台应当允许用户完全关闭推荐算法,而只是按照时间顺序查看帖子。

用户在与互联网平台接触时应当获得选择余地,而不被由用户特定数据驱动的秘密算法所操纵。科技公司需要坦诚地说明用户和平台的主要算法之间的关系到底是如何运作的,并给予用户更多的控制权。从长远来看,只有当人们对算法系统的工作方式有更多的了解,并有能力对其进行更多的知情控制时,他们才会对这些系统感到放心。

当然,挑战仍然存在。比如,对算法透明度和用户控制的推动让人想起了隐私声明中的“知情同意”框架。两者都依赖于用户能够理解他们所得到的关于某个系统的信息,然后对自己是否或如何使用它作出选择。然而,熟悉隐私政策的人都知道,“无人阅读隐私协议”是网络隐私保护的一个痼疾,原因在于,用户认为隐私协议通常都又长又难读。如果你认为隐私声明的可读性很强,那么试着解释一下算法看看。

而且,很多在网络上暴露出来的问题并不能够全然归咎于算法。即使允许用户选择算法,用户也未必主动选择使他们的动态新闻流更加多样化,并参与更广泛的意见和信息来源。当涉及到仇恨言论、极端主义和错误信息时,算法甚至可能都不是问题的最危险部分。真正的问题是人们在平台上寻找仇恨或极端的言论并找到了它们。同样,当你看到围绕错误信息和虚假信息所发生的事情时,有一些证据表明,它们不一定是通过算法提供的,而是来自人们选择加入的群体。

许多对算法的担忧,其核心来自我们的一种假设,即在人类和复杂的自动化系统之间,我们不是控制者,人类的作用已经被削弱了。或者,正如《华尔街日报》的技术专栏作家乔安娜·斯特恩所宣称的那样,我们已经“失去了对我们所看、所读——甚至所想——的控制,把控制权拱手让给了那些最大的社交媒体公司”。

事实是,机器并没有全盘接管,但毫无疑问它们会长久留在这里。我们需要与它们和平相处。更好地理解用户和算法之间的关系,符合每个人的利益。人们需要对现代生活中不可或缺的系统有信心。互联网需要新的道路规则,在获得广泛的公众同意之后。而科技公司需要了解社会对其运作感到满意的参数,这样它们才有可能继续创新。这始于开放和透明,以及给用户更多的控制权。

每一个社交媒体平台,每一个成为我们生活一部分的算法,都是人类目前正在大规模展开的社会实验的一部分。全世界有数十亿人在与这些技术互动,这就是为什么哪怕算法上最微小的变化都会对全人类产生巨大的影响。而科技公司,不管是被动的还是主动的,正开始认识到这一点,并认真对待。归根结底,算法必须为社会服务,而不是反过来。

 
最新文章
相关阅读