哲学驿站分享 http://blog.sciencenet.cn/u/老李 一个行走者的思想历程

博文

基于大数据的算法杀熟现象的政策应对措施

已有 6919 次阅读 2019-1-8 07:05 |系统分类:人文社科

bb39b2e3.jpg

基于大数据的算法杀熟现象的政策应对措施[1]

李侠

(上海交通大学 科学史与科学文化研究院 上海,200240)

随着近几年大数据的兴起,数据挖掘技术得到迅猛发展,其潜在商业前景不可限量,时至今日,我们尚无法准确研判大数据革命对于人类的存在状态到底会造成什么样的深远影响,但至少就其早期应用中已显露出一些令人担忧的征兆,整个社会已经开始逐渐感受到大数据对国家安全与个人生活的侵入以及权利的丧失,为了便于讨论,我们对最近涌现出来的基于大数据的算法杀熟现象做些简单分析,期望通过生活中的一个常见视角,探讨在新技术面前人类的处境以及可能的解决措施。

 “杀熟”是一种隐喻说法,所谓的熟无非是对人和物的信息了解比较多而已,坊间所谓的杀熟是指对特定消费个体采取的不同价格而已。在小数据时代,这种杀熟现象规模较小,危害较轻,无法挑战市场的自由竞争原则;而在大数据时代,数据的采集、加工、挖掘、分析与共享越发成熟与普遍,对消费者的熟悉程度与小数据时代不可同日而语,导致市场竞争可以被垄断完全替代,通过所谓的动态定价,可以最大限度上实现最大范围的歧视性定价,杀熟不再被看做是不道德现象,反而成为商家算法技术先进的代名词和暗中炫耀的资本。按照牛津大学法学家阿里尔•扎拉奇(Ariel Ezarachi)对于歧视性定价的界定:是指商家在向不同的消费者提供相同等级、相同质量的商品或服务时,基于后者的购买意愿与支付能力,实行不同的收费标准或价格政策。这里的关键就是要了解潜在消费者的心理价位,即经济学家所称之的消费者的“保留价格”(Reservation Price),使卖出价格最大程度上接近保留价格,进而实现对消费者剩余的完全占有。问题是商家是如何知道消费者的偏好与心理价位的呢?这才是问题的关键。超级平台与应用程序软件通过移动设备对消费者产生的数据进行实时跟踪、捕获、整理与挖掘,然后基于利润最大化的算法实现价格歧视,这就是杀熟现象的本质所在。

在大数据时代,数据就是具有生产性的重要资源,从某种意义上说,数据就是信息社会的石油。这里存在一个困境:个人的数据信息是分散的,其孤立存在的价值并不大,但是一旦众多个体的数据被平台或商家收集起来,形成一定的规模,那么它的价值就会迅速变大。在数据挖掘中,消费者个体将是最大输家。那么这个社会中是谁在收集这些数据、并以此获得收益呢?在利益分布的链条上,大体来看,包括三个层级的机构:个体、商家(应用程序的使用者与提供者)、与超级平台。商家与平台利用收集来的海量个人信息,通过特定目的的算法整理出个体的偏好与特定信息,并对消费者群体实行精准分类,然后商家与平台充分利用这些信息,实现动态定价与定向广告投放,各得其所,只有消费者成为数据海洋中的受害者。数据的产出者在数据的交易中并没有分享到相应的收益,反而成为众多数据收集者任意收割的韭菜,这才是人们关注个人数据与信息安全的初始缘由。

更深层的危害在于通过数据挖掘,任何个体都是透明的(笔者是坚定的计算主义者,认为人的性格、情绪、情感与习惯等都是可以计算的,当下只是计算工具不完备而已),在此基础上个体的隐私根本无法保障、整个社会有效运行赖以维系的公平原则将受到根本性的颠覆。在个体与商家/超级平台之间力量对比如此悬殊的情况下,如何通过政策来约束商家与超级平台对于消费者权利的剥夺呢?由于利益的分配链条是连续的,不存在利益的空白之处,那么约束机制也不应该留有缺口。基于分布式道德原理,我们提出针对不同主体行为规范的分段式政策约束机制。所谓的分布式道德,按照英国哲学家卢恰诺•弗洛里迪(Luciano Floridi)的说法:它们是构成多能动者系统的各个能动者间互动的结果,这些能动者是人类成员、人工能动者或者混合型能动者,而且这些结果在其他情况下是道德上中性的,或者至少是道德上可忽略的。把卢恰诺的说法简化一下就是:在多个行动者系统中,每一个行动者都是负载道德的,而这些道德在被孤立的行动者那里也许是道德中性的,但是一旦形成社会联结,那么这些特殊道德之间就会出现冲突,为了维系社会的有序运行,行动者之间要在行为规范上形成有效衔接,否则社会就会出现失范现象。比如一个企业就其自身而言,追求利益最大化是符合道德规范的,但是,一旦企业与消费者之间产生实质性联系,单纯追求利润最大化的规范就要受到约束,否则就是违背社会正义与公平原则,此时企业与个体都要调整各自的认知范式,使彼此之间保持相互匹配,即可接受性。从这个意义上说,一个多能动者系统是存在分布式道德的,为了有助于分布式道德的建立,需要相应的政策安排来引导分布式道德的运行。由于道德形成的缓慢性,为了应对迅速增加的多元能动者,需要政府的有形之手加以干预,使之最大程度上避免由于规范的滞后所带来的社会震荡,这就是政策设定对于道德约束机制产生干预作用的原理。在此需要指明的是,我们认为对于能动者的行为而言:法律底线最低、道德底线次之,政策底线最高。这种安排符合取乎其上得乎其中的常识。

通过政策干预道德形成与运行是否有必要呢?只要了解基于大数据的算法对于个体与市场有多大影响就不难明白政策干预的必要性。对于个体而言,个人数据被市场上的众多能动者广泛收集与挖掘,个体的偏好、隐私以及消费者剩余都将失去,这对于个体而言是权力与自由的丧失,其后果除了消费环节的杀熟现象之外,更严重一点的事例,比如购买保险,当保险公司了解你的基因信息,并通过对个体数据的精准分析可以对个体的保费实行差别定价,由此一来,保险公司将变成一本万利的行业,而对于个体而言将失去对于未来不确定性的防范。对于市场而言,掌握大数据的大公司之间可以较为轻易地形成合谋,从而形成垄断市场并赚取超额利润,这就把基于竞争的市场经济摧毁了,所有具有竞争意识的初创公司都将被大公司扼杀在初始阶段。就如同阿里尔所言:超级平台牢牢把控着独立应用程序的流量入口,独立应用程序必须按照超级平台的指示与规划小心行事,否则是很难存活的。那么谁有能力制约与监督这些超级平台的垄断行为呢?显然只有政府有能力也有责任去规范其行为,遗憾的是我们现有的政策工具箱对于超级平台与商家的算法监管存在巨大的空白,甚至都没有相应的政策工具?这就导致数据泛滥,算法竞赛横行,消费者就是商家与平台的待宰羔羊,毫无还手之力,只要看看百度公司近些年的表现不难理解这些现象。在全球化背景下,这种态势愈演愈烈,正如卢恰诺•弗洛里迪所言:在一个去当地化的环境中,社会摩擦是不可避免的,因为没有什么资源可以用来缓解或消除能动者的决策与行动所带来的震荡。

当超级平台与商家对于个体/消费者的个人数据收集、俘获与提取能力与水平越来越强大的时候,伴随机器学习技术的深入发展,算法会得到不断的试错过程,具备自我学习能力的算法在持续的演化竞争过程中会实现自身的质变,这种变化呈现两种表现形式:在显性层面上进化的算法促进平台与商家的利润最大化;在隐性层面算法逐渐具备自我意识而又不为人所知,这才是未来最让人担忧的事情。虽然就目前而言,算法与机器学习技术尚处于起步阶段,还显得有些笨拙,但是没有人会准确预见到其何时会出现突破性的质变?那种认为危机尚远的乐观主义是不负责任的,就如同没有人会意识到互联网在短短几十年的发展给世界带来的变化一样,考虑到技术具有自主性这样一种普遍趋势,未雨绸缪还是应该的。就如同基因编辑技术看起来离改造生命还很遥远,但是不觉间经基因编辑技术处理过的孩子已经出生。我们这个时代所遇到的大数据、人工智能、机器学习、云计算等技术带给人类的风险是不同于以往技术带来的全新风险。通常技术风险根据危害程度和发生概率可以分为四种,即1、低可能性、低灾难性,2高可能性、低灾难性,3、低可能性、高灾难性,4高可能性、高灾难性。本文所论述的基于大数据的算法杀熟现象属于典型的高可能性、低灾难性风险,而且这种风险已经变为现实。更为可怕的是那种低可能性、高灾难性的风险,如当人工智能出现自我意识时引发的风险就属于此类。由于这些知识都是前沿性知识,普通民众难以了解,更谈不上有效防范。按照美国科技政策专家希拉•贾萨诺夫的观点:风险集聚的地方通常也是知识资源较弱的地方,从而无法获得关于物理、生物和社会情况基准的可信数据。那么针对这些基于新技术而来的风险应该如何通过政策工具来约束呢?

基于市场的多元能动者的动机与偏好的差异,规约其行为的政策工具也千差万别。从分布式角度来看,哪些政策工具与机构可以约束不同能动者的行为呢?对于消费者而言,当他遭遇到价格歧视时只能依据《消费者权益保护法》寻求消费者协会的帮助,这种帮助,举证繁琐、耗时漫长,在个人与商家力量对比严重不对称时,在实践中作用甚微;对于商家而言,对其行为负有监管职能的机构有工商管理、质量监管等部门,而这些机构几乎没有能力了解算法造成的价格歧视与人群分类现象,反竞争法在实践中几乎处于失灵状态;对于超级平台而言,抛开工商、质量监管部门外,工信部是其行业规范的重要监管者,但就目前状态而言,管理部门行动的滞后性,导致对于新兴业态都处于监管空白状态。换言之,当下对于新技术的监管有实际效用的政策工具寥寥无几,政策工具箱处于极度匮乏状态。针对实体市场设立的反垄断法早已无力监管处于虚拟市场的线上交易。从伦理角度来说,算法并非价值中立的,这就意味着算法对于大数据的处理是蕴含巨大伦理风险的。一旦伦理约束失灵,整个行业就会出现道德滑坡现象。那么如何用好大数据资源就是当下非常紧迫的治理任务,已有学者建议对大数据进行全国性立法。客观地说,这种建议的初衷是好的,防止产业发展步入歧途,问题是法律的范畴是极其狭窄的,就如同道德与法律对行为约束产生的差异,道德的底线高于法律底线,即一些行为不道德但不违法,一旦用法律去约束日常生活,可以想见这种社会秩序是极度糟糕的。同理,仅仅基于法律底线,大数据产业会出现野蛮生长,只要不违法即可。从这个意义上说,既要保护大数据产业的发展,又不让其走入歧途,可以先通过政策工具(基于大数据伦理设定)划定行业的行为边界,在此基础上对超边界的行为进行道德与法律惩戒,否则的话,在政策边界与法律边界之间就会出现监管与约束的真空地带,造成社会整体的行为失范现象。因此,完善与充实大数据的政策工具箱是规范与有序发展该行业的当务之急。当下,管理部门对于大数据的国家安全层面已经给予足够重视,短板是对于个人数据(隐私保护)的关注仍然停留在纸面上,并没有太多具有可操作性的政策措施。如果仅有国家数据的安全,而无个人数据的保护,这种局面会阻碍社会的进步。总而言之,从政策引导、道德规训到立法规范,是一个逐渐完善、相互支撑的规制过程,目前已经到了政策引导与道德规训相结合的阶段,在此基础上大数据的立法才是可行的。



[1] 本研究得到国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”的资助,编号:17ZDA023,特此致谢。

博主跋】这篇小文章去年年底写的,现发在《中国科技论坛》2019(1),昨日张老师微信告知已出版,合作愉快,是为记!

说明:文中图片来自网络,没有任何商业目的,仅供欣赏,特此致谢!



https://blog.sciencenet.cn/blog-829-1155896.html

上一篇:研发活动、科学文化土壤与高端科技人才集聚
下一篇:科技界的急都是被挤压出来的
收藏 IP: 101.224.149.*| 热度|

8 安海龙 黄永义 武夷山 杨正瓴 彭思龙 罗祥存 伍光良 liyou1983

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-28 16:59

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部