算法与用户:地主与农奴

全文2149字,阅读约需7分钟,帮我划重点

划重点

01中央网信办等四部门联合发布《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,旨在构建“信息茧房”防范机制,提升推送内容多样性丰富性。

02算法2.0版本利用大数据,直接由机器按用户的偏好推送,让用户看到想看到的内容,可能导致信息茧房现象。

03然而,算法推荐可能对不同群体产生截然不同的影响,对于现实生活单一、自控能力不强的人群,可能带来负面影响。

04由于算法的影响,用户可能会在认知上受到误导,难以摆脱算法的圈禁。

05专家建议将选择权交付于用户,让他们主动去选择,而不是被动接受商业行为,以摆脱算法的圈禁。

以上内容由腾讯混元大模型生成,仅供参考

图片

作者|孙鹏越

编辑|大   风




前不久,中央网信办等四部门联合发布《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,核心问题就是构建“信息茧房”防范机制,提升推送内容多样性丰富性。
“信息茧房”是哈佛大学凯斯·R·桑斯坦(Cass R. Sunstein)教授在其《信息乌托邦》一书中提出的概念:它是一个温暖、友好的地方,因为这里都是自己喜欢看到和听到的东西,对于观点话题的讨论也不过是自己的回声。
也就是说,平台算法利用用户的点击、浏览和搜索历史,为用户分配其中一部分信息,再减少、忽略用户对其它信息的接触,构建出一个信息封闭的“黑箱子”:
你看到的,就是算法想让你看到的;你的想法,也是算法潜移默化影响你的。
那么,在这个“黑箱子”里,你害怕吗?

图片

算法也是不断进化的
在互联网信息大爆炸的时代,知识已经变成俯仰可拾的信息流。
用户的难题不再是“在哪去学习知识”,而是升级为“如何判断知识的真假”,这也给了算法的施展空间。
信息茧房形成的“回音室效应”,哪怕你有再小众的爱好、再离谱的想法,都能在算法的分配下,找到与你观点相近的伙伴。
你点赞的图文和短视频,都是自己的“回声”。
每个人都看到他们乐意看到的东西,每个人都能在小圈子里保持“自由”和“快乐”。哪怕这个“自由”和“快乐”只是算法圈养你的栅栏。
更可怕的是,算法是会进化的。
算法1.0版本,是用户主动去选择和收集,算法根据协同过滤(Collaborative Filtering),挖掘用户历史行为,发现用户的喜好偏向,并预测用户可能喜好的产品进行推荐。也就是购物平台常见的“猜你喜欢”功能。
等到了算法2.0版本,就有大数据的加持,基本无需个人收集和选择了,直接由机器按你的偏好推送。
不论你是什么种族、什么阶层、什么群体、什么样的观点,算法机器只让你看到你想看到的。每个人都觉得自己观点是世界上最正确的,充分满足并安慰你的精神需求。
当然,算法2.0版本不会承认自己打造出来一个“信息茧房”,只会说这是“定制化触达/垂直化推荐/精准化投放”的结果,是合理合法的商业工具。

图片来源:网络

抖音/快手的兴趣推荐,看似中性的算法,实际上对不同群体的影响是截然不同的。

对于大部分“兴趣广泛”的用户来说,其被推送的内容或许是宠物、旅游、数码等等,当然也包括“黑丝女”和“腹肌男”。至少在当下平台环境里,后者比例要远大于前者。

对于现实生活比较单一、生活内容重复、自控能力不强、信息获取渠道单一的用户来讲,这样的算法推荐对他们的影响或许是极其负面的。

并且这类人群覆盖面极为广阔,有蓝领、有中老年人、也有低龄阶段中小学生。

他们在算法之下,他们很容易沉迷在“黑丝女腹肌男”茧房之内,甚至接收到“不合时宜”的信息。

比如,银发族困于养生、健康和短剧,相信土豪真的会爱上保洁阿姨;


蓝领们消耗一天体力后,躺在出租房里沉迷擦边直播间,花光工资也要当榜一大哥;


甚至还有一些中小学生们,过早接收到不应该是当龄该看的内容。

些高密度人群如果被算法“毫无感情仅凭兴趣”的推荐,将会带来一连串社会性问题。

图片
红药丸?还是蓝药丸?
如果说,你只能活在自己想要的世界里,很多人觉得无所谓,不就是“奶头乐”吗?我就愿意让自己轻松一下,逃避一下残酷的现实。
那如果说算法会影响到你的认知呢?
所谓的“认知”,其实是信息量+处理信息的能力。你信息摄入的越多,那么支撑你认知的知识体系就越有力。
如果你的信息摄入是充满“误导”的呢?
比如,现在打开抖音/快手等短视频App,刷出10条短视频内容。如果10条里面有9条,都是和LGBT运动相关,那你会不会认为LGBT已经是社会主流的性取向?异性恋其实才是性少数群体呢?
如果你完成对这些信息的摄入,形成了认知,恭喜你,那么你就迎来了算法的“下半场”:你如果否定它,就要推翻你的全部认知。

图片来源:伦敦艺术大学UAL实验短片

有这么一个讽刺冷笑话,很适合描述现在的算法。

“小学时候同学们都爱看《西游记》,大家都说唐僧袈裟是黑色的,有个同学强烈反对,非要说是红色的,气的班上的同学打了他一顿,后来他哭着把我们带到他家里,我们才赫然发现,这个世界上原来还有彩色电视机。”

是的,当你认为“黑袈裟”是真理的时候,“红袈裟”就是异端、另类、是要被烧死的人,对不同声音充斥着排斥,甚至敌视。
如果要让“黑袈裟”知道真相,就要把他们的认知全部击碎,掀开头盖骨,才能真正知道真相到底是什么。
就像是《黑客帝国》,面对舒适的算法世界,以及残酷冷漠的真实世界,那你会选择蓝药丸,还是红药丸?
我相信大部分人都会选择一切迎合自己的算法世界,哪怕它支配了你的全部信息。
图片
地主还是农奴?
法国的经济学家塞德里克·迪朗(Cédric Durand)写了一本书叫《技术封建主义》,他将算法背后的企业视为“地主”,用户视为“农奴”。
迪朗认为,算法和数字技术的应用,将用户变成了数字农奴。算法通过分析用户数据,推测用户行为,并将其转化为利润。用户在算法的统治下,失去了自主权和控制权,按照算法的逻辑进行行动。这种算法统治的现象,类似于封建社会中农民对土地的依附,将用户束缚在数字平台的“领地”之中,无法逃脱算法的控制。
“地主和农奴”最典型的案例,就是外卖骑手和网约车司机。
他们觉得自己工作很自由,不受老板的监管,想几点工作就几点工作,一切完全取决于自己,好像获得了某种自主权。
但其实,奴役者只不过从“企业老板”转变成了“企业工具”,除了遵循平台算法给出的订单、路线与价格,他们别无选择。
社会的舆论压力,也被巧妙的转移,变成“乘客和司机”“顾客和外卖员”之间的矛盾,似乎一切的订单、路线与价格并不是由算法自主生成的一样。
一切又回归到迪朗和《技术封建主义》的核心主题:我们每个人在社会互动中形成数据不断成为算法优化与决策的“养料”,而社会互动又在被算法的结果“操纵”。
图片
如果你问如何才能摆脱算法的圈禁?
那么只有将选择的权利交付于用户,让他们主动去选择,而不是被动去接受所谓的“定制化触达/垂直化推荐/精准化投放”等商业行为。
同时,最后还想重复问一遍:
“你是选择蓝药丸,还是红药丸?”

图片

 

图片