在养成每天浏览小红书的习惯后,我渐渐发现小红书对我的了解与洞察甚至超过了我自己:首页推荐的帖子按照我的兴趣量身定制,常常让我沉迷其中忘记脱身;精准预测我可能的需求,甚至对我在其他平台的动向也了如指掌。我享受着个性化推荐带来的便利,同时也因其对用户无微不至的掌控而感到毛骨悚然——或许我在不知情的情况下,已经被迫献出自己的隐私。个性化推荐让我陷入两难的境地:使用它,我难免担忧自己的隐私会不会被用在不当之处;关闭它,我能否应对信息过载的现实。这不禁让我思考:在算法时代,用户需要怎样的个性化推荐?
文 |王倩妮
1
个性化推荐:
用户与技术的相互驯化
SUMMARY
根据小红书的“个性化推荐算法说明”,用户的设备信息、地理位置信息、浏览记录和点击操作记录都会成为算法推荐的依据。我们几乎无法从这寥寥数语中感知到有多少个人信息甚至隐私正在被算法窃取——个人信息的让渡是我们获得个性化推送服务所需要付出的代价。在用户勾选“同意以上服务协议”后,算法就记录着用户的浏览时长、浏览内容、转评赞等操作情况,实时更新数据库中的用户画像,在用户一次次的刷新、点击中拥有了“读心术”。这看似是用户在训练算法使其更精准地推送,实际上是一场用户与技术的相互驯化:用户通过点赞、浏览等行为使算法更了解自己;算法把个性化的信息推给用户,用户在自己感兴趣的信息海中沉迷,交付了时间和注意力。在这场相互驯化中,用户无疑处在弱势地位:算法黑箱与算法的不可解释,致使算法缺乏透明度及可溯源性,用户甚至无法确保自己的隐私不被泄露;相比之下,用户对算法的规训显得微乎其微,用户在算法面前无所遁形,正如波斯特提出的“超级全景监狱”,算法的监视是隐蔽而难以察觉的,用户变成了被算法裹挟的“裸奔人”①。
2
对关闭“个性化推荐”的思考
SUMMARY
那么,为了避免“裸奔”的情况,我们能不能关闭“个性化推荐”呢?答案是肯定的,小红书、抖音等社交平台都可以在设置中关闭个性化推荐。然而,关闭后可能会极其不适应:失去了算法推荐,杂乱无章的信息扑面而来,要从中找到自己感兴趣的信息将耗费大量的时间与注意力。用户当然可以通过自己设置兴趣标签或者关键词检索的方式浏览信息,但这实际上是“作茧自缚”——信息过载和有限的用户认知,很可能造成比使用个性化推荐时更加严重的信息茧房。此外,关闭“个性化推荐”后,用户的信息隐私真的能得到有效的保护吗?用户关闭的是那些算法要素?算法黑箱的存在致使这些问题的答案不会对用户开放。由此看来,尽管社交平台赋予了用户关闭个性化推荐的选择权,但这权力是否能起实质性效果还有待商榷——关闭了个性化推荐,之后呢?这并不意味着用户能够控制和保护自己的数据隐私。
从另一角度来说,推荐算法正是在信息过载的背景下为有效分配注意力而生的,是大数据时代的时代产物。当互联网应用渗透到生活的方方面面,我们很难完全规避算法推荐。纵使关闭了所有平台的个性化推荐,也无法关闭平台的推荐系统,其他的算法推荐仍然在控制着信息的筛选过滤。事实上,相较于作为一种隐私和信息控制工具,个性化推荐更适合被当作一种关于信息服务的多样化的选择②。对于用户而言,不是“关闭”才能享受安全的个性化推荐,无论平台提供何种算法推荐,其都应当是安全可靠的。因此,当算法推荐乃至个性化推荐无法回避,探究“我们需要怎样的个性化推荐”是比“我们如何关闭个性化推荐”更关键的命题。
3
我们需要怎样的个性化推荐
SUMMARY
在算法时代,算法过滤取代用户判断,“信息找人”的形式取代“人找信息”,算法让对应的信息找到用户,而不是用户主动地搜索信息。这会损害用户的信息自主权,进而威胁人类主体的自由与自主。推荐算法最初为更好地分配用户有限的注意力而生,发展到如今却带来无法忽视的风险与危害,这是我们不想看到的。我们不需要侵犯隐私的个性化推荐,不需要损害信息自主权的个性化推荐,我们需要透明可解释的个性化推荐,需要交互友好的个性化推荐。
(一)透明可解释的个性化推荐
“透明可解释”是针对算法黑箱问题提出的。用户在使用社交平台时常常会看见超出隐私期待的推荐内容,例如:在微信查看了朋友分享的小红书帖子后,这个帖子马上出现在自己的小红书首页;走在路上和朋友聊天,下一秒平台就推送聊天中提及的内容,尽管这些内容从未在手机上搜索过。算法黑箱的不透明、难解释,使用户时时处于恐慌和猜疑中。因此,需要采用透明可解释的算法推荐,建立用户与算法的信任互惠关系。尽管完全透明的算法以当下的技术无法做到,但安全可靠的算法推荐应当让用户感受到自己对信息和隐私有一定的控制能力。在透明性方面,平台应当做到明确告知算法推荐获取的信息范围,以及收集这些个人信息的用途;在可解释性方面,算法应当说明其推荐逻辑,如可信度最高的信息优先级最高,等等。
(二)交互友好的个性化推荐
建立交互友好的个性化推荐系统旨在破除传统个性化推荐造成的“信息茧房”和“回音室效应”。信息茧房的存在使用户在三千信息中只能取到一瓢,认知固化、价值观封闭、群体极化等问题随之而来。而“交互友好”意味着算法除了通过分析用户行为为其推送特定信息外,还挖掘和拓展用户的潜在兴趣,以更精准并且多元的方式为用户做推荐。这不仅能帮助用户吸收多元化的信息,也促进平台的健康多元发展。
在人类大步迈向信息时代的当下,想要规避个性化推荐似乎是不可能的事。然而,尽管经历了数年的发展,个性化推荐仍然存在缺陷与弊端。我们希望个性化推荐能够为人类带来便利,增进人类福祉,而非侵犯隐私、损害人类的信息自主权。正如习近平总书记在网络安全和信息化工作座谈会上强调的,“办网站的不能一味追求点击率,开网店的要防范假冒伪劣,做社交平台的不能成为谣言扩散器,做搜索的不能仅以给钱的多少作为排位的标准”③,我们期待更科学严谨、更安全可靠、更值得信任的个性化推荐系统。
① 王丹.个性化算法推荐的生成逻辑、风险及防控.科技传播[J],2024(16):12-16
② 林嘉、罗寰昕.迈向信任的算法个性化推荐——“一键关闭”的法律反思.编辑之友[J],2024(03):79-88
③ 习近平.网络安全和信息化工作座谈会[C],2016.