文/孙珷
你是否有过这样的体验:打开短视频应用,刷了几条,觉得算法推荐的内容越来越不对胃口。你心想,干脆关掉个性化推荐,看看“原生态”的信息流会是什么样。结果,你看到的内容变成了五花八门的“中老年广场舞”和“养生小妙招”,比之前更让你无所适从。
于是你又把个性化推荐重新打开。
这种矛盾心理,在学术界有一个专门的名称:算法焦虑。算法带来了便利,但又让人难以割舍,既享受它精准匹配的高效,又隐约恐惧自己被它“支配”。进退两难之间,很多人选择了一种看似清醒的姿态,反对算法。但这种姿态真的能解决问题吗?
算法焦虑的深层机制:一知半解才是恐惧的根源
2025年发表的一项研究中,对这个问题进行了系统考察。研究者发现,用户与算法的关系并非简单的“喜欢”或“厌恶”,而是一种复杂的动态博弈。
研究者提出了一个核心概念:算法意识,也就是用户对算法存在、运作方式及其可能影响的认知程度。研究揭示了一个耐人寻味的U型关系:当用户的算法意识处于中等水平时,算法回避行为反而最高;而当算法意识很强或很弱时,回避行为反而下降。
怎么理解这个看似矛盾的现象?
想象一下刚学会骑自行车的人。初学者(低意识)并不害怕骑车,因为他们不知道摔跤有多疼;熟练者(高意识)也不害怕,因为他们知道如何控制平衡、应对路况。恰恰是那些“刚学会但还不熟练”的人(中等意识),既知道骑车的危险,又缺乏应对能力,所以最为恐惧,最想回避。
算法焦虑也是如此。对算法一知半解的人,既隐约感到自己正被“操控”,又不知道如何应对,于是产生了最强烈的抵触情绪。他们高喊“反算法”,却往往陷入更深的被动中了,反而把自己的抵触情绪变成了算法预测下一轮内容的依据。
从“反算法”到“懂算法”:用户的实践智慧
武汉大学周茂君和罗丹在2025年的研究中,引入了古希腊哲学概念“米提斯”来理解用户与算法的互动。米提斯指一种实践智慧,不是书本上的理论知识,而是在长期实践中积累的、难以言说的应对能力。
渔夫知道什么时候下网、什么地方鱼多,这不是数学公式能概括的,而是长年累月的经验沉淀。同样,与算法长期共存的用户,也会发展出自己的“算法米提斯”,一套让算法为自己服务的隐性知识。
比如,有些用户发现,如果想探索新内容,可以主动搜索几个不熟悉的关键词,算法就会开始试探性地推荐相关领域的内容;如果想“逃离”某一类内容,点击“不感兴趣”是最直接、最有效的方式,这是告诉算法“我不喜欢这个”的最强信号。点击“不感兴趣”就像画一条清晰的边界:这边是我要的,那边是我不要的,请不要再越界。与其被动地快速划过,不如主动地点击“不感兴趣”,这既是维护信息边界的权利,也是训练算法理解自己的最好方式。
这些操作技巧,不是平台说明书写的,而是用户在日复一日的实践中摸索出来的。它们证明了一件事:用户不是算法的被动接受者,而是主动的“驯化者”。
这给了我们启示,与其把精力耗费在徒劳的“反算法”上,不如转向“懂算法”,去了解算法的基本逻辑,掌握与算法共处的方法,让工具服务于人,而非人被工具异化。
算法不是“他者”,而是主动破茧的伙伴
一个常见的误解是:算法是一面只会“迎合”用户偏好的镜子,你越看什么,它就越给你推荐什么,直到把你困在信息茧房里。
真实情况恰恰相反。研究表明,算法推荐的内容多样性,在某些情况下甚至超过纯随机推荐。问题的关键不在于算法是否愿意推荐多样性,而在于用户是否愿意接受。互联网上的内容天然比线下更丰富多元,真正的“同温层”往往存在于我们的日常社交圈,周围的朋友、邻居、同事,他们的观念和兴趣高度相似,才是真正窄化信息视野的来源。 互联网上的算法反而在不断尝试帮助用户走出这个窄化的信息环境。
在抖音的推荐算法中,工程师们设置了专门的“探索维度”。一方面,对用户已表现出的兴趣,尽可能推荐更多样的内容,通过多样性打散、多兴趣召回、扶持小众兴趣等方法控制相似内容出现的频次;另一方面,算法会主动帮助用户探索新兴趣,采用随机推荐、基于社交关系拓展兴趣、搜索推荐联动等多种方式,让用户的主动行为影响推荐系统,使推荐更加个性化和多样化。正如抖音算法工程师刘畅所说,推荐算法本质上是一套高效的信息过滤系统,而多目标体系算法能主动打破“信息茧房”,为用户带来更丰富多元、实用可靠的推荐结果。
但这引出了一个更深层的问题:算法真的能“懂”我们吗?答案是:算法能预测你的兴趣,但读不懂你的情绪;能匹配信息,但不能替你做出人生选择。美国伊利诺伊大学的Christian Ehret在2024年的研究中,提出了一个更具建设性的视角:算法时代的素养,不是人与机器的对立,而是人与机器协同的“感觉-思考”过程。把算法当作导师是危险的,把它当作工具和伙伴则是明智的。
抖音的实践:透明、可调、可参与
正是在“懂算法”这一理念的推动下,抖音近年来在算法透明化和用户赋权方面做出了系统性探索。
2025年1月,抖音在行业内首次宣布推出10项措施,建立安全与信任中心,切实推动算法和平台治理透明化。不到一年时间,网站访问量已突破200万次。此后,抖音持续深化这一方向。2026年1月,在“2026安全与信任大会”上再次推出10项新举措,继续聚焦算法透明、平台治理、用户服务三大方向。2026年3月,抖音进一步推出“算法体验”交互式小程序,以动画演示形式公开视频推荐机制,用户可沉浸式体验一条视频从上传到推荐的完整链路,直观理解召回、排序、随机扰动三大核心环节。
在产品功能层面,抖音升级了“使用管理助手”,让用户能够自主调节内容推荐权重,真正参与到算法调优中。用户打开“使用管理助手”,可以看到以饼状图呈现的近七日内容偏好分布,然后在“职场”“科技”“旅行”等分类标签中,将自己希望加强的内容滑块拖至“增加”端,将需要弱化的内容拖至“减少”端。这种设计让算法从“神秘工具”变成了“可被驾驭的助手”。
与此同时,抖音还增加了社交推荐功能,鼓励用户为好友推荐该条视频;“不感兴趣”按钮则赋予用户清晰的干预权。针对用户最担心的“信息茧房”问题,抖音还开发上线了“探索更多”模式,帮助用户可视化评估自己的信息环境,主动打破单一的信息摄入模式。
这些设计背后是一个核心理念:算法不是“猜你”,而是“懂你”;不是替你选择,而是帮你更好地选择。
正如研究所揭示的,提升用户的“算法意识”是缓解算法焦虑、促进适应行为的关键路径。而抖音通过透明度建设、用户赋权工具和素养教育,正逐步将这条路径铺开。
算法透明化,打开算法的“科技黑盒”,正在成为整个互联网行业的共识与行动。这不仅是监管的要求,更是企业对用户的基本尊重。
也许有一天,当我们的孩子长大,“算法”这个词将不再被特殊讨论。就像今天我们不会特意“反电力”或“懂电力”,我们只是自然而然地使用它,知道它点亮了灯,也知道它可能触电,于是学会了开关,学会了安全距离。
到那时,“懂算法”不再仅仅是一种能力,而成为一种数字时代的生存本能。
参考文献
[1] 占南, 陈玉孟. (2025). 在共生中抵抗:智能推荐用户算法焦虑与算法回避的非线性关系研究. 图书情报知识, 42(4), 126-138.
[2] 周茂君, 罗丹. (2025). 算法驯化与用户抵抗:智能推荐系统中的动态博弈. 当代传播, 2025(4), 18-23.
[3] Ehret, C. (2024). Critical literacies in algorithmic cultures. Literacy.
[4] de Groot, T., de Haan, M., & van Dijken, M. (2023). Learning in and about a filtered universe: young people‘s awareness and control of algorithms in social media. Learning, Media and Technology, 48(4), 701-713.