布里吉斯

从社交网络「解救」未成年人,立法可能并非良策

一台金色笔记本电脑悬浮于粉橙色背景中,屏幕半开,大量红色心形图标(类似社交媒体「点赞」、「喜欢」按钮)从屏幕后方向上飘散,象征社交媒体互动与用户喜爱。3D渲染风格插图。

围绕社交网络,一场「解救未成年人」活动正在各国立法部门上演。从澳大利亚开始实施社交网络最低年龄限制开始,各国、甚至美国各州都开始各自推动类似立法

面对此情此景,中国大陆的主机游戏老玩家们纷纷会心一笑:快三十年前通过「游戏机禁令」扔出的回旋镖,最终还是砸了回来。最终的结果也有目共睹:现在,中国大陆可以说是电子游戏行业最大的市场和制造方,无论是各式各样的二游还是类似《黑神话:悟空》与即将发售的《影之刃零》这样的传统大型单机游戏,似乎都在往游戏机禁令的反方向前进。

当然,完全将拿电子游戏和社交网络比较起来在各种意义上都不是完全一比一对应。但在2026年,两个领域各自有一些可用作参照的一些地方,可以拿出来做一番比较,以及证明为什么「社交网络禁令」极有可能会是失败的产物。

禁令,可能是一条前往深渊的道路

这个副标题可能有些耸人听闻,但在禁令的实际操作下,最坏的后果确实和「步入深渊」差不多。

我们先拿澳大利亚相关的法律条文来举例。这份条例中,明确规定「带有用户间互动」,以及含有常见社交网络服务功能(「算法推荐」、「无限信息流」等功能)的网站或服务都被类为监管范围。但在实际执行层面,这项法规实行的是「黑名单」模式,即目前只有在列表中列出的社交网络才会被列入实际操作范围。

虽然官方确实承诺会实时更新这个列表,但稍微懂一点互联网产品基本原理的人们都能知道,这个列表极有可能是列不完的。这就会成为一场另类的猫鼠游戏:一旦某个平台被限制,未成年人就会集体「流亡」到其他平台;而当某个小平台「难民」数量未成规模之时,这类小平台在事实上就成了监管真空。以及,这份列表里实际上没有任何一个面向非英文受众的平台,对于澳大利亚这样的由多文化结构组成的社会而言,这份「黑名单」上也有极大的漏洞。

更糟糕的是,因其用户规模、产品及运营偏好和成本等多方面考量,更小的社交网络有更大概率更少地对未成年人提供相应保护措施。也就是说,在这份法规之下,未成年人实际上并不能使用理论上更有能力保护未成年人的社交网络,但却可以使用保护更少、更「野」的社交网络。这确实有悖于法规设计的初衷。

让我们再把情况设置得更极端一点:如果未成年人自己既是社交网络的用户、也是社交网络的运营者,该怎么办?这个情况在联邦网络(Fediverse)的语境之下并非完全不可能。联邦网络的概念是这样的:它本身是一个「去中心化」的社交网络,即你可以在加入联邦网络的任何实例(即网站或app)上注册账户,然后关注相同联邦网络的其他用户,即使被关注的用户与你并不在同一个实例。

信息图表,标题为「联邦网络(Fediverse)跨网站互动原理:跨实例关注」,以 Alice 在 Mastodon 关注 Threads 上的 Bob 为例,展示四步跨实例关注流程:一,Alice 在 mastodon.social 上发起关注 @bob@threads.net;二,mastodon.social 通过 ActivityPub 联邦协议向 threads.net 发送 Follow 请求;三,threads.net 接收请求,将 Alice 添加至 Bob 的关注者列表;四,Bob 发布的公开内容被推送回 mastodon.social,出现在 Alice 的本地时间线中。图表左侧为 Mastodon 实例界面,右侧为 Threads 实例界面,中间以带箭头的连线表示跨实例通信方向。底部说明:借助开放的联邦协议,不同实例间可互相发现用户、建立关注关系,实现跨平台交流。

我们设想一个场景:假设某个未成年人被禁止使用Threads(在上面提到的「黑名单」中也有这个服务),但是他(她)可以在自己的电脑上部署一个Mastodon(联邦网络下最流行的微博客自部署服务器),然后关注同在联邦网络的Threads中的用户并与其互动。那么我们可以得出以下三条结论:

最糟糕的一点是,因为联邦网络协议本身的联邦和去中心化属性,大多数联邦网络协议成员网站通常只有一到两人的运营规模,个人自用实例也比比皆是。也就是说:

政府这时候有两个选择:要求运营商封禁联邦网络协议(这听上去和某个长城干的事情好像差不多啊?),以及,彻底选择视而不见。

当然,初期实际操作中,更有可能的操作则是「小孩用父母的身份证过KYC」,这在绕过中国大陆对于未成年人的网络游戏规定中是十分普遍的。说回到前面举例的「游戏机禁令」,最终这份禁令「破产」的最直接的理由就是,游戏机可以玩游戏,电脑也可以玩、手机也可以玩。即使你下了「智能手机禁令」,小孩们总能找到更多玩游戏的方法。

社交网络禁令也是一样的道理:在实际操作中,政府几乎只能以「黑名单」的形式对社交网络服务进行监管,又因为各种各样的理由,这个「黑名单」实际上是一个几乎不可能列完的名单。想要真正完全封堵漏洞,只有靠网络协议层面的审查才能完成;但这必定会影响正常成人用户的使用,并且在欧美国家必定是违宪的。这也是悉尼大学对于此法条相关评论中言辞最为激烈的担忧。

社交网络真正的问题,是媒体素养

文章到这里,你也许会认为我是在支持未成年人使用社交网络。恰恰相反,我实际上是支持避免未成年人过早接触社交网络的。我真正反对的是用法律手段来解决这个问题,因为法律在这个事情上显然既无法解决原本希望解决的问题,更有可能会带来新的、更严重的问题。

撇开未成年人保护这一个大前提,社交网络在事实上已经成为了社会信息的集中讨论点和观点放大器。但实际上没有人在意这背后的「黑箱」,也就是推荐算法,究竟是如何工作的。浮游天地访谈了一位在社交网络担任算法工程师的人,你可以看到这位工程师在面对各种「质问」的时候已经十分卑微。但你仍然能听得出来,实际上算法的塑造者在塑造推荐算法时,依然或多或少会有价值观的输入。只要你在制造这样的算法,你无法不带任何偏见(bias)地将它写到这些黑箱算法中,无论这些偏见是来自外部压力、商业考量,甚至是无意识的思考。

对于传统纸媒和广播电视而言,它们背后的每一位编辑就是一个「推荐算法」。而在彼时,我们自然而然会接受来自不同观点、不同偏见的信息,然后做出自己的判断。但是在现今社交媒体时代,传统媒体自然是抵不过人性的弱点,良好的媒体素养则变成了更紧迫的议题。要知道,就连如今能够有良好媒体素养的成年人都是「珍稀物种」,你怎么指望小孩子能够通过社交网络来塑造正确的世界观和价值观呢?

说到底,社交网络的问题从来都不是出在社交网络。在现今以推荐算法为转轴的大前提下,媒介的单一化和极端化才是社交网络最大的问题。在以往,大家随时可以看到不同的报纸和新闻频道,所以媒介单一化的问题并不如现在这么严重;但面对利用人性的弱点这种「不讲武德」的推荐算法,才会走向如今的局面。这一点,无论是不是未成年人,都是一个急迫而重要的课题。

而真正的解决办法是什么呢?我很难提出一个具体而可供独立家庭使用的理论或实践,因为在无社会层面强制性禁止使用的前提之下,一旦你不允许自家小孩使用社交网络,最终结果很有可能是两条路:要么小孩被其他使用社交网络的同龄人孤立,要么就是「转入地下」,通过更隐蔽的方式继续使用。我觉得,真正更合理的方式是,在教育环境中通过某种课程或教育实践,来令学生了解互联网的使用卫生习惯和媒介摄入多样性的培养。但这显然不是一次呼吁就能建立的共识。

还是先呼吁各位成年人学会养成良好的媒体素养和社交媒体使用卫生习惯比较现实!

#媒体学 #媒体素养 #社交网络