标签 社交媒体 下的文章

X 正式开源其基于 Grok 的推荐算法,公开了回复加权机制、链接惩罚规则及相似聚类技术(SimClusters) 。开发者通过剖析代码,解锁了内容互动预测的核心逻辑 —— 这一举措在平台透明度承诺下,正重塑创作者的运营策略。
为践行透明度承诺,埃隆・马斯克旗下的 X 平台采取大胆举措:开源经重构的推荐系统,揭开了驱动用户信息流的复杂底层架构。2026 年 1 月 20 日,X 工程团队与马斯克本人通过平台发文宣布该消息,相关代码托管于 github.com/xai-org/x-algorithm,其核心采用支撑 xAI 公司 Grok 模型的 Transformer 架构。此次开源兑现了马斯克 1 月 10 日的承诺,包含详尽的开发者说明文档,并计划每四周更新一次 —— 这一行动背后,是社交媒体信息流面临的监管压力日益加剧。
此次披露正值 X 因算法 “低效” 饱受诟病之际,马斯克在回复中坦言:“我们深知当前算法存在不足,亟需大幅优化,但至少大家能实时看到我们以透明方式努力改进的过程。” 与竞争对手不同,X 主动开放算法供公众审视,马斯克强调:“没有其他社交媒体公司会这么做。”
X 平台上的开发者初步代码评审显示,该算法已从 “刚性规则驱动” 转向 “AI 预测驱动”。据 StockTwits 报道,代码仓库详细披露了内容推荐逻辑,但专家指出,训练模型权重等关键要素并未包含在内。

Transformer核心赋能互动预测

算法的核心是一个轻量版 Grok 变体,借助 Transformer 架构,每日对 1 亿条帖子进行用户反应预测 —— 包括点赞、回复、转发、收藏等行为。X 工程团队在推文中证实:“其采用与 xAI Grok 模型相同的 Transformer 架构。” 据 News9live 分析,这一设计用机器学习取代了传统启发式规则,优先推送更可能引发用户互动的内容。
X 平台用户 @bytebot(科林・查尔斯)剖析代码后表示:“基于 Grok 的 Transformer 排序机制,有效避免了信息茧房问题。” 关注账号的 “圈内内容” 将获得优先推荐,而 “圈外内容” 则依赖机器学习预测,且包含图片、视频等媒体形式的内容会获得权重加成。内容时效性是重要考量因素,当目标受众活跃时,近期发布的内容将更具优势。
创作者可信度通过历史互动数据体现,若高活跃度用户关注的账号发布内容,其排名会相应提升。不过,该代码未包含嵌入表、Phoenix 检索细节及垃圾邮件过滤器等模块,表明此次开源聚焦核心排序逻辑,属于部分披露。

回复链与停留时间成关键信号

回复被证实为权重最高的互动信号。用户 @barkmeta(巴克)总结:“务必回复评论 —— 算法对‘评论 + 作者回复’的权重设定,是单纯点赞的 75 倍。无视评论等同于扼杀内容传播力。” 用户 @GodsBurnt(石博)也呼应:“‘75 倍规则’是代码中最强信号:评论 + 作者回复的组合效应无可替代。”
收藏行为的权重乘数为 50 倍,这意味着具备参考价值的内容将获得更多曝光;而停留时间 —— 通过用户观看视频或点击 “展开更多” 的行为来衡量 —— 同样具有决定性作用。正如查尔斯所指出的:“观看时长为王,若用户快速划走,内容排名将大幅下滑。” 视频和系列推文因能更好地吸引用户注意力,表现尤为突出。
负面信号的惩罚力度显著:屏蔽和静音操作的负面影响是取消关注的 10 倍。具有争议性但非垃圾信息的内容可能获得较高传播度,而引发用户反感的内容则会被降低曝光。

链接惩罚与垂直领域锁定重塑发布策略

外部链接会触发 “链接税” 机制,据石博透露,内容曝光量可能骤降高达 400%:“链接会扼杀可见度,应将其放在个人简介或置顶推文里。” 创作者建议通过简介放置链接或自动回复引导等方式,让用户留在平台内 —— 这与算法 “抵制用户流失” 的设计倾向高度一致。
相似聚类技术(SimClusters)强化了内容的垂直领域属性。巴克警告:“坚守自身领域…… 若偏离垂直赛道(如加密货币、科技等),将无法获得任何流量支持。” 该系统会按主题对用户和内容进行聚类,对偏离主题的内容实施降权处理,以确保信息流相关性。
这些从 GitHub 代码中拆解的机制表明,算法更青睐互动性强的对话式内容,而非单纯的被动浏览。据 Hypebeast 报道,马斯克承诺将持续更新算法,以回应外界对信息流机制及 Grok 整合效果的密切关注。

开发者从代码解析中提炼运营指南

用户 @razroo_chief(查理・格林曼)基于算法逻辑设计了一款 Claude 提示词,旨在最大化多维度信号权重:“核心优化目标:停留时间…… 回复量…… 转发量…… 点赞量…… 收藏量。” 该提示词建议,内容应采用反直觉的开篇、结构化的机制解析,并以冷静、系统的语气呈现深度洞察 —— 摒弃浮夸表达,聚焦科技系统、行为模式等主题的知识性输出。
发布后首小时的早期互动数据会显著影响算法预测结果,标签(Hashtag)仍具备实用价值,而富含媒体元素的内容格式更具竞争力。标签有助于内容发现,但积累高活跃度粉丝群体,其重要性远超单一运营技巧。
@GodsBurnt 走红的指南中强调:“收藏量是黄金指标…… 停留时间:若用户未点击‘展开更多’或观看视频,内容将被降权。” 这一机制让内容传播更趋公平,奖励具有深度关联价值的内容,而非浅层数据表现。

Grok演进推动算法全面革新

马斯克过往推文记录了算法迭代轨迹:2025 年 5 月,他宣布用 Grok 替代原有算法以实现突破性优化;同年 10 月,该模型已能每日处理 1 亿条帖子,基于内容质量进行精准匹配;8 月,Grok 4 Mini 的测试版本动用了 2 万台 GPU,在延迟控制与性能提升之间实现平衡。
The Verge 回顾了马斯克 2023 年推特(现 X)的代码公开行动 —— 当时的更新并不规律,与此次承诺形成鲜明对比。路透社指出,马斯克曾在 1 月 10 日承诺,将在 7 天内公开完整的自然流量与广告算法代码。
News9live 详细报道了 Phoenix 系统从人工规则向 AI 驱动的转型,通过 Transformer 架构预测用户互动行为,且更侧重回复而非点赞数据。

透明度举措遭遇监管压力

据 TechSpot 观察,马斯克的透明度举措旨在回应外界对平台 “不透明” 的指责,但过往类似承诺的执行力度参差不齐。ComputerWeekly 强调,此次开源包含了全部推荐算法代码。
WebProNews 报道称,用户可通过自然语言自定义信息流,例如输入 “无政治内容,仅展示 AI 创新”,这一功能进一步凸显了与 Grok 模型的深度整合。而此时,欧盟与美国正针对算法偏见问题展开调查。
StockTwits 呼吁专家对开源代码进行深度评审,尽管存在部分缺失,但此次披露已覆盖推荐机制的核心运作逻辑。

对平台与创作者的深远影响

对行业内部人士而言,此次开源揭示了算法 “重预测” 的排序逻辑:早期回复会引发雪球效应,媒体内容能持续吸引注意力,垂直领域定位可集中流量资源。Hypebeast 指出,此次代码发布与外界对 Grok 的审视密切相关,X 承诺将提供完整访问权限并持续更新。
创作者需及时调整策略:快速回应评论、避免在推文中直接嵌入外部链接、打造能提升用户停留时间的内容格式。正如巴克总结的:“与受众保持互动,建立深度关系,让用户留在平台内。”
X 的开源模式向竞争对手发起挑战 —— 将 xAI 的技术优势与开放代码相结合,在公众监督下持续优化信息流。这一举措或将重塑社交媒体算法的行业生态。

时隔近三年,马斯克再次开源 X 推荐算法

 

刚刚,X 工程团队在 X 上发帖宣布,正式开源 X 推荐算法,据介绍,这个开源库包含为 X 上的“为你推荐”信息流提供支持的核心推荐系统,它将网络内内容(来自用户关注的帐户)与网络外内容(通过基于机器学习的检索发现)相结合,并使用基于 Grok 的 Transformer 模型对所有内容进行排名,也就是说,该算法采用了与 Grok 相同的 Transformer 架构。

 

开源地址:https://x.com/XEng/status/2013471689087086804

 

X 的推荐算法负责生成用户在主界面看到的“为你推荐”(For You Feed)内容。它从两个主要来源获取候选帖子:

 

  1. 你关注的账号(In-Network / Thunder)

  2. 平台上发现的其他帖子(Out-of-Network / Phoenix)

 

这些候选内容随后被统一处理、过滤然后按相关性排序。

 

那么,算法核心架构与运行逻辑是怎样的?

 

算法先从两类来源抓取候选内容:

 

  • 关注内的内容:来自你主动关注的账号发布的帖子。

  • 非关注内容:由系统在整个内容库中检索出的、可能你感兴趣的帖子。

 

这一阶段的目标是“把可能相关的帖子找出来。

 

系统自动去除低质量、重复、违规或不合适的内容。例如:

  • 已屏蔽账号的内容

  • 与用户明确不感兴趣的主题

  • 非法、过时或无效帖子

 

这样确保最终排序时只处理有价值的候选内容。

 

此次开源的算法的核心是系统使用一个 Grok-based Transformer 模型(类似大型语言模型/深度学习网络)对每条候选帖子进行评分。Transformer 模型根据用户的历史行为(点赞、回复、转发、点击等)预测每种行为的概率。最后,将这些行为概率加权组合成一个综合得分,得分越高的帖子越有可能被推荐给用户

 

这一设计把传统手工提取特征的做法基本废除,改用端到端的学习方式预测用户兴趣。

 

 

这不是马斯克第一次开源 X 推荐算法。

 

早在 2023 年 3 月 31 日,正如马斯克收购 Twitter 时承诺的那样,他已将 Twitter 部分源代码正式开源,其中包括在用户时间线中推荐推文的算法。开源当天,该项目在 GitHub 已收获 10k+ 颗 Star。

 

当时,马斯克在 Twitter 上表示此次发布的是“大部分推荐算法”,其余的算法也将陆续开放。他还提到,希望“独立的第三方能够以合理的准确性确定 Twitter 可能向用户展示的内容”。

 

在关于算法发布的 Space 讨论中,他说此次开源计划是想让 Twitter 成为“互联网上最透明的系统”,并让它像最知名也最成功的开源项目 Linux 一样健壮。“总体目标,就是让继续支持 Twitter 的用户们最大程度享受这里。”

如今距离马斯克初次开源 X 算法,过去了近三年的时间。而作为技术圈的超级 KOL,马斯克早已为此次开源做足了的宣传。

 

1 月 11 日,马斯克在 X 上发帖称,将于 7 天内将新的 X 算法(包括用于确定向用户推荐哪些自然搜索内容和广告内容的所有代码)开源。

 

此流程将每 4 周重复一次,并附有详细的开发者说明,以帮助用户了解发生了哪些变化。

 

今天,他的承诺再次兑现了。

马斯克为什么要开源?

 

当埃隆·马斯克再次提到“开源”时,外界的第一反应并非技术理想主义,而是现实压力。

 

过去一年里,X 因其内容分发机制屡次陷入争议。该平台被广泛批评在算法层面偏袒和助长右翼观点,这种倾向并非零星个案,而被认为具有系统性特征。去年发布的一份研究报告就指出,X 的推荐系统在政治内容传播上出现了明显的新偏见。

 

与此同时,一些极端案例进一步放大了外界的质疑。去年,一段涉及美国右翼活动人士查理·柯克遇刺的未经审查视频在 X 平台迅速传播,引发舆论震动。批评者认为,这不仅暴露了平台审核机制的失效,也再次凸显了算法在“放大什么、不放大什么”上的隐性权力

 

在这样的背景下,马斯克突然强调算法透明性,很难被简单解读为一次纯粹的技术决策。

 

 

网友怎么看?

 

X 推荐算法开源后,在 X 平台,有用户对推荐算法机制做了以下 5 点总结:

 

1. 回复你的评论。算法对“回复+作者回应”的权重是点赞的 75 倍。不回复评论会严重影响曝光率。

2. 链接会降低曝光率。应该把链接放在个人简介或置顶帖里,千万不要放在帖子正文中。

3. 观看时长至关重要。如果他们滑动屏幕略过,你就不会吸引他们。视频/帖子之所以能获得高关注,是因为它们能让用户停下来。

4. 坚守你的领域。“模拟集群”是真实存在的。如果你偏离了你的细分领域(加密货币、科技等),你将无法获得任何分销渠道。

5. 屏蔽/默不作声会大幅降低你的分数。要有争议性,但不要令人讨厌。

 

简而言之:与你的受众沟通,建立关系,让用户留在应用内。其实很简单。

 

也有网友发现,虽然架构是开源的,但还有些内容仍未开源。该网友表示,此次发布本质上是一个框架,没有引擎。具体少了啥?

 

  • 缺少权重参数 - 代码确认“积极行为加分”和“消极行为扣分”,但与 2023 年版本不同的是,具体的数值被删除了。

  • 隐藏模型权重 - 不包含模型本身的内部参数和计算。

  • 未公开的训练数据 - 对于训练模型的数据、用户行为的采样方式,以及如何构建“好”样本与“坏”样本,我们一无所知。

 

对于普通 X 用户而言,X 的算法开源并不会造成太大影响。但更高的透明度可以解释为什么有些帖子能获得曝光而另一些则无人问津,并使研究人员能够研究平台如何对内容进行排名。 

为什么推荐系统是必争之地?

 

在大多数技术讨论中,推荐系统往往被视为后台工程的一部分,低调、复杂,却很少站在聚光灯下。但如果真正拆解互联网巨头的商业运转方式,会发现推荐系统并不是边缘模块,而是支撑整个商业模式的“基础设施级存在”。正因如此,它可以被称为互联网行业的“沉默巨兽”。

 

公开数据已经反复印证了这一点。亚马逊曾披露,其平台约 35% 的购买行为直接来自推荐系统;Netflix 更为激进,约 80% 的观看时长由推荐算法驱动;YouTube 的情况同样类似,大约 70% 的观看来自推荐系统,尤其是信息流(feed)。至于 Meta,虽然从未给出明确比例,但其技术团队曾提到,公司内部计算集群中约 80% 的算力周期都用于服务推荐相关任务。

 

这些数字意味着什么?如果将推荐系统从这些产品中移除,几乎等同于抽掉地基。就拿 Meta 来说,广告投放、用户停留时长、商业转化,几乎都建立在推荐系统之上。推荐系统不仅决定用户“看什么”,更直接决定平台“如何赚钱”。

 

然而,正是这样一个决定生死的系统,长期面临着工程复杂度极高的问题。

 

在传统推荐系统架构中,很难用一个统一模型覆盖所有场景。现实中的生产系统往往高度碎片化。以 Meta、LinkedIn、Netflix 这类公司为例,一个完整的推荐链路背后,通常同时运行着 30 个甚至更多专用模型:召回模型、粗排模型、精排模型、重排模型,各自针对不同目标函数和业务指标进行优化。每个模型背后,往往对应一个甚至多个团队,负责特征工程、训练、调参、上线与持续迭代。

 

这种模式的代价是显而易见的:工程复杂、维护成本高、跨任务协同困难。一旦有人提出“是否可以用一个模型解决多个推荐问题”,对整个系统而言,意味着复杂度的数量级下降。这正是行业长期渴望却难以实现的目标。

 

大型语言模型的出现,给推荐系统提供了一条新的可能路径。

 

LLM 已经在实践中证明,它可以成为极其强大的通用模型:在不同任务之间迁移能力强,随着数据规模和算力的扩展,性能还能持续提升。相比之下,传统推荐模型往往是“任务定制型”的,很难在多个场景之间共享能力。

 

更重要的是,单一大模型带来的不仅是工程简化,还包括“交叉学习”的潜力。当同一个模型同时处理多个推荐任务时,不同任务之间的信号可以相互补充,随着数据规模增长,模型更容易整体进化。这正是推荐系统长期渴望、却很难通过传统方式实现的特性。

 

LLM 改变了什么?其实是改变了从特征工程到理解能力。

 

从方法论层面看,LLM 对推荐系统最大的改变,发生在“特征工程”这一核心环节。

 

在传统推荐系统中,工程师需要先人为构造大量信号:用户点击历史、停留时长、相似用户偏好、内容标签等,然后明确告诉模型“请基于这些特征做判断”。模型本身并不理解这些信号的语义,只是在数值空间中学习映射关系。

 

而引入语言模型后,这一流程被高度抽象。你不再需要逐条指定“看这个信号、忽略那个信号”,而是可以直接向模型描述问题本身:这是一个用户,这是一个内容;这个用户过去喜欢过类似内容,其他用户也对这个内容有正反馈——现在请判断,这条内容是否应该推荐给这个用户。

 

语言模型本身已经具备理解能力,它可以自行判断哪些信息是重要信号,如何综合这些信号做出决策。在某种意义上,它不只是执行推荐规则,而是在“理解推荐这件事”。

 

这种能力的来源,在于 LLM 在训练阶段接触过海量、多样化的数据,使其更容易捕捉细微但重要的模式。相比之下,传统推荐系统必须依赖工程师显式枚举这些模式,一旦遗漏,模型就无法感知。

 

从后端视角看,这种变化并不陌生。就像你向 GPT 提问,它会基于上下文信息生成回答;同样地,当你问它“我是否会对这条内容感兴趣”,它也可以基于已有信息做出判断。某种程度上,语言模型本身已经天然具备“推荐”的能力。

专家解读:工业界可参考,对学术价值不大

 

如果 X 的方向真是“让 Grok 成为算法本身”,那么这次开源事件的意义就不止是透明度提升,更像是把一场大模型化推荐的系统级改造公开摆到台前,接受开发者与行业的持续检视与解读。

 

借此机会,我们邀请到了搜推广资深算法专家,生成式推荐模型 OnePiece 作者,《业务驱动的推荐系统:方法与实践》作者傅聪,为大家解读这次开源事件。

 

InfoQ:从代码层面看,X 这套推荐系统中,大模型是否是已经进入核心决策环节?这与传统“LLM + 规则 / 特征管道”的推荐系统相比,最大的结构性变化是什么?是否只是替换了部分模块?

 

傅聪:从系统整体设计层面看,开源的代码依然遵从 recall -> rank 这样的多阶段漏斗筛选架构。新的 post 推送会从数亿 候选集合中 以传统的 双塔 向量召回,合并排序、去重等等环节,最后送给用户。grok 没有参与中间过程,只是给 post 做排序的模型采用了类似 grok 的模型架构,但远小于 grok 的参数量。

 

最大的结构变化在于他们用了一种纯 transformer(类 grok)的模型结构去做排序,其它差异不大。

 

InfoQ:从能力边界看,该如何看待“每日处理上亿条内容、并进行实时多模态理解”这一目标所带来的系统挑战?

 

傅聪:需要极其充足的 GPU 算力以及高并发的处理引擎,尤其是视频内容,其 token 消耗量巨大,因此计算量巨大。此外,模型还需要一个可以高速访问的大型文件系统,保证大量视频可以暂存、传递给 Grok 模型。而实际上 x 并没有真的让 grok 来做这个事情,应该是处于成本考虑。

 

InfoQ:传统推荐系统采用轻量级启发式算法,成本效益高,而 Grok 方法需要大量计算资源,那么您怎么看待成本和用户体验提升之间的收益比?在算力、成本和基础设施约束下,这种方式是否注定只属于极少数平台?

 

傅聪:Grok 消耗的算力是数千倍于传统的推荐系统的,这部分成本往往不能被平台的收益覆盖。尤其是 X 这样的平台,其收入核心来源是广告。只有做到延迟、体验都能对标原有系统,其广告收入才可以持平。但因为投入成本过高,这个 ROI 过低,目前来看只 X 自己也没有真的以这种规模使用 grok。

 

InfoQ:如果 Grok 真要“把帖子都读一遍、把视频都看一遍”再来做匹配,这是不是相当于把推荐系统推到了更强的“内容级监控”?平台不只是记你点过什么,还能在语义层面猜到你可能会被什么吸引,是否会带来新的以前没有的问题?

 

傅聪:Grok 读过并不一定会记忆。很多数据并不一定会被 Grok 用来训练

 

InfoQ:另外,传统推荐系统的信息茧房问题,语义理解方式是否能解决?是否更“中立”?(此前的争议有一部分在于认为 X 平台偏向马斯克个人账号和一些党派言论)。从系统机制上看,它最可能在哪些环节反而更容易固化偏好、放大偏差?

 

傅聪:大语言模型有它自己的 bias,以大语言模型为核心的推荐系统会根据它的语言偏好构建新的信息茧房。

 

InfoQ:从开源意义看,在推荐系统这种高度复杂、长期被视为“黑箱”的领域,这种“持续、周期性开源”代码的方式,实现起来的难度在哪里?

 

傅聪:难度在于只开源代码,不开源所有配套的系统和训练数据,就无法复现它的效果。这种开源,对学术研究价值不大,对工业交流有一定参考意义。但目前其架构来看,可参考的新东西不多。

 

InfoQ:您如何看待这次开源的影响?如果 Grok 这套思路跑通,这次开源是否会迫使其他内容平台跟进,从而引发推荐系统的一轮“范式迁移”?在这种趋势下,行业会不会弱化对行为数据(包括历史数据)的依赖,甚至调整数据收集与画像方式,进而重塑整个推荐系统生态?对广告行为的影响会是什么样的?

 

傅聪:即使 Grok 跑通,其它平台也不一定会跟进。第一其他平台没有属于自己的 Grok,第二,其它大部分平台不会在这里投入这么多算力。

 

行业也不会弱化对用户行为和画像的依赖,经验证明,用户历史行为才是实现个性化的数据根基,缺少这部分信息输入的推荐系统很难千人千面,而容易做成千篇一律。从开源代码看,ranking 模型依然在使用用户行为历史进行预测,这一点也符合预期。

 

嘉宾简介:

 

傅聪,搜推广资深算法专家、生成式推荐模型 OnePiece 作者,《业务驱动的推荐系统:方法与实践》作者,《生成式推荐系统算法与实践》作者。

 

参考链接:

https://github.com/xai-org/x-algorithm

https://x.com/XEng/status/2013471689087086804

https://x.com/BlockFlow_News/status/2013510113873813781

去年,一部由徐峥主演的电影《逆行人生》,将外卖骑手在数字时代下的生存状态推至公众视野的中心。影片刻画了骑手们在车流中穿梭的日常,以一种犀利而写实的方式,揭开了平台算法背后那只看不见的手——它如何无声地主宰着骑手的收入、节奏甚至命运。

 

由此,一个曾经隐藏在订单推送与时限倒计时背后的算法和数据相关议题,逐渐发酵成为当时国内的热门话题。在海外,这一话题同样反复引发争议。

 

近日,一名自称外卖平台“内部举报人”的 Reddit 用户被证实为造假者,其编造的故事曾在全球社交平台引发巨大传播。

事件回溯

 

事件始于 Reddit 上发布的一篇“举报帖”。一名 ID 名为 Trowaway_whistleblow 的用户发帖,自称自己是一位即将离职的 Uber Eats 软件工程师,长期目睹公司通过算法系统系统性剥削外卖员与消费者。他在帖子中写道:“你们总是怀疑算法在暗中对付你们,但现实远比阴谋论更令人沮丧。”

 

该用户声称,自己在醉酒状态下,于图书馆使用公共 Wi-Fi 写下了这篇“长篇檄文”,详细指控公司如何利用法律漏洞,从司机报酬和消费者支出中“无声抽成”。

 

帖子详细描述了该公司如何操纵平台,损害顾客和外卖员的利益:例如,故意放慢普通订单的配送速度,人为地让优先订单看起来更快;以及收取所谓的“监管响应费”,并以此为由游说反对司机工会。

 

这篇帖子中最令人震惊的指控或许是,平台内部有一个从不对外公开的指标,用来评估骑手有多缺钱。该平台会根据司机接单的时间和频率计算他们的“绝望指数”,这也是举报人辞职的主要原因。该用户写道:

 

“如果一个司机通常晚上 10 点上线,毫不犹豫地接受所有 3 美元的垃圾订单,算法就会将他标记为‘极度渴望赚钱’。一旦被标记,系统就会故意停止向他推送高价订单。逻辑是:‘既然我们知道他渴望赚钱到愿意接 6 美元的单子,为什么还要付他 15 美元呢?’我们把高额小费留给‘兼职’司机,以此吸引他们并让他们的游戏体验更加有趣,而全职司机则被榨干最后一滴油水。”

 

这篇帖子最终获得了 8.6 万个赞,登上了 Reddit 首页,浏览量可能达到数百万。用户们向这位举报人赠送了超过 1000 枚 Reddit 金币,这些金币可以用来购买高级功能。该帖子在 X 网站上的截图浏览量超过 3600 万次

这篇帖子之所以具有高度传播力,并非偶然。在美国,外卖平台确实存在过被法律确认的不当行为。以 DoorDash 为例,该公司曾因挪用司机小费遭到起诉,最终在美国支付了 1675 万美元的和解金。这一真实案例,使公众更容易相信“平台算法系统性压榨劳动者”的叙事。

 

同时,在影视作品中,算法被具象化为一种无法逃脱的“系统命运”。在徐峥参与的相关题材电影中,外卖员被描绘为即便拼尽全力,也难以突破平台算法设定的收入上限。这类艺术表达虽非纪实,却强化了公众对“算法不可抗力”的直觉认知。

 

正是在这一现实与情绪背景下,这名 Reddit 用户的爆料被迅速视为“终于有人站出来说实话”。

 

但如今,该帖现已被发布人删除。

 

一场 AI 生成的骗局?

 

科技媒体 Platformer 的记者凯西·牛顿(Casey Newton)注意到了这篇帖子,并尝试对其真实性进行核实。

 

在取得联系后,Newton 与这名自称“举报人”的 Reddit 用户进行了约半小时的交流。

 

Newton 在报道中写道,对方与许多声称掌握内部信息的爆料者一样,最关心的问题是如何保持匿名。他表示愿意进一步分享所谓的内部材料,但同时强调,已有“其他大多数新闻机构”联系过他,并提出了他认为“风险过高”的身份核实要求,因此选择拒绝合作。

 

在交流过程中,Newton 注意到一个明显的异常:这名用户在即时通讯中的拼写和用词错误频繁出现,甚至将“information”(信息)拼写错误,而这些语言层面的失误,在其最初发布、广泛传播的 Reddit 长文中几乎不存在。

 

这一前后差异,成为 Newton 心中逐渐浮现的疑点之一。

 

Newton 向对方明确表示,自己会尽力保护其匿名性,但作为记者,仍需要对其身份进行基本核实。对此,这名用户提出,可以提供一张经过模糊处理、隐藏姓名的员工证照片作为证明,并询问“这样是否可以”。Newton 同意后,对方随即发送了一张照片。

 

这张图片看起来像是一张 Uber Eats 的员工证件,在形式上具备公司标识和员工信息布局,但其真实性仍有待进一步核验。正是从这一步开始,Newton 逐渐意识到,自己正在接触的,可能并非一名真正的内部人士,而是一场精心设计的伪装。

 

一张疑似 Uber Eats 员工证件的照片

 

此外,他还提供了一份长达 18 页的“内部文件”,称文件详细描述了公司如何利用人工智能系统,为每一位司机计算所谓的“绝望程度评分”,并据此动态调节派单、报酬和激励机制。

所谓的“内部 PDF 文件”截图

 

这些材料在形式上高度专业,包含大量技术细节与市场分析。Newton 后来在 Platformer 的文章中写道,在他多年职业生涯中,这类文件“看起来非常可信”,因为其制作成本极高,逻辑完整,很难让人相信只是为了戏弄记者。

 

“谁会花时间精心制作一份长达 18 页、关于市场动态的详细技术文件,仅仅为了骗人?”

 

Newton 写道,“谁又会费尽心思伪造证件?”

 

然而,在进一步核查过程中,Newton 逐步发现这些“证据”经不起验证。文件中的部分技术描述与 Uber Eats 实际业务逻辑存在明显不符,所谓的内部术语和流程也无法在任何可靠渠道得到印证。员工证件的格式与真实样式存在差异,其来源亦无法追溯。

 

最终,Newton 确认,这名所谓的“举报人”并非 Uber Eats 员工,其爆料内容完全是编造的故事。整套“内部材料”极有可能借助生成式人工智能工具完成——这也解释了为何文件在语言风格、结构完整度和技术细节上显得异常成熟,却缺乏真实组织内部文件应有的可核查痕迹

网友怎么看?

 

这起事件并未否认平台经济中真实存在的问题。相反,它凸显了一个更复杂的现实:当算法的不透明性已经成为普遍焦虑,当平台过往确实存在侵害劳动者权益的案例,虚假信息反而更容易披上“合理外衣”。

 

正如 Newton 在报道中所指出的那样,这次经历并非一次普通的谣言,而是一场具有技术时代特征的信任测试——它考验的不只是平台,也考验每一个信息传播者与接收者。

 

随着“Uber Eats 举报人”事件被媒体披露为造假,一部分网友并没有完全接受调查结论,相关讨论迅速在社交平台上分化。

 

在 Reddit 上,有用户对举办贴里面提到的内容深表赞同。他评论道:

 

“外卖平台他们会根据你的使用习惯来判断你对收入的渴望程度,知道你的底线,所以会给你安排你不愿意接的最糟糕的活儿。因此,越不急于赚钱的人反而能接到更好的送货任务。”

 

有用户指出,将事件简单归因为“人工智能造假”本身并不严谨。在他们看来,即便在生成式人工智能出现之前,互联网上就早已充斥着虚假信息,一个逻辑自洽、情绪饱满的长帖,并不需要依赖 AI 工具,普通人在短时间内同样可以完成。

有用户猜测,将所谓的“内部文件”定性为 AI 生成,可能只是平台方的危机公关策略之一,目的是削弱爆料内容的影响力,而非对事实本身作出独立、透明的澄清,该用户评论道:

 

“或许这是 Uber Eats 为了平息事态而采取的反举报策略。或许最初的帖子是真的,但他们这么做是为了制造足够的疑点,让我们最终都释怀。”

 

此外,还有声音对媒体调查的权威性持保留态度。一些网友表示,仅凭记者判断材料“疑似由人工智能生成”,并不足以比原始爆料更具说服力。他们指出,生成式人工智能本身也存在大量错误和不稳定性,因此仅以“AI 痕迹”为依据,仍难以完全证明图片或文件的真实来源。

 

“仅因为某个“记者”发现它是人工智能生成的,并不能比原帖更有说服力。我并非不尊重记者他们的工作,但人工智能经常出错,所以我们怎么知道这张图片真的是人工智能生成的呢?”

 

另一位网友也在质疑媒体的报道。他认为发帖者并不能确定是 AI,因为人们也经常会用 AI 来给自己想说的话润色,但润色不代表他说的话就是 AI 捏造的。

 

这类观点认为,围绕“是否由 AI 生成”的争论被过度放大,反而模糊了对内容本身真实性的判断。

 

这些分歧性的反应表明,在平台经济、算法治理与人工智能高度交织的语境下,即便面对被揭穿的虚假举报,公众对平台、媒体以及技术本身的信任裂痕依然存在,事件所引发的争议并未随着事实澄清而完全消散。

  

参考链接:

https://www.platformer.news/fake-uber-eats-whisleblower-hoax-debunked/

https://www.reddit.com/r/confession/comments/1q5gl9j/removed_by_moderator/

https://techcrunch.com/2026/01/06/a-viral-reddit-post-alleging-fraud-from-a-food-delivery-app-turned-out-to-be-ai-generated/

这两天写了一个博文在 L 站上的转载),但是有亿点长,我想在这个快节奏的社会应该也没有人看完这么长的玩意,所以我决定水个帖,单独说说这个压轴的项目 ——FakeNET(Github)


这是一个一个 伪・文 章 平 台,需要填入 CloseAI 格式的 API

我简单画个图吧:

是的,就是这么简单一个玩意

你曾想过?你是互联网上唯一的人类,其它所有账号都是机器人,你看着 AI 产生的内容、阅读 AI 生成的评论……


📌 转载信息
转载时间:
2026/1/3 14:54:06