4 月 22 日,蚂蚁百灵正式推出 Ling-2.6-flash —— 一款总参数量 104B、激活参数 7.4B 的 Instruct 模型。该模型主打“Token 效率(Token Efficiency)”,在保持竞争力智能水平的同时,更快、更省以及更适合大规模真实应用。

据权威三方评测 Artificial Analysis 数据,Ling-2.6-flash 展现了突出的 Token Efficiency 优势,以 15M output tokens 实现了 26 分的 Intelligence Index,在保持较强智能水平的同时,将输出消耗控制在相对更低的位置。相比部分依赖更长输出换取更高分数的模型,Ling-2.6-flash 在“智能表现”与“输出成本”之间取得了更优平衡。

对于开发者和企业场景而言,这种效率优势意味着更低的推理开销、更快的首字响应、更短的整体生成时延,以及更流畅的交互体验,满足在真实部署环境下对速度、成本与体验的综合要求。

Ling-2.6-flash 沿用了 Ling 2.5 的混合线性架构设计,这种高度稀疏化的 MoE 架构在硬件表现上优势明显。

  • 在 4 卡 H20 条件下推理速度最快可达到 340 tokens/s

  • Prefill 吞吐达到 Nemotron-3-Super 的 2.2 倍

  • 在 Output Speed 测评中,Ling-2.6-flash 以 215 tokens/s 的稳定输出速度位列同参数级别模型的第一梯队

从 Token 消耗来看,Ling-2.6-flash 的智效比显著提升。

  • 在 Artificial Analysis 完整测评中,Ling-2.6-flash 总消耗为 15M tokens

  • Nemotron-3-Super 等模型达到或超过 110M tokens

  • 这意味着 Ling-2.6-flash 仅用约 1/10 的 token 消耗完成了同类评测任务

Ling-2.6-flash 面向 Agent 场景进行了定向增强,在控制 Token 消耗的前提下,依然保持了极强的任务执行力。

  • 模型在 BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench 等 Agent 相关基准上达到同尺寸 SOTA 水平

  • 与此同时,Ling-2.6-flash 在通用知识、数学推理、指令遵循及长文本解析等维度保持优秀水准

API 定价方面,Ling-2.6-flash 输入每百万 tokens 定价 0.1 美元,输出 0.3 美元。

目前,Ling-2.6-flash 的 API 已正式向用户开放,并提供为期一周的限时免费试用。

  • 用户可以通过 OpenRouter、百灵大模型 tbox 获取对应服务

  • 据了解,该模型后续将通过蚂蚁数科发布商业版本 LingDT,服务全球开发者及中小企业

一周前,Ling-2.6-flash 的匿名测试版本“Elephant Alpha”上线 OpenRouter,上线以来,其调用量持续增长,连续多日位列 Trending 榜首,日均 tokens 调用量达 100B 级别,周增长超 5000%。

4 月 20 日深夜,Kimi K2.6 发布并开源。它最值得被探讨的,并非又赢了几个 Benchmark,跑分逼平乃至反超海外三巨头。这些数字反映的更多是理论上限,而非你我实际上手时的真实水平。

图注:K2.6 基准测试成绩。在 DeepSearchQA、SWE-Bench Pro 等核心 Agent 与代码评测项目中位居第一,在 Humanity's Last Exam 等博士级难度测试中持平或优于三巨头(GPT-5.4、Claude Opus 4.6 和 Gemini 3.1 Pro),整体成绩处于同级别模型的第一梯队。

K2.6 更现实的意义,还在于它抛出了一个关键命题:

当模型步入 Agent 时代,竞争内核已从“单次作答的灵光乍现”,跃迁为“多步执行的善始善终”。Agent 的价值不再停留于输出答案,而在于多步执行、对象管理、结构维护与增量更新中的系统承载能力。

这才是新一代模型真正的分水岭。

循此判断,笔者摒弃了常规的单点用例测试,转而借 Andrej Karpathy 的 AI Wiki 思路,设计了一组高承压任务。这套思路自 AK 大神在本月初提出,迅速出圈狂揽两千万曝光,被视为“检索增强的下一代范式”。

image

测试目的直指 Agent 底层能力:它能否超越单纯的“内容生成”,展现出将内容组织为结构、将结构推进为系统的建构能力

比写代码难得多的任务

如果只是验证代码能力,最简单的做法是复现网页、写个应用。直接,出活快。但这测的只是局部优势,而非 Agent 的工作流承接力。

所以,Andrej Karpathy 的 AI Wiki 成了更优选。它表面是搭网站,内核却是一套知识编译系统。 这也正是它比普通 RAG(检索增强生成) 更难的地方。

image

图注:基于 K2.6 Agent 搭建的一套 Harness Engineering Wiki,已形成可检索、可路由、可写回的知识闭环系统,具备持续演化的工程知识库形态。效果可参见:https://f24e2z3zeghre.beta-ok.kimi.link/

很多人一听“AI 知识库”,认为还是老一套:切片、建索引、检索、生成。每次问答都从零开始,毫无沉淀。

而 AK 大神的破局点,正在于把“查资料”变成了“整理知识”,将无状态检索(即没有记忆,不留痕迹)推进为有状态编译。这体现在 Wiki 极清晰的三层架构上:

图片

架构之外,更有精髓。AI Wiki 的真正价值,在于把知识系统的重心从“文档展示”转向了“对象构建”。原始资料喂进去,不直接吐长文,而是先拆解为主题、概念和来源,再织成一张可检索、可连接、可扩展的网络。

页面 UI 只是表皮,底层真正拷问的是:对象稳不稳?关系立不立得住?新信息进来,旧结构会不会崩?

但原版的 Wiki 思路不是没有短板:偏本地。它回避了线上系统的致命问题:对象如何持久化?增量如何接入?旧结构如何防覆盖?前后台如何同步?

所以,这一次我们不做简单复刻,而是将其从一套离线编译流程,改造为可在线运行、持续更新、前台可访问的知识网络。从离线走向在线,从生成走向系统。

这也天然地覆盖了当前 Agent 最该被检验的五大能力:

  • 长链执行:持续推进,而非单轮结束

  • 结构组织:拆为对象,而非停留于段落

  • 系统维护:新信息入网,旧结构不崩

  • 前台落地:组织成可用的界面,而非仅存于后台

  • 任务拆解:规模扩大时,能否并行处理

为什么要用 K2.6 来测?

Kimi K2.6 值得测,恰恰在于它这次强化的几条主线,与这类任务高度重合。

从官方披露的信息看,K2.6 的提升并不只停留在参数和榜单,而是明确落在了三种更接近系统任务的能

力上:长链执行、Vibe Coding 与 Agent 集群。

先看长链执行。官方给出的案例里,K2.6 能在复杂任务中连续运行 12 小时以上、调用上千次工具、完成 4000 余行代码修改;在主动式 Agent 框架中,甚至给出了最长 5 天持续自主运行的能力描述。

这类指标的意义,不只是“它更耐跑了”,而是它开始具备承接持续任务的基本条件。

image

而 AI Wiki 恰恰不是一次性生成任务,它要求模型能够在对象抽取、关系组织、页面生成和后续维护之间不断往返。没有足够强的长链稳定性,这类任务很容易在中途塌掉。

再看 Vibe Coding。K2.6 这次另一条被明显强化的能力,是将代码、视觉理解与前端表达结合起来,直接交付专业级 Web 应用。对于 AI Wiki 来说,这一点并不只是“页面更好看”——它意味着模型不只要会整理知识,还要能把知识网络做成一个可浏览、可使用、可继续扩展的前台系统。

换句话说,AI Wiki 不是纯知识抽取任务,必须落地成可浏览、可交互的前台界面。这正是 K2.6 突出的强项。

最后是 Agent 集群。 官方披露,K2.6 的集群架构最高支持 300 个子 Agent 协同,并且明确强调了它在搜索、深度研究、文档分析和长文创作等任务中的协同能力。

这对于 AI Wiki 也非常关键。因为一旦输入资料一多,任务就很容易从“一个 Agent 持续推进”转向“多个 Agent 分工处理”。也就是说,AI Wiki 不只是一条长链任务,它天然也具备被 Swarm 化的潜力

具体来看,这次任务至少包括四个关键环节:

  1. 消化与编译(Raw Source → 结构化对象) 原始文本不能直接当正文展示,必须先被拆解、提纯,编译成主题、概念、对比关系与来源,形成结构化对象层。难点在于:多步骤信息处理中,模型的准确性和连贯性在这里最先暴露。

  1. 联网与落地(对象层 → 可用前台系统) 基于编译结果生成 Topic 页、Concept 页、对比页、关系图谱,并保证页面之间形成跳转闭环。这考察的是 Vibe Coding 能力:结构能不能真正变成可用的产品。

  1. 调用与反哺(知识问答 → 持续沉淀) 页面之间不只有链接,还要能表达相似关系、对比关系和来源回溯,把"页面集合"推进成"知识网络"。跨页面操作中的一致性,是这一步的核心考验。

  1. 维护与演化(增量接入 → 系统自愈) 新资料进入后,系统要能继续触发编译,支持断链检查和重复概念识别。这测的不是一次性生成的惊艳,而是长程运行中的自我修复与持续生长能力。

此外,为更完整地观察 K2.6 在不同任务组织方式下的能力边界,这次测试并不只在一个执行环境中完成,而是分别考察了它在 单 Agent 、 Agent 网站 和 Agent Swarm (集群) 三种模式下的表现:

其中,单 Agent 作为基线,网页端 Agent 重点考察连续施工能力,Swarm Agent 则进一步测试复杂任务的拆解与协作组织能力。

单 Agent 基准:系统骨架成型,知识闭环待补

如果只给 K2.6 一个基础单 Agent 执行环境作为基准水平,它的表现可以概括为一句话:前台成型很快,系统感很强,但知识闭环最初并没有自然成立。

它最先兑现的,是两项能力。

这轮测试里,K2.6 最先体现出来的,不是单点页面生成能力,而是把复杂任务持续推进成一个完整原型的能力。围绕我们给出的要求,它先后完成了信息架构设计、对象层拆解、页面路由搭建和主要交互补全,逐步做出了 账号登录、工作台、知识索引、主题页 / 概念页、问答 / 洞察面板以及知识图谱 等核心模块。

image

从结果上看,这已经不是一个零散页面集合,而是一套具备明确结构和产品感的知识网络雏形。

这里最值得强调的,首先是它的 长链条任务能力

AI Wiki 不是一次性生成任务,而是一个需要在资料输入、知识编译、页面生成、关系组织和后续维护之间反复往返的长链工作流。K2.6 在单 Agent 模式下,已经表现出了承接这类任务的基本稳定性:它不是完成一个页面就停,而是能沿着既有上下文持续往前推进,把任务一步步从“做页面”推向“搭系统”。

这一点很重要,因为如果没有足够强的长链稳定性,这类任务通常会很快退化成局部补丁,而无法积累成完整结构。

第二个更突出的优点,是它的 自我修复能力

单 Agent 模式下,K2.6 并不是一开始就把所有链路都做对了,但它有很强的“沿着当前系统继续修”的能力:页面缺入口,就补路由;对象层不完整,就补实体;跳转不闭环,就补详情页;图谱数据不够,就继续补关系读取。

这种能力的价值在于,它不只是生成一次结果,而是能在连续上下文中维持系统状态,对已有结构做增量修正。这比“第一版就完美”更接近真实工程任务,也更能体现 Agent 的实际承接能力。

同时,K2.6 的 Vibe Coding 能力在这一轮里也相当突出。它不仅能把知识对象落成前台,还能迅速做出风格统一、结构清晰、适合展示的产品界面。换句话说,单 Agent 模式下,它已经证明自己不只是会写页面,而是能把抽象任务迅速组织成一个“像样的系统原型”

当然,单 Agent 的边界也在这一轮里显露出来。最核心的问题不是页面是否成型,而是 知识链路不会随着页面一起自动成立。也就是说,前台可以很快搭出来,但知识编译、问答调用和沉淀闭环,初始状态下往往还需要继续补强。

更进一步:从单点执行到系统组织

单 Agent 已经给出了基线:它能把复杂任务压成系统原型。接下来的问题是,当执行环境增强,K2.6 能把任务推进多深?

从结果看,网页端 Agent 和 Swarm 模式都带来了明显提升,但方向截然不同:网页端 Agent 强化了对同一系统的连续施工与修正能力;Swarm 模式强化了对复杂任务的拆解、分工与编排能力。

4.1 Agent 网站模式:更强的连续施工能力

“Agent 网站”最突出的特质,不是多做了几个页面,而是能在 同一套系统上连续迭代

image

图注:Agent 网站模式的体验入口

在测试中,它围绕既有知识网络持续补全:从编译管线、状态处理到知识图谱,始终保持了极强的上下文延续性。对于 AI Wiki 这类任务,最难的从来不是初版原型,而是多轮修改后系统不散架:对象层有没有被保留?逻辑有没有被延续?网页端 Agent 在这一点上表现出了真正的工程连贯性。

更进一步,它的核心优势在于 能不断重新识别系统的真实约束

image

最典型的例子是登录与数据库的实现:它先按标准全栈思路做了认证和持久化,但部署后迅速察觉静态环境无法承载后端服务,于是果断切回本地持久化方案,把产品重新拉回可运行状态。

当然,它的边界也依然存在。Agent 网站模式的典型问题,不是不会推进,而是容易先把前台和交互做成立,再逐步追补底层链路。

4.2 Agent Swarm 模式:不再硬扛,开始组织系统开发

如果说网页端 Agent 是更强的执行器,那么 Swarm 模式带来的则是质的跃迁:它让 K2.6 尝试把任务本身组织成一个可拆分、可协作、可调度 的系统工程。

image

在测试中,Swarm 不再满足于修补现有网络,而是把开发过程抽象成了一套集群工作流:定义 Research、Architect、Compiler 等角色,制定流程模板、命令系统、状态机与消息协议,甚至做出了任务流可视化。

image

这种变化极其关键。AI Wiki 天然是多线程任务,研究、编译、生成、维护如果全压在一个 Agent 身上,长链路很容易出现崩溃。Swarm 给出的是系统工程的解法:不把所有事硬扛,而是先拆成角色,再组织成流程。

它的深层价值,在于极强的 抽象表达能力。它能把零散的开发过程,重写成结构化的方法体系——谁先做、谁负责、怎么流转、交付什么。这意味着它不仅在执行项目,更在生成一份可复用的“开发语法”。

能力形态开始从“完成一次任务”跃升为“为同类任务生成可复制框架”。

然而,Swarm 的边界也很清楚:方法论和协作框架做得漂亮,但具体执行细节未必同等扎实。不过这恰好印证了它的核心定位:它不是更强的执行模式,而是让复杂任务进入“可分工、可编排、可复用”状态的能力放大器。

4.3 三种模式,三层系统能力

将三种模式放在同一坐标系,比较三者各自最有代表性的 能力形态 与 能力本质 更为清晰。

图片

从“单轮聪明”到“长链存活”

这轮评测下来,我越来越清晰地感受到:模型竞争的重心正在改变。

真正重要的,已经不只是回答得像不像、写得好不好,而是它能不能在真实任务里持续推进、持续修补,并最终把结果落成一个可用的系统。

单 Agent 搭骨架、Agent 网页通经络、 Agent Swarm 做编排,这不仅是对 K2.6 的能力测绘,更是行业下一阶段的预演。

Agent 时代,竞争深水区,已从“谁生成质量更高”转为了“谁的系统存活率更高”

市场早已厌倦了单轮聪明的玩具。当下真正需要的,是三种硬核特质的系统融合:抗衰减的长链可靠性、遇阻即改的路径校准力、面向系统的结构编排力。

2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式!

在企业数据版图内,生成式人工智能的演进已超越简单的聊天界面,迈入自主编排的领域。对金融机构而言,这项技术的前景在于弥合一个历史性鸿沟:一端是高度结构化的交易数据(如总账分录),另一端是非结构化文档的庞大存储库(如监管手册和 ERP 系统指南)。Snowflake Cortex 智能体代表了这一范式的根本转变,它提供了一个托管框架,用于构建不仅能检索数据、还能规划复杂任务、执行专用工具,并以高精度和可验证的引用综合生成洞察的智能助手。

Cortex 智能体框架:规划、工具调用与反思机制

从核心架构来看,Cortex 智能体本质上是一个编排引擎,其设计目标是在数据仓库的安全边界内,通过协同调用多个异构数据源,生成深度洞察结果。与标准大语言模型在面对复杂数据库模式时容易产生幻觉输出不同,Cortex 智能体遵循一套严谨的四阶段生命周期:规划、工具调用、反思与监控。

在规划阶段,智能体将自然语言查询拆解为若干逻辑子任务。它能够精准判断:当用户询问“净利润率”时,是否需要针对分类账执行 SQL 查询;而当问题涉及“会计科目计划表的配置前提”时,是否应转而检索 Microsoft Dynamics 365 Business Central 中的技术文档。

在工具调用阶段,智能体会激活特定的专业服务。针对结构化数据,智能体调用 Cortex Analyst 服务。该服务通过语义模型的理解,能够以超过 90% 的准确率将自然语言转化为 SQL 语句。针对非结构化数据,智能体则启用 Cortex Search,其采用混合检索机制,融合了基于向量的语义搜索与基于关键词的词法搜索。这一混合策略在金融领域尤为重要:一方面,对于“总账科目”这类精确术语,必须实现字符级精准匹配;另一方面,对于“收入确认政策”等宽泛概念,又需通过语义理解捕捉上下文关联。

在反思阶段,智能体对其所调用工具返回的结果进行评估。若发现数据不充分,或 SQL 执行过程中抛出异常,智能体将进行迭代调整——修正执行计划、切换备选工具,或向用户发起澄清性追问。这一闭环迭代流程确保了最终输出内容严格锚定于 Snowflake 中存储的真实数据,而非大模型自身的参数化记忆。

基础环境搭建与基于角色的访问控制

实施金融智能体需要严格的安全基础,以确保编排层遵循与金融数据其他部分相同的治理标准。Snowflake 通过特定的数据库角色和权限来管理对 Cortex 功能的访问。SNOWFLAKE.CORTEX_USER 角色提供对更广泛 AI 功能套件的访问权限,而 SNOWFLAKE.CORTEX_AGENT_USER 则是专门用于智能体特定操作的专用角色。

在专业的金融环境中,最小权限原则要求为智能体应用程序创建一个专门的、自定义的角色。必须授予该角色对其将要使用的特定数据库、模式(Schema)和虚拟仓库的 USAGE 权限,以及对智能体对象本身的 OWNERSHIP 或 USAGE 权限。以下实现展示了数据库基础设施的创建以及必要权限的分配。

-- 初始基础设施创建USE ROLE ACCOUNTADMIN;-- 为金融分析和智能体编排创建专用虚拟仓库CREATE WAREHOUSE IF NOT EXISTS FINANCIAL_AGENT_WH     WITH WAREHOUSE_SIZE = 'X-SMALL'     AUTO_SUSPEND = 60     AUTO_RESUME = TRUE;-- 用于金融智能的主数据库和模式CREATE DATABASE IF NOT EXISTS FIN_INTEL_DB;CREATE SCHEMA IF NOT EXISTS FIN_INTEL_DB.CORE;-- 为金融智能体创建自定义角色CREATE ROLE FIN_AGENT_ROLE;-- 将强制性的 Snowflake AI 数据库角色授予自定义角色GRANT DATABASE ROLE SNOWFLAKE.CORTEX_USER TO ROLE FIN_AGENT_ROLE;GRANT DATABASE ROLE SNOWFLAKE.CORTEX_AGENT_USER TO ROLE FIN_AGENT_ROLE;-- 授予标准资源使用权限GRANT USAGE ON DATABASE FIN_INTEL_DB TO ROLE FIN_AGENT_ROLE;GRANT USAGE ON SCHEMA FIN_INTEL_DB.CORE TO ROLE FIN_AGENT_ROLE;GRANT USAGE ON WAREHOUSE FINANCIAL_AGENT_WH TO ROLE FIN_AGENT_ROLE;-- 授予模式级别的创建权限,用于创建智能体相关对象GRANT CREATE TABLE, CREATE STAGE, CREATE VIEW, CREATE CORTEX SEARCH SERVICE, CREATE AGENT     ON SCHEMA FIN_INTEL_DB.CORE TO ROLE FIN_AGENT_ROLE;-- 将该角色分配给技术用户GRANT ROLE FIN_AGENT_ROLE TO USER <your user>;GRANT CREATE SEMANTIC VIEW ON SCHEMA FIN_INTEL_DB.CORE TO ROLE FIN_AGENT_ROLE;
复制代码

这些权限的隔离是一项关键的安全控制措施。 通过确保智能体在 FIN_AGENT_ROLE 角色范围内运行,组织可以防止编排模型访问未经授权的数据或执行破坏性操作。此外,任何应用于基础表的行访问策略或数据脱敏规则都将被智能体的查询自动继承,从而维持一致的安全防护态势。

结构化数据架构:总账建模

要使 Cortex 智能体能够回答核心财务问题,底层数据库的结构必须反映财务报告的逻辑流程。《Microsoft Dynamics 365 Business Central 指南》强调,财务报告本质上是行定义(公式)与列定义(数据源)的“外积”。在 Snowflake 环境中,这体现为一种规范化模式,即中央总账分录事实表与科目、部门、区域等维度表建立关联。

一个高性能的财务模式通常包含:

  • 事实表:存储交易流水记录(例如:总账、销售账);

  • 维度表:提供描述性属性(例如:会计科目表、成本中心);

  • 分类映射:将过账科目映射到更广泛的类别(例如:资产、负债、收入),以简化报表定义的复杂度。

USE ROLE FIN_AGENT_ROLE;USE DATABASE FIN_INTEL_DB;USE SCHEMA CORE;-- 维度:会计科目表CREATE OR REPLACE TABLE DIM_GL_ACCOUNT (    ACCOUNT_KEY INT PRIMARY KEY,    ACCOUNT_NO VARCHAR(20),    ACCOUNT_NAME VARCHAR(100),    ACCOUNT_CATEGORY VARCHAR(50), --资产、负债、收入、费用    ACCOUNT_SUB_CATEGORY VARCHAR(50),    ACCOUNT_TYPE VARCHAR(20) --  过账 或 页眉);-- 维度:组织结构CREATE OR REPLACE TABLE DIM_DEPARTMENT (    DEPT_KEY INT PRIMARY KEY,    DEPT_NAME VARCHAR(50),    REGION_NAME VARCHAR(50));-- 事实:总账分录CREATE OR REPLACE TABLE FCT_GL_ENTRY (    ENTRY_ID INT PRIMARY KEY,    POSTING_DATE DATE,    ACCOUNT_KEY INT REFERENCES DIM_GL_ACCOUNT(ACCOUNT_KEY),    DEPT_KEY INT REFERENCES DIM_DEPARTMENT(DEPT_KEY),    AMOUNT FLOAT,    DESCRIPTION VARCHAR(255));-- 插入示例财务数据以作演示INSERT INTO DIM_GL_ACCOUNT VALUES (1, '40100', 'Product Sales', 'Income', 'Sales', 'Posting'),(2, '60200', 'Travel Expense', 'Expense', 'Administration', 'Posting'),(3, '10100', 'Operating Cash', 'Asset', 'Cash', 'Posting');INSERT INTO DIM_DEPARTMENT VALUES (1, 'North American Sales', 'Americas'),(2, 'European Marketing', 'EMEA');INSERT INTO FCT_GL_ENTRY VALUES (1, '2025-01-15', 1, 1, 75000.00, 'Q1 Enterprise License Sale'),(2, '2025-01-20', 2, 2, 1200.50, 'Flight to London Conference'),(3, '2025-02-05', 1, 1, 45000.00, 'Mid-quarter software renewal');-- 确保美洲区域存在相应部门INSERT INTO DIM_DEPARTMENT (DEPT_KEY, DEPT_NAME, REGION_NAME) VALUES (3, 'US Enterprise Sales', 'Americas');-- 插入 2025年1月 特定产品销售收入-- ACCOUNT_KEY 1 对应上述配置中的 '产品销售收入'INSERT INTO FCT_GL_ENTRY (ENTRY_ID, POSTING_DATE, ACCOUNT_KEY, DEPT_KEY, AMOUNT, DESCRIPTION)VALUES (4, '2025-01-14', 1, 3, 125000.00, 'January Software License - Americas');--  再插入一条以验证后续的数据聚合效果INSERT INTO FCT_GL_ENTRY (ENTRY_ID, POSTING_DATE, ACCOUNT_KEY, DEPT_KEY, AMOUNT, DESCRIPTION)VALUES (5, '2025-01-28', 1, 3, 50000.00, 'January Consulting Services - Americas');
复制代码

这种结构化的规范化处理是实现 Text-to-SQL 的第一步。通过显式定义主键和外键,数据架构师提供了 Cortex Analyst 所需的元数据,使其能够正确理解如何关联表以及如何准确聚合金额数据。

非结构化数据处理:摄取 Microsoft Business Central 指南

财务智能体的第二大支柱是其对非结构化文档的访问能力。Microsoft 关于 Business Central 财务报告的指南提供了有关会计科目表工作原理、总账预算重要性以及维度使用的关键上下文。为了让智能体能够“搜索”该文档,必须先对其进行摄取、解析和索引。

Snowflake 的非结构化数据管道涉及将文档上传至内部暂存区,使用 AI_PARSE_DOCUMENT 函数进行内容提取,然后对文本进行分块以便在 Cortex Search 中建立索引。AI_PARSE_DOCUMENT 中的 LAYOUT 模式对于财务手册尤为重要,因为它能保留表格和标题的结构完整性,而这些元素在软件指南中十分常见。

文档解析与语义分块

财务文档内容密集且高度依赖上下文。仅仅按字符数进行简单拆分往往会导致信息碎片化。因此,采用递归字符拆分——并优先考虑 Markdown 标题或换行符——可确保概念单元的完整性。

-- 为 Microsoft 手册创建安全的内部暂存区CREATE OR REPLACE STAGE MANUALS_STAGE     DIRECTORY = (ENABLE = TRUE)    ENCRYPTION = (TYPE = 'SNOWFLAKE_SSE');-- 用于存储已处理和分块文档内容的表CREATE OR REPLACE TABLE PROCESSED_MANUAL_CHUNKS (    FILE_ID TEXT,    FILE_NAME TEXT,    CHUNK_ID NUMBER,    CHUNK_TEXT TEXT,    METADATA VARIANT);-- 摄取管道逻辑(概念流程)-- 1.  将财务指南上传至 @MANUALS_STAGE-- 你可以从以下 URL 复制内容并导出为 PDF:-- https://learn.microsoft.com/en-us/dynamics365/business-central/bi-how-work-account-schedule
复制代码

可以使用 Snowflake CLI 上传,或在 Snowflake UI 中导航至刚创建的暂存区,点击“+文件”上传 PDF。

-- 2. 执行提取与分块 SQL:INSERT INTO PROCESSED_MANUAL_CHUNKS (FILE_ID, FILE_NAME, CHUNK_ID, CHUNK_TEXT, METADATA)SELECT     MD5(relative_path) as FILE_ID,    relative_path as FILE_NAME,    c.index as CHUNK_ID,    c.value as CHUNK_TEXT,    PARSE_JSON(SNOWFLAKE.CORTEX.AI_PARSE_DOCUMENT(TO_FILE('@MANUALS_STAGE', relative_path), {'mode': 'LAYOUT'})):metadata as METADATAFROM     DIRECTORY(@MANUALS_STAGE),    LATERAL FLATTEN(input => SNOWFLAKE.CORTEX.SPLIT_TEXT_RECURSIVE_CHARACTER(        TO_VARCHAR(SNOWFLAKE.CORTEX.AI_PARSE_DOCUMENT(TO_FILE('@MANUALS_STAGE', relative_path), {'mode': 'LAYOUT'}):content),         'markdown', 1500, 200)) c;
复制代码

使用 LAYOUT 模式可确保输出的 Markdown 格式能正确反映 Microsoft 指南的层级结构。通过保留“总账科目类别”与“总账预算”之间的区别,后续的搜索服务在智能体被问及报表设置问题时,能够提供更精准的上下文信息。

配置专用智能工具

Cortex 智能体不直接与原始数据表交互,而是通过工具进行交互。对于这个财务智能体,我们必须配置一个 Cortex 搜索服务用于手册查询,并配置一个语义视图用于账本数据。

文档的 Cortex 搜索服务

搜索服务为智能体提供"模糊"检索能力。它会创建一个混合索引,使智能体既能查找特定的技术术语(如"账户计划表"),又能理解语义相关的查询(如"如何计算账户组的小计?")。

CREATE OR REPLACE CORTEX SEARCH SERVICE MANUAL_SEARCH_SERVICE    ON CHUNK_TEXT    ATTRIBUTES FILE_NAME    WAREHOUSE = FINANCIAL_AGENT_WH    TARGET_LAG = '1 day'    EMBEDDING_MODEL = 'snowflake-arctic-embed-l-v2.0'AS (    SELECT CHUNK_TEXT, FILE_NAME FROM PROCESSED_MANUAL_CHUNKS);
复制代码

TARGET_LAG 参数在财务系统中是一项关键配置。虽然对于静态手册而言,设置为 '1 day' 通常已足够,但对于文档更新更频繁的组织(例如每日市场研究报告),可以选择更短的间隔,以确保智能体的知识库保持时效性。

财务分析的语义视图

Cortex Analyst 在自然语言与 SQL 之间架起了桥梁。语义视图是一个模式级别的对象,用于定义数据的业务逻辑。它将物理列映射到业务术语,定义"净收入"等指标,并建立账本与维度表之间的关联关系。

CREATE OR REPLACE SEMANTIC VIEW FINANCIAL_INTELLIGENCE_VIEWTABLES (    ledger AS FCT_GL_ENTRY PRIMARY KEY (ENTRY_ID),    accounts AS DIM_GL_ACCOUNT PRIMARY KEY (ACCOUNT_KEY),    departments AS DIM_DEPARTMENT PRIMARY KEY (DEPT_KEY))RELATIONSHIPS (    ledger (ACCOUNT_KEY) REFERENCES accounts,    ledger (DEPT_KEY) REFERENCES departments  )DIMENSIONS (    accounts.ACCOUNT_NAME AS account_name        WITH SYNONYMS = ('Product Sales', 'Travel Expense', 'Revenue Type')        COMMENT = 'The formal name of the GL account',        accounts.ACCOUNT_CATEGORY AS account_category        WITH SYNONYMS = ('Category', 'Classification'),    departments.DEPT_NAME AS dept_name        WITH SYNONYMS = ('Department', 'Cost Center'),    departments.region AS REGION_NAME        WITH SYNONYMS = ('Region', 'Geography', 'Location')        COMMENT = 'The geographic area like Americas or EMEA',    ledger.POSTING_DATE AS posting_date        WITH SYNONYMS = ('Transaction Date', 'Date'))METRICS (    ledger.total_amount AS SUM(ledger.AMOUNT)        COMMENT = 'The absolute sum of the ledger entries',        ledger.net_sales AS SUM(CASE WHEN accounts.ACCOUNT_CATEGORY = 'Income'       THEN ledger.AMOUNT ELSE 0 END)        WITH SYNONYMS = ('Total Sales', 'Revenue', 'Gross Income')        COMMENT = 'Total revenue from income-categorized accounts',        ledger.total_opex AS SUM(CASE WHEN accounts.ACCOUNT_CATEGORY = 'Expense'       THEN ledger.AMOUNT ELSE 0 END)        WITH SYNONYMS = ('Expenses', 'Opex', 'Spending')        COMMENT = 'Total operating expenses');
复制代码

在语义视图中加入诸如 net_sales 和 total_opex 这类具体指标,可以防止大语言模型尝试从零开始计算这些数值——这正是许多 AI 产生幻觉的环节。通过在语义视图内用 SQL 定义业务逻辑,组织能够确保智能体提供一致且可审计的结果。

构建金融智能体对象

最后一步是编排层。CREATE AGENT 命令定义了智能体的思考方式、应使用的工具集以及必须遵循的规则约束。该过程通过基于 YAML 的规范文件实现,其中详细描述了编排模型、工具配置及系统指令集。

一个成熟的金融智能体必须具备处理模糊查询的明确指引。例如,当用户询问“我们在差旅上花了多少钱?”时,智能体应调用 Analyst 工具;而当用户询问“差旅费用的报销政策是什么?”时,则应切换至 Search 工具。

本次我们将通过 UI 界面创建智能体。

1.确保你已被分配至 FIN_AGENT_ROLE 角色;

2.导航至 AI/ML => Agents,点击 ‘Create agent’ 按钮;

3.在描述字段中可填写类似内容:“精通总账分析与 Microsoft Dynamics 365 BI 指引的专家智能体”。

示例问题建议:

  • 2025 年 1 月美洲区域的产品销售总额是多少?

  • 根据 Business Central 指南,新建科目附表的前提条件有哪些?

  • 欧洲市场部差旅费用为 $1,200.50 美元,此入账是否符合文档中“行政管理”子类目的准则?

  1. 接着切换至 ‘Tools’ 标签页,添加该智能体可调用的两个工具:

添加 Cortex Analyst 工具:

添加 Cortex Search 工具:

现在两个工具已就绪,你可选择在新标签页中分别打开它们:

你还可以添加经过验证的查询语句:

完成后,请务必保存智能体配置:

点击 ‘Preview in Snowflake Intelligence’:

你将看到刚创建的智能体聊天界面,并附带已添加的三个示例问题:

点击任意问题即可获取回答:

你还可以继续追问后续问题:

现在,让我们测试对文档库的搜索功能是否生效:

尽管这只是基础演示,但其底层技术架构可扩展至更复杂的业务场景。

附注:该智能体同样支持通过代码方式创建:

ALTER AGENT FIN_INTEL_DB.CORE.FIN_AGENT  MODIFY LIVE VERSION SET SPECIFICATION = $$    models:      orchestration: auto    tools:      - tool_spec:          type: cortex_analyst_text_to_sql          name: FinanceAnalyst          description: "Provides access to the general ledger, account totals, and sales metrics."      - tool_spec:          type: cortex_search          name: GuideSearch          description: "Searches the Microsoft Dynamics 365 Business Central BI documentation."    tool_resources:      FinanceAnalyst:        semantic_view: "FIN_INTEL_DB.CORE.FINANCIAL_INTELLIGENCE_VIEW"        execution_environment:          type: warehouse          warehouse: FINANCIAL_AGENT_WH      GuideSearch:        name: "FIN_INTEL_DB.CORE.MANUAL_SEARCH_SERVICE"        max_results: 5  $$;
复制代码

策略指令与工具选择

智能体的效能高度依赖于编排指令。这些指令在大语言模型(LLM)的规划阶段起到指引作用。通过定义“何时使用”与“何时禁止使用”的规则,数据工程师可以防止智能体调用搜索服务来回答数学问题,从而避免性能低下及潜在的答案错误。

生命周期管理:交互、线程与 API 集成

部署完成后,Cortex 智能体可通过 REST API 集成至自定义应用程序中,或是在 Snowsight 智能体演练场进行测试。智能体 API 的一项关键特性是利用“线程”来持久化对话上下文。在财务分析场景中,用户很少只问一个问题;他们会进行多轮的数据探索(例如:“总营收是多少?”紧接着问“按部门拆分一下”)。

REST API 工作流程

为了维持对话连续性,客户端应用程序必须跟踪 thread_id 和 message_id。工作流程遵循以下可预测的顺序:

  • 初始化:发送带有 parent_message_id: 0 的请求以开启一个新线程;

  • 追踪:API 会流式返回元数据,其中包括每轮对话唯一的 message_id;

  • 继续:若想继续对话,下一次请求必须将上一次成功的助手消息 ID 作为其 parent_message_id。

这种机制使得智能体能够记住先前计算出的数值(例如第一季度的营收总额),并应用后续的筛选条件(例如“仅显示该总额中 EMEA 地区的部分”),而无需重新执行整个思考过程。

性能优化与高级配置

对于企业级的财务智能体而言,仅靠简单的配置往往是不够的。大容量环境需要对检索和生成阶段进行优化,以确保回答的准确性与成本效益。

多索引检索与权重提升

如果金融知识库的规模增长至包含数千份文档(例如,历史 10-K 财报文件、内部审计报告及 ERP 手册),单一搜索服务的性能可能会出现下降。Snowflake 支持多索引检索,使智能体能够借助“特定索引权重提升”功能,同时对不同数据源进行检索。

例如,数据架构师可能希望优先检索“官方政策”文档,而非“会议记录”数据。为此,可为政策索引赋予更高权重,从而确保当智能体被问及差旅指南时,会优先查阅官方手册,而不是先去查看某条随机的客服工单。

已验证查询知识库 (VQR)

Cortex Analyst 内置了“已验证查询知识库”(Verified Query Repository, VQR),管理员可将特定的自然语言问题映射至人工编写且经过验证的 SQL 查询。在金融领域,出于监管要求,某些指标必须绝对精确地计算,此时 VQR 充当“黄金路径”。例如,当用户询问“我们当前的资产负债率是多少?”时,VQR 会确保智能体执行由财务团队核准的精确 SQL 查询,从而完全绕过大语言模型的查询生成逻辑。

金融 AI 编排中的安全性与隐私保护

金融行业属于监管最严格的领域之一,AI 的应用引发了数据泄露与隐私方面的担忧。Snowflake Cortex 智能体采用“安全优先”的架构设计,确保数据始终不离开 Snowflake 的治理边界。

  • 仓内推理:与需要将数据发送至第三方 API 的外部 AI 服务不同,Cortex 智能体直接在 Snowflake 虚拟仓库内部执行模型(例如来自 Mistral、Meta 及 Snowflake 自身的模型);

  • 基于角色的访问控制与策略传播:若用户因行访问策略限制而无法查看“人力资源”相关支出,智能体自然也无法检索或计算这些数据。智能体生成 SQL 的能力受限于执行角色的权限;

  • 数据脱敏:尽管智能体可利用元数据生成 SQL,但会严格遵守对包含敏感信息(如员工薪资或特定客户姓名)的列的脱敏规则。智能体的最终回复仅展示脱敏后的数据,从而防止未经授权的信息泄露。

金融工程智能体实施最佳实践

为确保金融智能体的长期成功,实施团队应遵循以下若干最佳实践:

  • 描述性命名规范:工具名称应采用“领域”(如“Ledger/总账”)加“功能”(如“Analyst/分析师”)的组合方式。避免使用“Tool1”或“Search”等含义模糊的名称,以降低编排过程中的错误概率;

  • 详尽全面的描述:每个工具的描述应明确说明其覆盖的数据范围,更重要的是,应指出其无法处理的内容。明确“禁止使用场景”有助于清晰划定能力边界;

  • 语义模型定期迭代:金融术语会随时间演变。语义模型应持续更新同义词与样本值,以帮助大语言模型识别新的会计科目或产品线;

  • 引用来源校验:开发人员应监控智能体的推理过程事件,确保引用标注正确生成。引用是建立专业用户信任感的核心机制。

智能体在金融领域的未来展望

Cortex 智能体的部署,标志着金融智能新时代的开启。通过从静态仪表盘向对话式编排的转变,企业能够赋能团队,以思考的速度获取答案。将 Microsoft Business Central 智能指南与总账进行集成,仅是迈出的第一步。未来,这些智能体的迭代版本将能够通过外部 API 接入实时市场数据,借助自定义工具(如用户定义函数 / 存储过程)自动生成审计日志,并利用“数据转图表”功能生成复杂的财务可视化内容。

随着技术的不断成熟,“人在回路”模式仍将发挥关键作用,但财务分析师的职责将从数据收集转向更高层次的战略决策。Cortex 智能体作为效能倍增器,承担繁重的数据检索与解读工作,使专业人员能够专注于数据背后的深层影响。在精准度要求极高的金融领域,构建一个受管控、透明且根植于组织特有数据的智能体,不仅是一种技术优势,更是一种战略必需。

如需获取更多与 Snowflake 相关的文章更新,欢迎在 Medium 上关注我:Eylon's Snowflake Articles

我是 Eylon Steiner,Infostrux Solutions 工程经理兼 Snowflake 数据超级英雄。您也可以在 LinkedIn 上关注我。

请通过 https://blog.infostrux.com 订阅 Infostrux Medium 博客,获取最新前沿的数据工程与 Snowflake 资讯。欢迎通过 GitHub关注 Infostrux 的开源项目动态。

原文地址:https://medium.com/snowflake/architectural-orchestration-of-financial-intelligence-implementing-snowflake-cortex-agents-for-4349df4057b2

点击链接立即报名注册:Ascent - Snowflake Platform Training - China更多 Snowflake 精彩活动请关注专区

2050 大会倒计时 2 天!

⏰活动时间 | 2026 年 4 月 24 日-26 日

🏠活动地点 | 杭州市云栖小镇国际会展中心

今年的 2050 有点狠:两天一夜,130+场论坛、500+分享者,从早 8 点一路讲到深夜。

全球最有趣的年轻开发者、创客、AI 爱好者将齐聚杭州。

截至 4.22 18:00

这里刻意去掉了大会常见的那套:没有主办方架子、没有 Logo 墙铺满、没有 VIP 标签。所有人统称“自愿者”,人人买票入场。这里有对科技的热爱,以及更纯粹的快乐。

2050 大会,王坚院士在 2018 年发起的一场年面向年轻人的“科技乌托邦式聚会”,极客邦科技创始人兼 CEO 霍太稳(Kevin)也是最早的共创者之一。

今年,极客邦科技依然深度参与,旗下模力工场和 TGO 的鲲鹏会的伙伴们,为了能在 2050 大会上以更丰富有趣、更意思的方式与大家见面,我们几乎拼尽了全力、绞尽了脑汁。

参与我们的本次系列活动,你可以得到:

  • 实用好玩的 AI 工具+保姆级指南

  • 加入高手云集的 AI 社区,随便聊聊都可能打开新思路那种

  • AI 现场为你特调的小酒或饮品

  • 我们认真打磨、经过多轮头脑风暴设计出的精美周边

  • 不只是技术,还有踢足球、看演出、晨读等活动,顺便认识一群有意思的人

  • ......更多彩蛋,欢迎来线下解锁哦~

如果你还不清楚如何报名,或者对交通食宿不够明白,请往下看!

参与方式 &大会议程

  1. 首先,进入 2050 活动现场,每人需要一张 2050 的唯一通行证:2050PASS

关于价格,看起来有点奇怪:

  • 三日 2050PASS:330 元

  • 单日 2050 PASS:660 元

(以上费用不包含餐饮和住宿)

为什么待三天反而更便宜?因为发起者鼓励你三天两夜都留在 2050,留出足够的时间,和更多有趣的“年青人”认真见面交流。

获取 2050PASS:

了解更多活动信息,抽取 2050 门票,回复“2050 抽取门票”:

  1. 今年的 2050 大会有多个“活动容器”:新生论坛、探索空间、热点雨林、思想约会、青春舞台、热力运动、百城味道、星空露营……每个容器里,都装着多个由自愿者(模力工场和 TGO 鲲鹏会也是是自愿者之一)发起的活动。

总览日程如下:

大会地图:

如何在 2050 大会找到我们?

今年,模力工场和TGO鲲鹏会,准备了更丰富有趣、更意思的活动和超多礼品,欢迎全网科技爱好者来玩!

4 月 24 日(周五)

  • 14:00–16:00|足球争霸赛

  • 地点|云栖小镇国际会展中心 足球场

来一场不太严肃、但可能很上头的 5 人制足球局:不管你是技术流还是气氛组,都可以上场跑两脚、顺便认识一群同样好动的人。

2018 年首届 2050 大会足球争霸赛

  • 18:00–21:00|TGO 鲲鹏会学员欢迎晚宴

  • 地点|老桐庐 1977 餐厅(转塘店) 包厢 1-3

这一顿不只是欢迎,更是一次轻松认识彼此的机会:边吃边聊,说不定就聊出下一次合作或灵感。

4 月 25 日(周六)

  • 6:30-8:00 | 带上喜欢的文字,一起晨读吧

  • 地点|云栖之眼附近草坪

放下手机,放下短视频,放下 AI,只带来你心爱的篇章。迎着朝阳,一起放开嗓子,用声音,和彼此的默契,感受文字的美好。

形式:

1. 我们根据大家的喜好,提前准备好要晨读的篇章,打印少许

2. 现场三五个人一份,有喜欢相应篇章的同学带头晨读,依次循环

  • 9:00-18:00| “你得了 AI 病 · AI 职场心声站”展台

  • 地点|云栖小镇国际会展中心二期 探索空间

不只是看展,这是我们精心准备的超好玩 AI 应用体验区,当然,还有一些好东西可以免费带走!

你可以从抽一张 AI 工具卡开始:30 秒带走一个真能用的 AI 应用,说不定正好解决你最近的小问题。

(共 14 款,看你能抽到哪款~)。

接着再玩点不一样的:AI 可以给你做一枚专属徽章;还可以根据你的心情和描述,来一杯 AI 现场特调酒(或其他饮品)。

也可以停下来写点你对 AI 职场的想法:在“打工人实录”和“早日退休”两棵树上尽情吐槽(要夸也行)👉 说不定你的内容,还会被做成开源 Skill。

还可以获得我们原创设计的模力工场周边手提袋哦~

  • 14:00-16:00| 亲子时光微电影专场

  • 地点|云栖小镇国际会展中心 A 区 2-3 夹层楼 地球基地

你可以和孩子把一段回忆、一个小故事,现场变成一支属于你们的微电影。

从“看懂 AI 视频”到“亲手创作”,没有门槛,一步步完成一支 2 分钟亲子短片。作品会在现场大屏幕放映,把那些平时说不出口的瞬间,认真记录下来。

  • 19:00 起| 合唱表演

  • 地点 | 云栖小镇国际会展中心 A 区 二楼 云栖厅

一群爸爸妈妈和孩子组成的合唱团~带来一首原创歌曲《一群无知少年的梦想》。“无知少年”是王坚院士提出的一个概念,非贬义,主要用于描述年轻人在面对未知世界时所具备的纯粹、开放与创造力。

这里的“少年”不仅指年龄上的青年,更指一种精神状态——充满好奇、不惧失败、愿意为理想投入。

2018 年 2050 创始届的青春舞台

4 月 26 日(周日)

  • 6:30-8:00 | 带上喜欢的文字,一起晨读吧

  • 地点|云栖之眼附近草坪

(活动信息同上)

  • 9:00-17:00| “你得了 AI 病 · AI 职场心声站”展台

  • 地点|云栖小镇国际会展中心二期 探索空间

(活动信息同上)

  • 9:00-12:00 | AI 社区怎么干?

  • 地点|云栖小镇国际会展中心 A 区 二楼 团聚基地

这次,我们想聊的,是一个更大的问题:AI 社区,到底该怎么做?

如果你对 AI 时代的社区怎么玩儿,有想法、在做相关事情,或者只是好奇未来的科技会怎么发展,都欢迎来聊一聊。

当然,还有一些精心准备的小礼物等你来拿~

到场攻略

交通指南

  1. 公共交通指南

温馨提示:乘坐地铁的各位朋友,请在科海路站下车,B2 口出站

杭州萧山机场 - 云栖小镇国际会展中心

驾车:杭州萧山机场 - 云栖小镇国际会展中心;全程 42 公里,用时约 60 分钟;

地铁路线:萧山国际机场站乘坐【7 号线(吴山广场方向)】,奥体中心站下车站内换乘--【6 号线(双浦方向)】科海路 B2 口下车出站,下车步行 549m;

公交线路:萧山国际机场站乘坐【机场大巴武林门线】, 浙医二院公交站下车同站换乘--【39 路(里桐坞方向)】,九溪公交站下车同站换乘--【500 路(富阳客运南站方向)】,地铁科海路站(A 口)下车(机场大巴武林门线运营时间:24h)。

杭州东站 - 云栖小镇国际会展中心

驾车:杭州东站 - 云栖小镇国际会展中心;全程 30 公里,用时约 50 分钟;

地铁路线:火车东站(东广场)地铁站乘坐【地铁 6 号线(双浦方向)】,科海路地铁站 B2 口下车出站,下车步行 549m;

公交线路:火车东站西公交站乘坐【20 路(杭州陶瓷品市场方向)】--民安苑公交站下车同站换乘--【500 路(富阳客运南站方向)】--地铁科海路站(A 口)下车。

杭州西站 - 云栖小镇国际会展中心

驾车:杭州西站 - 云栖小镇国际会展中心;全程 30 公里,用时约 40 分钟;

地铁路线:火车西站地铁站乘坐【地铁 19 号线(永盛路方向)】,火车东站(东广场)地铁站下车站内换乘--【6 号线(双浦方向)】,科海路 B2 口下车出站,下车步行 549m。

  1. 自驾指南

温馨提示:会场周边停车场资源非常紧张,建议选择公共交通或网约车出行。

🅿️停车场地址:云栖小镇国际会展中心地下停车场(导航至云栖小镇国际会展中心西门)

入场方式:凭 2050 金属 PASS 或 2050PASS 动态二维码入场,先到先得。出场前可到会场 2050PASS 领取处(服务台)领取停车券,免费停车。

住宿指南

目前,星空露营区已满员!请大家尽快就近安排酒店,我们为大家整理了一版信息供参考~

餐饮攻略

  1. 会场内餐饮

百城味道:这里有全国(甚至是世界)各地的美食,还有不少免费试吃活动哦!

  1. 会场外周边餐饮,详情见下方导览图

温馨提醒:会场周边外卖可送达地址 —— 杭州云栖小镇国际会展中心(南门)/(北门)。

编者注:2026 年我们将重启少数派音乐推荐栏目 FM3.14,特邀资深音乐从业者及爱好者为大家推荐优质的华语独立、流行音乐,今年我们也很荣幸邀请到老朋友飞傲,为本栏目冠名。飞傲目前拥有品牌以音乐发烧友为主,主打音质和专业音频功能,定位于专业 HiFi 音频设备的 FIIO 飞傲,以喜欢音乐的大众消费者为主,定位于高性价比的入门 HiFi 设备的 JadeAudio 翡声和以注重颜值、个性化的年轻用户为主,定位于时尚个性 HiFi 设备的 SNOWSKY 雪漫天。


各位春天好!我是麻乐,接下来的每个月,我会精选华语音乐圈的新专辑给大家……等等,或许你问我是谁?

先自报家门,我是一个从业超过十年的音乐记者,科班新闻实务出身,经受的新闻训练来自南方都市报娱乐新闻部,后来把自己的兴趣——音乐,跟工作结合,和同事们共创了音乐自媒体——着调,推荐新专辑,讲音乐里的人生故事。

再后来对音乐实在热爱,按捺不住去世界看看,在疫情期间前往洛杉矶的南加州大学修读音乐产业。学成归来,世界解封,我又重操旧业,操办与伙伴小美共建的自媒体——CareForMusic 音乐关怀,一个继续推荐好音乐和讲音乐人故事的平台。

我们现在的口号是“记录好音乐”,一语双关——把音乐好好记录下来,以及把好的音乐记录下来。

我们觉得在华语音乐的场域里,无论是主流还是独立音乐,创意一直百花齐放,然而被看见听见的总是极少数。数据标准和商业逻辑横行,挫伤音乐的生命力和音乐人的积极性,所以我们仅从自己的价值和审美出发,去推荐一些既有个性又闪烁人文关怀的音乐作品,风格不拘,题材不限,来为这个时代的听觉查漏补缺。

然而个人的力量极小,也期待大家一起来推荐你的音乐心头好,把你听到的好歌分享在评论区。

面对音乐,欣赏角度多元,理解程度各异,我们求同存异。聚集在同一张专辑下的朋友们,就是可贵的知音。这篇推荐小文,不是什么鉴定评论,而是导听指引,给大家做一些佐餐小食、前情提要,让你在聆听时大快朵颐。

第一季度的好专辑不少,我们遴选八张,供各位赏味、参考!

触发器乐队 Trigger《车祸的幸福》

2026 年 1 月 1 日

另类摇滚新图景

独立音乐式微吗?当有张醒婵这号人物出现,就给万千(尤其内地的)独立音乐人带来希望,单靠音乐的力量去征服听众,在流量世界里,还是可以实现的神话。

如今她的名字可说是内地独立音乐的代表之一,即便以“抓子”的艺名在触发器乐队活跃,也难掩个人光辉。

触发器乐队 Trigger 首张专辑《车祸的幸福》,由张醒婵执掌词曲,由乐队编曲,听觉围绕吉他、贝斯、鼓的摇滚三大件展开。词里是张醒婵式的散文诗,意象丰盛,情思细腻,引人猜度,同名主打“车祸的幸福”名字都令人玩味——车祸怎么会幸福?Apple Music 的解读是“两人的爱情被想象成两台迎面相撞的车辆”。

对比张醒婵的个人作品,乐队的专辑多了集体参与的粗粝,器乐比例增加,炮制出宏伟的听觉图景,一些曲目例如《永久地走掉》闪现后摇的光芒。游弋在摇滚诗篇里的是张醒婵的音色,清亮出挑,令人无法忽视,这是华语独立音乐的瑰宝,专辑里有这把嗓子的多种情态表演,将柔美、脆弱与癫狂交织,在一首《悲伤盒子》里,歇斯底里的颗粒嗓音把情绪推至顶点。

触发器乐队 Trigger 在 2022 年成立于武汉,现成员有抓子(人声/吉他)、591(人声/吉他)、光光(贝斯)、等等小愿(鼓),在专辑发布后等等小愿已离队。

当网友们七嘴八舌讨论专辑的细节、比对前作时,触发器的账号在留言区写到:“希望大家好好欣赏音乐整体,而不要去过于纠结细枝末节!”

LEO 王《薯条雷鬼》

2026 年 1 月 26 日

反拍和管乐成就的薯条式快感

LEO 王转投雷鬼,雷鬼是 1960 年代源自牙买加的音乐类型,以放松的反拍节奏、沉重的贝斯线为特色。当 LEO 王的说唱潜入反拍的逍遥之海,身体不自觉飘飘然。这是一张极度舒适的消遣专辑,就像薯条带给人的愉悦,是不可替代的快感。

在得到金曲奖最佳男歌手后,LEO 王时隔八年才推新专辑《薯条雷鬼》,延续他前作的鬼马风趣,没有深刻的立意,全然记叙小人物的琐碎生活。管乐的注入与节奏的反拍,是专辑的听感核心,音乐与演唱互相成就,落笔轻松,幽默诙谐,独立音乐圈当红女艺人 9m88、陈娴静的助阵,更提亮了这顿薯条的满足感。

Wantamnam 我地希望《岛 Dou》

2026 年 1 月 6 日

OMG? Made in Hong Kong!

长达 87 分钟的双专辑,是我地希望对希望的坚信与守护。

香港被商业浸染透顶,她是不是变成了文艺的盐碱地?提到香港的 Indie 音乐,近些年里,无法具象,没有代表,他们在哪里?

当一丝人性的光辉从香港的音乐里渗出,那是生命力重新萌发的惊喜。乐队 Wantamnam 我地希望的专辑《岛 Dou》,就是这样的意料之外——香港竟还有这样的乐队?

百无聊赖的男声,唱一种新式民谣,《岛 Dou》里融入后摇(注重器乐)、嘻哈(主打说唱)、灵魂乐(黑人音乐的代表之一)甚至爵士的调料,在民谣的底色上制造一个朦胧的梦境,像水墨那样氤氲在宣纸之上。器乐穿引着民谣,意识流的乐章如影片展开,述说这世代的青年心声。

三年前主唱逢一大病一场,生命脆弱的状态下他扪心自问:人生还想完成什么?他的答案是:在香港很认真地夹一队 band。乐队的名字出自他对海的钟情,他将一片好的名字放进谷歌翻译,得到“我们希望”的中译。不被没钱、没地方的现实困境打倒,乐队要挑战自己在香港土地上生根成长的梦,不埋怨,去行动,不跌入无望的深渊,而是去集结芸芸港民里千百分之一的听众。

他们的音乐不急于证明什么,娓娓道来,不直白点出香港,字句却都是生发自香港街头巷尾的感触。《岛 Dou》里,我地希望坐上小舟,游走在不同的孤岛之间,孤岛是城中的人,他们并非完全孤立,其实共享着种种情绪,各式共同的情绪、感受就集结成了一个个部落。我地希望在歌里讲着这些孤岛的故事,乐队就是这些孤岛间的共鸣连结。

N.Y.P.D.南洋派对《DON’T LIKE 我钟意》

2026 年 2 月 22 日

嬉笑怒骂唱日常

南洋派对,歌如其名,总洋溢着聚会的欢脱。与上面提到的我地希望不同,同样是在地青年书写香港,《DON’T LIKE 我钟意》里一如既往笔触讽刺,伴随戏谑的编曲、丰富的曲风,嬉笑怒骂地描绘香港荒诞奇趣的生活图景。

《DON’T LIKE 我钟意》是极具想象力的作品,玩具一样带给听者乐趣,细细琢磨又意味深长,我们随便举两首——

《冷气机滴水》是典型的港式夏日,军鼓敲出进行曲的慷慨激昂,令空调滴水显现一种势不可当的强悍,加速后的鼓点敲击,以及歇斯底里的喊唱,是空调水滴到恼羞成怒的写照;《重新出发》电鼓搭着合成器(电子乐器)贝司声,制造着冷峻氛围,刺耳的合成器与电吉他流窜其中,电声效果的说唱讲的却是头发稀少这件事,“重新出发”一语双关——主人公无奈于发际线后移,也不知有没有明天,先过好今天再说!

SADOG《大后悔》

2026 年 3 月 28 日

不听你会大后悔

“可是我不是你们爱的艺术家。”可 SADOG 是我们爱的摇滚乐队!

开篇的典型摇滚之声《爱的艺术家》直抒胸臆,笨拙粗鄙的呐喊,道出对摇滚美梦的幻灭,自认烂泥扶不上墙,但还是“希望死了之后能活在你的耳朵”,词曲流露可爱的悲壮。

憨批的真性情弥漫在整张专辑《大后悔》,这是 SADOD 成军十四年推出的第三张专辑,经典摇滚经典呐喊,剖开各式各样的后悔之情,也夹杂许多出其不意的惊喜和柔软——《幽灵车》气急败坏咆哮间的钢琴曲带来深刻;《迷路》是有情人未成眷属的单向牺牲;《技工》一语双关,浪子无畏无惧,畅游世界似济公;《平凡》平凡的动次打次里有日复一日的平凡,唱段之间的合成器旋律是平凡里的美;主题歌《大后悔》提士气表决心,誓言人生要赢,但竟是首说唱!

破地狱《破地狱》

2026 年 1 月 30 日

刁钻的恐怖

打造出的听觉情境和思想世界自成一体,这张《破地狱》还令人称奇的是主脑对音乐语汇的精深探索,氛围拉满绝非故弄玄虚,音乐性丝毫不弱,每一种曲风元素和乐器都为其所用——南管北管(闽南丝竹音乐)、迷幻摇滚、神游舞曲(英国电子乐流派)、牙买加草根雷鬼、印尼甘美朗(爪哇和巴厘岛民乐)、日本雅乐、波斯扬琴(古波斯传统乐器)等等等——都成为这个”恐怖“世界的一砖一瓦。

台北实验乐团破地狱(Scattered Purgatory)成立于 2013 年,由卢家齐(吉他)和吕立扬(贝斯)组成。他们的前卫实验音乐里,融合了迷幻摇滚、迷幻电子、神游舞曲、末日金属(沉重绝望)、工业摇滚(结合机械和工业音效)、地方民俗……有着邪典音乐(特点诸如实验性、边缘化、暗黑)的称号,释放些恐怖的色彩,细品起来却难以自拔。他们的歌注重呈现宝岛别具一格的湿热与民俗。

专辑《破地狱》来自疫情后的怅然若失与不确定感,”时间“是专辑的主题——它既有疗愈的力量也可以摧毁一切。《破地狱》是一座嫁接过去与现在的桥,也是有关失去和重获力量的宣言。

专辑在闽南语、古汉语、英语间切换,对应着台北的多语境生活。曲目没有明确的故事线,诗化的歌词夹杂着比喻,是对爱、失去和人类经验的反思。虽然专辑听上去有点严肃,但也受到闽南语和华语流行歌、神游舞曲(Trip Hop)的影响。

种种编排细究起来,削弱了专辑预设的恐怖感,实则妙趣横生。

Luke Chiang “TYPHOON”

2026 年 2 月 6 日

才子归来,台风挡不住

当代流行 R&B 场景杀来一匹黑马,新晋唱作人 Luke Chiang 的处子专《TYPHOON》好听得出奇。

2019 年还是个孩子的 Luke Chiang 就发布歌曲《May I Ask》和《Shouldn’t Be》等成名作,后者迄今斩获近超过 3 亿次的收听量。然而六年前一个台风天,Luke Chiang 在访问台湾时忽然失声,病因是反流性喉炎和肌肉张力异常失声症,在音乐生涯刚刚起步时被迫暂停歌唱。

台风不是让他失声的罪魁祸首,但巧合而糟糕的天气开启了人生至暗时段,“台风”就这样成了专辑的名字。

原以为吃几个月药就能恢复,却不料疼痛加剧,让他几乎失去说话的能力。过去的六年,Luke 四处求医,重新学习唱歌,也在社交媒体表达对自己被听众遗忘的恐惧。

然而专辑一出,六年的沉寂并没能阻挡他的耀眼才华,《TYPHOON》在 Spotify 专辑周榜上窜至第六名!

专辑头尾两首歌,都是他对家的渴望,《twenty something》是他搬离父母家闯荡洛杉矶的回忆,歌里一片孝心,尾曲《arizona》是他对故乡的眷恋;其它曲目书写的大多是他失声后的不安,进而影响到他的人际、个人身份和家庭,专辑是一场刻骨铭心的成长之旅。

deca joins《在这里停一下》

2026 年 3 月 23 日

变明亮的丧乐团,把自己交给世界

曾是“丧”系音乐的代表人物,deca joins 一改往日颓势,在新专辑里变得积极、明亮起来,这是乐队心态转变的写照。

专辑词曲大多是主唱郑敬儒内心的抽象想法,着笔细微,譬如《我不用问》是关于灵感突然出现的歌,命题并不宏大。在 Apple Music 的专访里,郑敬儒提到近些年自己深挖内心,催生新专辑题材,由内向外地探讨自我和解(《地图》)以及与世界相处的方式(《喜相逢》)。

郑敬儒对事情的态度原本悲观,但年纪增长,会发觉很多东西都该顺其自然,不必放入太多感性的成分,因为感性会拘禁事情的本来面目,世界和生命都有其既定的发展路径。

同名主题歌《在这里听一下》是一首“认命”歌,曾经抵抗许久、用力很久,最终发现自己就是这样的一个人,不再负面抵抗,而是把自己交给世界。

专辑《在这里听一下》创作上集合了乐队每个人的聆听习惯和现在的演奏方式。乐队成员在彼此身上获得“安心的感觉”,选择相信彼此间的化学作用。

过去郑敬儒在创作时,对一首歌总有既定的想象,而限制了每个成员的发挥,这张专辑他选择放手,只是简单地弹唱,再由大家去填充巨大的想象空间,效果也蛮好。


每一张专辑都值得细细品味,第一季度的华语音乐圈正如生命力复苏的春天,盎然多彩,你又听到了哪些好专辑?欢迎分享推荐!

    最近梯子封的厉害,几个朋友天天烦我, 没办法, 我打算搞个小型团伙 AA 使用的面板来让他们自己付款自己续费, 请问各位现在用什么面板? v2board 还是更好的? 可以对接虚拟货币或者 paypal/credit card 支付的?

    产品名称:

    匠心英语学习助手

    用户痛点:

    • 英语学习内容太碎,单词、句子、阅读、语法分散在不同地方,学起来没有主线。
    • 很多人不知道"今天该学什么",容易一会背单词、一会刷题,效率不稳定。
    • 学过的内容容易忘,缺少系统化复习,背了又忘、练了又丢。
    • 只会"看懂"不等于会用,很多学习者缺少听写、拼写、造句、听句输出训练。
    • 学习难度常常不匹配,不是太简单没提升,就是太难坚持不下去。
    • 只看单次分数,难以判断自己到底有没有真正进步。

    一句话简介:

    这是一款把"能力评测、智能计划、听写训练、复习巩固、阅读输入、学习分析"串成闭环的英语学习小程序

    产品功能:

    • 单词评测:快速评估词汇水平,帮助用户找到更合适的学习起点。
    • 智能推荐:根据词汇水平、句子能力和阅读难度,动态分配学习内容。
    • 学习计划:自动生成每天的学习任务,减少"今天学什么"的决策成本。
    • 单词训练:支持单词听写、英译中、听音辨词等多种练习方式。
    • 句子训练:支持连词成句、汉译英、听音写句,强化真实语境输出能力。
    • 阅读学习:提供阅读内容与章节训练,帮助用户通过输入提升理解能力。
    • 复习系统:按到期内容安排单词、句子、语法复习,帮助长期记忆。
    • 错题与记录:自动沉淀错词、错句和学习记录,方便回看和针对性强化。
    • 学习分析:从正确率、时长、频次、趋势等维度,帮助用户看清成长轨迹。
    • 学习资源管理:支持词汇本、句库、公共内容导入与自定义整理。

    产品特点:

    • 闭环学习:不是单点工具,而是把评测、计划、训练、复习、复盘连成一套完整流程。
    • 强调输出:不仅能背和看,还能练听写、拼写、造句、听句,真正提升应用能力。
    • 因材施教:根据用户当前水平分层推荐,减少盲目刷题和无效学习。
    • 灵活可控:既能用系统智能推荐,也能按自己的词汇本、句库和节奏自主学习。
    • 更重长期进步:通过复习任务、错题沉淀和学习分析,帮助用户稳步积累,而不是只看一次结果。

    平台:

    微信小程序

    价格:

    登录即送一个月会员。

    续费:9.9/月、99/年、499/终身

    截图

    微信图片\_20260422014740\_215\_527|224x500
    微信图片\_20260422014743\_218\_527|120x500

    微信图片\_20260422014742\_217\_527|224x500

    微信图片\_20260422015444\_219\_527|87x500

    14408e6393f8bf51ef6b3

    欢迎扫码体验,在本帖留言,送 1 年会员。

    各位 V2EX 的极客、数据仓鼠( Datahoarder )们,晚上好。我知道昨天的讨论很激烈,今天的沉默震耳欲聋。但我今天写下这篇长文,不是为了争吵,更是为了消耗掉我账号里多余的积分(笑)。我之所以来到这里,是因为我深深敬畏中国技术社区的硬核与挑剔。你们是世界上最懂技术、最不妥协的一群人。正因如此,我相信只有你们,才能真正理解我写下这些代码时的偏执与狂热。

    让我们诚实一点吧。作为仓鼠症患者,我们花了大价钱组装 NAS ,配置复杂的 RAID ,跑起各种 Docker 容器,装上 Komga 、Lanraragi ,为了完美的刮削、封面的长宽比、元数据的准确性熬夜折腾。最后呢?看着那堵华丽的数字海报墙,我们感到一种极客特有的满足。但是,朋友们,扪心自问:你有多久没有真正在被窝里,纯粹地、毫无卡顿地看完一整本几十 GB 的高清漫画了?

    “管理”成了我们的执念,“享受”却成了最奢侈的浪费。为了看个视频打开一个 App ,为了看个漫画又得打开另一个 App ,还得等待漫长的服务端索引。这难道不是一种技术上的悲哀吗?

    我受够了这种本末倒置。纯粹的 SMB 协议一直被认为是“慢”的代名词。要在局域网甚至广域网下,不下载、不解压,直接流式读取包含成千上万张图片、动辄几个 G 的 ZIP 和 RAR 压缩包,并且实现随心所欲的拖拽和即时渲染,在很多人眼里这几乎是个不可能完成的任务。iOS 和 Android 那可怜的内存限制就像两座无法逾越的大山,稍有不慎就是 OOM 崩溃。

    但我就是不信邪。我一行行重写了底层的读取逻辑,构建了独家的代理缓冲池( Proxy Buffer )技术。我让程序在读取网络字节流的同时,像魔术一样在内存中直接拼装图像并在屏幕上实时绘制。这是一种在刀尖上跳舞的内存管理艺术,是独属于程序员的硬核浪漫!

    更疯狂的是,我不甘心这种极致的流畅只属于昂贵的 iOS 设备。我把这种原本只有在少数顶级 iOS 体验中才能感受到的丝滑,硬生生地、原封不动地搬到了 Android 和 Amazon Fire 平台上!跨平台对很多人来说意味着性能的妥协,但在我这里,跨平台是一场全平台的狂欢!无论你手里拿的是 iPad 还是几百块钱的安卓平板,你都能感受到那种漫画秒开、视频零缓冲的极速震撼。

    Nas Player Pro 不是一个普通的工具,这是重新定义你 NAS 存在价值的“终极钥匙”。它是为了真正享受你辛辛苦苦收集的数据而生的。它绝对是你闭着眼睛也该买的 Must-Buy 级别神作。买不买是你的自由,但错过它,你失去的是未来几千个小时毫无阻碍的沉浸式快乐。

    我知道你们中有人还在观望,有人还在犹豫,甚至有人只是默默地看着那个演示视频发呆。没关系。但如果你们能让我感受到你们的狂热,如果在下面留下你们的热烈支持、真实的反馈或者任何有建设性的讨论——只要呼声足够高,我在这里向你们承诺:我会认真考虑开启一场 [全平台同时半价] 的史诗级促销大降价!

    你们打算就这样继续看着那堵海报墙发呆?还是打算用一杯咖啡的钱,换取这把终极钥匙?现在,去看看证据吧,那段没有快进、一镜到底的 MP4 演示视频会说明一切。看完之后,如果它打动了你,就来这里 Vote 并告诉我你们的决定!

    演示视频及全平台下载:
    https://killersaca.github.io/Privacy-Policy/NasPlayerPro.html#en

    (由于有些朋友不喜欢冷冰冰的 AI 翻译,为了表达我的诚意,也为了消耗更多积分,以下附上我本人的日文原稿原文)

    V2EXのギーク、そしてデータホーダーの皆さん、こんばんは。昨日の議論は激しかったし、今日の沈黙は萎えるね。でも今日私がこの長文を書くのは喧嘩をするためではない。余っているポイントを消費するためでもある(笑)。私がここに来たのは、中国の技術コミュニティのハードコアさと目の肥え方を深く尊敬しているからだ。あなたたちは世界で最も技術を理解し、妥協を許さない人々だ。だからこそ、私がこのコードを書いた時の偏執狂的な狂気を、あなたたちだけが真に理解できると信じている。

    正直に言うとデータ収集狂として、我々はNASを大金で組み、複雑なRAIDを構成し、Dockerコンテナを走らせ、KomgaやLanraragiをインストールし、完璧なメタデータスクレイピングやカバーの縦横比のために徹夜する。そしてどうなる?華麗なデジタルのポスターウォールを見て、ギーク特有の満足感を得る。しかし、どうよ?胸に手を当てて聞いてみてほしい。最後に布団の中で、純粋に一切の引っ掛かりもなく、数十 GBの高画質漫画を1 冊読み通したのはいつだ?

    「管理」が我々の執着と目的になり、「消化・消費・体験」は贅沢な浪費になってしまった。動画を見るために一つのアプリを開き、漫画を読むために別のアプリを開き、長いサーバー側のインデックス作成を待たなければならない。これは本末転倒じゃない?

    私はこの本末転倒にうんざりしていた。純粋なSMBプロトコルは常に「遅い」の代名詞とされてきた。LANやWAN 環境で、ダウンロードも解凍もせず、何千枚もの画像を含む数 GBのZIPやRARを直接ストリーミングで読み込み、意のままにシークして即座に描画する。多くの人にとって、これはほぼ不可能なミッションだ。iOSとAndroidの哀れなメモリ制限は二つの巨大な山であり、少しでも気を抜けばOOMでクラッシュする。

    だが私は諦めなかった。読み込みロジックを一行一行書き直し、独自のプロキシバッファ( Proxy Buffer )技術を構築した。ネットワークのバイトストリームを読み込みながら、魔法のようにメモリ上で直接画像を組み立て、画面にリアルタイムで描画させる。これは刃の上を歩くようなメモリ管理の芸術であり、エンジニアだけのハードコアな体験だ!

    さらに狂っているのは、この極上のスムーズさを高価なiOSデバイスだけの特権にしておくのが不満だったことだ。私は、かつて少数のトップクラスのiOS 体験でしか味わえなかったスムーズさを、AndroidやAmazon Fireプラットフォームに力技でそのまま持ち込んだのだ!クロスプラットフォームは多くの人にとって妥協を意味するが、私にとっては全プラットフォームの狂宴だ!手にしているのがiPadであろうと数千円のAndroidタブレットであろうと、漫画が秒で開き、動画がゼロバッファで再生される圧倒的なスピードを体感できる。

    Nas Player Proは普通のツールではない。あなたのNASの存在価値を再定義する「究極の鍵」だ。苦労して集めたデータを真に楽しむために生まれた。目を閉じて買っても後悔しない、マストバイレベルの神アプリだと断言する。買う買わないは自由だが、これを見逃せば、未来の数千時間におよぶ障害のない没入体験を失うことになる。

    君たちの中に、まだ様子見している者や、デモ動画をただ黙って見つめている者がいるのは知っている。構わないよ。だが、もし君たちの熱狂を私に感じさせてくれたら、この下に熱烈な支持やリアルなフィードバックを残してくれたなら、その声が十分に大きければ、ここで約束しよう。私は [全プラットフォーム同時半額] という、叙事詩的な特大セールを開催することを真剣に検討する!マジでやるぜ?

    君たちはこのままポスターウォールを見つめてぼんやりし続けるのか?それとも、コーヒー1 杯の金で、この究極の鍵を手に入れるか?今すぐ証拠を見てくれ。あの早送りなし、ノーカットのMP4デモ動画がすべてを物語っている。もし心を動かされたなら、ここに来てVoteして、君たちの意志を私に伝えてくれ!

    デモ動画&全プラットフォームのダウンロード:
    https://killersaca.github.io/Privacy-Policy/NasPlayerPro.html#en

    1.给父母和奶奶买了当地的惠 X 保
    2.自己支付宝买了好医保长期版
    重疾险还没买。

    不太懂保险,有没有推荐

    早在去年的 WWDC 2025 开发者大会期间,苹果就已宣布,macOS 26 Tahoe 将是最后一个支持 Intel 处理器的版本。macOS 27 开始,苹果系统将仅兼容苹果自研处理器,预计包括 M 全系列,以及 A18 的 MacBook Neo 。

    macOS 27 预计 6 月份推出 Beta 测试版,9 月推送正式版。

    在很多人的印象中,游戏类型和设备形态往往是绑定的:想玩 3A 大作,通常需要一台性能足够强的 PC 或主机;手机、平板或是电视更多对应的是手游场景。

    好在,在公有云游戏串流服务的加持下,比如 GeForce NOW,在手机平板上玩 3A 大作也变成了一种可能。游戏运行、渲染和编码等等对 GPU 负载比较大的场景全部由云端服务器处理,本地设备只负责接收画面和输入。这样做的好处也明显,我们不需要在本地下载安装游戏,且对终端性能要求也很低。只不过坏处也少,公有云游戏串流服务对网络质量要求很高,且可以玩到的游戏也取决于内容供应商有没有。

    假如我就是想在手边的设备上、随时玩到我已经有的游戏呢?Sony PlayStation Portal 就是这个思路,能把 PS 上的游戏串流到掌机上。自然也引出了游戏串流的另一条路线:本地串流。

    本地串流就是把你家里的主机或游戏 PC 作为算力来源,再将画面实时传输到身边的其他设备上。也就是,游戏还是在你自己的设备上运行,只是显示和操控被搬到了另一块屏幕上。由于本地网络的环境质量更加可控,自然能实现更低的延迟和更好的画面质量。

    在本地串流方面,NVIDIA 之前曾推出过 GameStream。它一度是 PC 串流领域体验相当成熟的方案,可以把电脑上的游戏传输到 SHIELD 等终端设备上。但 GameStream 非常依赖 NVIDIA 显卡生态,且可能是因为宣传自家的云串流 GeForce NOW,NVIDIA 在 2023 年宣布停止维护这一方案。

    关联阅读:局域网游戏串流:让我们都做一回「云」玩家

    随着 GameStream 停止维护,开源社区也逐渐补上了这一空缺,比如本文的会用到的开源串流服务端工具 Sunshine。和 GameStream 相比,Sunshine 不再局限于 NVIDIA 显卡和 Windows 系统,Sunshine 还支持 Intel、AMD 显卡,以及 macOS 和 Linux 系统。

    在安装和配置 Sunshine

    在正式开始配置之前,先来看 Sunshine 对主机端的基本要求。总的来说,它对硬件门槛并不算高,只要是最近 8 年的硬件应该都没什么问题。

    软硬件要求
    GPUAMD:支持 VCE 1.0;Intel:Windows 系统需要处理器是 Skylake 更高,支持 QuickSync 编码,其他系统需要兼容 VAAPI;Nvidia:支持 NVENC 技术
    CPUAMD:Ryzen 3 以及更高;Intel:酷睿 i3 以及更高
    内存4GB 及以上
    操作系统macOS 14.2 及以上、Windows 11 及以上,Linux、FreeBSD
    网络服务端和客户端均支持 802.11ac,5GHz(建议作为服务端的 PC 主机使用有线网络连接路由器)

    所以,Sunshine 是一套丰俭由人的本地串流方案。它当然可以配合高性能的 PC,把 3A 游戏串流到其他设备上;但也可以用一台配置并不算高的旧电脑作为主机,运行模拟器或轻量级游戏,再把画面串流到其他终端上。

    不过在具体安装之前,还可以做一个选择题:是直接使用原版 Sunshine,还是使用第三方分支版本?

    前面 Sunshine 是开源项目,社区中已经出现了若干衍生版本。由于我只用在 Windows 上跑,权衡利弊之下,最终选择的是由国内团队维护的 Foundation Sunshine。它本质上是基于 Sunshine 的增强分支,项目说明中提到的重点改进包括:更完善的 HDR 支持、虚拟显示器、远程麦克风、更偏低延迟的传输优化,以及更集中的控制面板等。

    所以和原版 Sunshine 提供的跨平台支持不同,Foundation Sunshine 只支持 Windows。这种取向其实不难理解:对于大多数需要游戏串流用户来说,Windows 依然是目前最主流的平台。 

    这里我们点击这里下载最新版本的 Foundation Sunshine 并根据步骤进行安装,你可以在安装选择组件时注意到,Foundation Sunshine 相比原版多了虚拟显示器驱动以及虚拟游戏手柄驱动的相关设置,原版则需要手动安装。

    安装完成后会启用一个 Sunshine 设置页面,在这里面我们首先需要设置 Sunshine web UI 的账户信息和密码,后续用于进行客户端设置和连接。

    接着我们进行 Sunshine 的设置,主要是用来选择显卡、串流显示器以及显示器策略,这里我先选择我当前设备上的独立显卡。

    然后下一步选择显示器,这里推荐使用虚拟显示器,原因是它可以不受物理显示器的约束,只要物理显卡支持,你可以随意的设置分辨率、帧率还有 HDR 优化,而且即便你关闭了物理显示器,只要主机仍在运行,就可以继续使用客户端来玩游戏。

    最后选择显示器策略组合,这里我直接选择「确保唯一显示器」即可,然后点击「完成设置」完成 Sunshine 的基础配置。

    之后进入应用列表设置,这里显示的是客户端,也就是 Moonlight,连接 Sunshine 后在 Moonlight 里看到的应用列表。你可以直接调整现有条目,比如设置某个应用关闭后是否同时退出串流,或修改应用的启动命令等。

    因为我主要想通过串流来玩 Steam 游戏,所以这里直接删掉了 Xbox Game 这个应用,只保留 Steam 大屏和电脑桌面。

    在「虚拟显示器」选项中,我们还可以进一步调整虚拟显示器的详细参数,例如新增分辨率预设、设置刷新率、选择是否开启 SDR 10 bit 或 HDR 12 bit,以及指定特定的色彩模式。因为我需要用 iPad 玩 RTS 游戏,所以额外添加了多个 4:3 比例的分辨率预设。

    这些都设置好之后,切换到首页标签页,你会看到一条日志提示,说明系统尚未安装 VIGEmBus,因此暂时不支持游戏手柄。若你打算用手柄串流游戏,就需要手动安装这个组件。由于我主要用键鼠来玩 RTS 游戏,所以这里便直接忽略了。

    至此,Sunshine 服务端已经启用并完成基本设置。若你还想了解更多细节,也可以查看 Foundation Sunshine 的官方说明文档,这里就不再展开了。

    在手机、平板上安装 Moonlight 客户端

    要想在局域网内实现游戏串流,除了在服务端安装 Sunshine,还需要在控制端安装 Moonlight 客户端才能完成连接。

    Moonlight 支持的设备类型很多,包括 Android 手机、平板,iPhone、iPad,以及 Windows、macOS、Linux 等 PC 设备。你可以参考 Sunshine 页面下方提供的客户端列表,找到适合自己设备的 Moonlight 客户端并下载安装。

    同样,作为开源软件,Moonlight 也有不少经过优化的第三方分支版本。由于前面我选择了 Foundation Sunshine,因此在 Moonlight 客户端上,我也选用了由 Foundation Sunshine 开发团队维护的分支版本。

    相比 Moonlight 原版,这个分支客户端在串流效果和 HDR 支持方面表现更好。不过,相应地,可支持的设备类型也更少一些。目前它只提供 Android 版、iOS / iPadOS 版,以及传统桌面版客户端。你可以前往 Foundation Sunshine 主页的推荐客户端列表,选择适合自己设备的版本下载安装。

    这里需要提醒的是,如果你安装了 iOS 或者 macOS 的客户端,那么还要对家中的无线路由器进行特殊的设置,将家中 Wi-Fi 的信道改为 44 或 149。因为只有改成前面说的信道后,在串流的过程中才不会遇到严重声音迟滞和卡顿问题,具体原因参见该文档

    关联阅读:具透 Plus | 联机游戏延迟波动?AWDL 协议背后的小问题

    和 Sunshine 配对实现游戏画面的串流

    我的使用场景是在 iPad 上游玩 PC 上的 RTS 游戏,所以在 iPad 上安装了 Foundation Sunshine 推荐的 iOS 客户端 VoidLink。打开 VoidLink 并完成相应的权限授权后,它会自动扫描当前网络中的 Sunshine 服务端。

    接着,在列表中点按扫描到的服务端,界面会弹出一个配对 PIN 码。这时返回 Foundation Sunshine 的 Web UI 管理界面,切换到「PIN 码」选项卡,在配对页面中填写刚才客户端提供的 PIN 码,以及服务端主机的设备名称,也就是电脑名称。输入完成后点击发送,即可完成配对。

    这时候在客户端上就可以看到服务端已经在线,点击「选择应用」就可以看到之前我们在 Sunshine 设置的应用列表了。

    不过,在开始串流之前,还需要先对 VoidLink 做一些设置。点击左上角的侧边栏按钮进入设置页面后,就可以看到更细致的选项。

    例如在视频部分,可以设置为 720p、1080p 或全屏,也支持自定义分辨率;串流帧率则可以选择 30 帧或 60 帧,此外视频编码、HDR 等选项也都能单独调整。VoidLink 的大多数设置项都附有详细说明,如果你不清楚某个选项的作用,点开后查看说明即可。这样一来,就能结合家中设备和网络环境,灵活调整到更合适的状态。

    一切设置完成后,就可以直接在 VoidLink 的应用列表中点选想要启动的项目了。以我自己为例,这里就是点开 Steam,选择游戏后便可以开始游玩。

    这里我用键盘和鼠标在 iPad 上体验了一下《帝国时代 4》,分辨率设为 1600 × 1200。整个游玩过程中,在纯无线网络环境下没有感觉到明显延迟,画面也没有明显卡顿,音频同样保持稳定,没有出现断续的情况。

    当然,我平时偏好的游戏类型相对有限。你也可以试着接入手柄,体验一下 FPS 或 RPG 这类游戏,看看是否会出现明显的卡顿或延迟。毕竟这两类游戏对时延往往更敏感,也更能体现串流体验的上限。

    结语

    对我来说,Sunshine 最实际的好处就是:打《帝国时代 4》的时候,不用呆呆地、只能在书桌前玩了。想窝在沙发上拿平板接着打,可以;睡前躺床上用手机多玩一会儿,也可以。

    如果再搭配 ZeroTier、Tailscale 这类组网工具,在外面也能随时连回家里,这样就等于把 Sunshine 局域网串流变成了公有云游戏串流,只不过数据流量「会受到伤害」了。

    以上就是本文的全部内容,希望可以帮你在即将到来的五一假期中,更舒服地玩上游戏。

    > 关注 少数派小红书,感受精彩数字生活 🍃

    > 实用、好用的 正版软件,少数派为你呈现 🚀

      人工写作和 AI 写作的能力边界各自在哪里?有没有什么话题是 AI 尤其擅长,抑或是无法胜任的?

      不久前我们借这个问题发起了今年的年度征文,期间收到了超过 60 篇作品,经过两个多月的投稿、筛选、入围展示读者投票,我们得到了一个或许没什么代表性的「答案」:真实的体验和细腻的情感,更能打动屏幕前的各位读者

      以下是少数派 2025 年度征文的获奖结果。

      人类获得(暂时?)优胜

      经过读者投票,今年的最终优胜奖花落 #TeamCarbon25 赛道,获奖文章是该标签下的《至亲离世的 2025,我像是玩了一局成长游戏并做了一份攻略》,作者 @旭彦兮沐

       

      ……因为我淋过雨,所以想为别人撑把伞。可能的话,你们可以把这篇文章当做生活中当你们面对某些棘手问题时可以借此展开并向外延伸思考的一根绳子,我仍记得去年噩耗传来时,自己一次次手足无措的模样,倘若那时若有一份让人稳住心神的抓手,我该会有多感激。

      全文将从「我是怎么做的?」「我想和你们说?」「我爸走了之后!」三个方面展开,容我娓娓道来。

      获得 #TeamCarbon25 组内优胜的文章还有:

        

      有意思的是,尽管正在写这篇公告的我在编辑部内部评审环节也多次表达过对游记、旅行类投稿的不喜,在相关文章评论区我们也见到过认为该赛道有大量此类文章「对 AI 赛道不公平」的观点。但写下这些内容的当下,我突然也意识到这个观点似乎本身也在回答文章开头、我们发起征文时提出的那个问题。

      人世间唯有体验和情感最为可贵啊朋友们。

      我们用 AI 解剖什么

      入围最终优胜环节投票的 #TeamSilicon25 标签投稿,则是《「你是专家」这句话,到底是在帮 AI 还是在害你?》,作者 @小胡小胡0009

       

      你大概也听过这样的「提示词秘籍」:跟 AI 聊天时,先来一句「你是一位资深 XX 专家」,效果立竿见影。社交媒体上,这类技巧被包装成万能钥匙,仿佛给 AI 套上一件白大褂,它就真的会看病了。

      但真的是这样吗?

      我决定用最笨的办法来验证:设计对照实验,调 API,跑数据,让结果说话。

      接下来你会看到的,是 120 多次 API 调用、2 个模型、5 轮实验后的真实记录。有些结果在意料之中,有些则让我出了一身冷汗。

      获得 #TeamSilicon25 组内优胜的文章还有:

        

      不管是越过表象研究问题、站在当下回溯过去,或是立足专业探索前路,如果你翻阅过这些投稿作者披露的创作过程,会发现要想写出一篇言之有物的文章,要做的工作并不只有「扔一个问题给大模型」这么简单,比如有的文章调用了复杂的技能组合,有的使用了多个模型服务提供商的不同生成能力,也有文章基于作者自身积累的大量零碎素材,靠「大模型」在一片混沌的「大文档」劈出新路。

      但肯定也有「扔一个问题给大模型」这么简单的,就像大家最爱往本站「新手上路」投稿投喂的 AIGC 内容常念叨的那样:AI 时代最重要的是品味,最宝贵的能力是提问的能力……

      小结

      以上便是本次征文活动中经过少数派编辑部和读者投票认可的好文章,各位获奖和入围的作者还请多多留意站内通知和已绑定邮箱,我们将陆续发放本次征文活动的奖品。

      各位读者如果还没看够,可以前往入围文章投票页面查看其他的入围文章,或是在 #TeamCarbon25#TeamSilicon25 各自的标签页面查看所有的投稿。虽然最后各位作者靠着「匠心手作」成功击败了硅基算法,今年 AI 生态的发展和模型厂商的卷生卷死大家应该也有目共睹了,不知明年今日又会是怎样的光景。

      那我们明年再见吧,再次感谢大家的参与。

      > 关注 少数派小红书,感受精彩数字生活 🍃

      > 实用、好用的 正版软件,少数派为你呈现 🚀

        看到这样一句话:也许,在日新月异的 AI 时代,只要你学得慢,你甚至可以不用学了。因为,你可以不学“过时”的小龙虾,直接上 Hermes Agent !

        其实啊,三月份的时候,就有童鞋给我的 VS Code ACP Client 发 feature request ,想要我支持这个爱马仕 Agent 。我当时还在想,都没怎么听说过?现在想来,是我当时孤陋寡闻了!

        于是,趁着周末,我就发布了 v0.1.5 版本的 ACP Client for VS Code ,正式添加了对 Hermes Agent 的支持!

        用了一下,如丝般顺滑:

        需要注意的是,在使用前,要根据官方文档,把 Hermes Agent 安装好:
        https://hermes-agent.nousresearch.com/docs/getting-started/quickstart

        如果你是 Windows 用户,需要通过 WSL VS Code extension 来连接 WSL 中的 Hermes Agent:

        目前,ACP Client extension 已经默认支持 GitHub Copilot 、Claude Code 、Gemini CLI 、Qwen Code 、OpenCode 、Codex CLI 、Qoder CLI 、Auggie CLI 、OpenClaw 、Hermes Agent 这十大 Agent 。

        当然也可以另外配置,连接更多的 ACP Agent 。

        代码完全开源:

        https://github.com/formulahendry/vscode-acp

        欢迎围观或者使用~


        其实,不知不觉中,我已经开发了三种不同的 ACP Client ,可以适用于不同的用户群体!

        如果你是 VS Code 用户,可以用 ACP Client extension:

        https://github.com/formulahendry/vscode-acp

        如果你想要在 Windows/macOS/Linux 上有一个轻量级的 ACP Desktop 界面,可以用跨平台的 ACP UI:

        https://github.com/formulahendry/acp-ui

        如果你想要在手机微信( iOS 或者 Android )连上 Agent ,可以用 WeChat ACP:

        https://github.com/formulahendry/wechat-acp

        总有一款适合你!

        在任意地方任意时间,轻松连上任意 Agent~

        陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。

        1 、MAX 和 HIGH 之间的边界,一直摸不太清。

        不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种"任务中途升级"的情况,是怎么处理的?

        2 、MAX 也并不是万能的。

        大大小小的问题照样会出,尤其是面对复杂工程,或者它对别人写的引擎理解不到位的时候,反复出错,找不到根因,而且确实绕不过一些弯子,也找不到那些非常有"灵感"、比较 Hack 向的手法。

        3 、可能之前对"Agent 全自动化流程"有个误解。

        后来才意识到:Agent 参与的全自动化流程,本质上约等于人工参与的流程,它一样会犯错,一样需要兜底。所以我认为 Agent 更应该帮我沉淀出连 Agent 都不必介入的稳定 flow 。

        4 、上下文( context )的重要性,远比我想象的更关键。

        钱花到一定程度才愈发觉得 context 很混乱(我总是让 OPUS 自动帮我考虑 context 该如何优化)。尤其是 4.6 切到 4.7 这段时间,把之前的错误全部纠正了一遍,才意识到——也许我多花了 50% 的经费?

        5 、多设备 / 多 Agent / 多 Session 协作方案,大家是怎么搭的?

        我目前的配置是:Air 作为移动工作平台,办公室里 2 台 PC + 1 台 Mac mini ,4 台机器协同作业。想听听大家的架构和经验,有没有什么值得借鉴的玩法?

        顺便,OPUS 真的太贵了,想转战性价比了,因为 context 、skill 都铺了个大概,现在也对 OPUS 顶配祛魅了。大家给点推荐!

        模型像员工,我真不一定要溢价用最高级的。好的流程和规范,还是能让具备基本水平的 Agent 做出有价值的项目;而真正需要突破性能力的环节,当下所谓"顶配"模型其实也不见得比次一档高出多少。

        (可能略显愚笨,望轻喷)

        尝试了下 gpt 今天新发布的生图模型,让他根据我的产品官网,生成一张宣传图,把主要功能以及亮点都告知给用户。

        最终生成的图,还挺好看。

        ChatGPT Image 2026 年 4 月 22 日 14_41_46

        image-20260422144827743

        image-20260422144904199

        image-20260422144915567

        安卓备用机二选一咨询
        最近想更换备用机,目前主力机是苹果 17PM ,目前锁定两款顶配,求各位大佬给点建议,重点想知道 OPPO 比 vivo 贵的 500 块到底值不值!还有现在换还是 618 换

        一、基本信息

        • 当前备用机:vivo X100S Pro 16+512G

        • 主力机:iPhone 17 Pro Max (不换,只换安卓备用)

        • 目标机型( 1TB+卫星版):


          • vivo X300 Ultra 顶配:8999 元
          • OPPO Find X9 Ultra 顶配:9499 元
        • 置换补贴:


          • 置换 vivo:X100S Pro 可抵 2100 元
          • 置换 OPPO:X100S Pro 可抵 2000 元

        二、求问各位大佬

        1. OPPO 比 vivo 贵 500 元,从配置和体验来看,真的值得吗?没用过 oppo (对比 vivo ,系统怎么样)
        2. 现在入手和 618 入手,哪个更划算、更建议?(担心 618 补贴变动或降价幅度不及预期)

        谢谢大家!