2026年3月

不写文档、全员通才、爆款频出:揭秘 Anthropic 的“反常识”AI 产品哲学

当 Claude Code 之父坦言自己已卸载 IDE,并认为 AI 写得比自己更好时,一场属于工程师的“印刷机时刻”已然降临。

“我后来干脆把 IDE 卸载了,因为真的不需要。”

在最新一期访谈中,Claude Code 创始人兼负责人 Boris Cherny 如此描述 AI 编程工具带来的颠覆性体验。他透露,在 Anthropic 内部,约 80% 的代码已由 Claude Code 编写,而他个人几乎 100% 依赖它。

从最初为在数学考试中“作弊”而编写计算器程序,到在 Meta 负责全公司代码质量,再到加入 Anthropic 并主导开发出两款现象级 AI 产品 —— Claude Code 与 Claude Cowork,Boris 的职业生涯映射了软件工程领域的范式变迁。


01 爆款诞生:从“感觉”出发,为安全而发布

Boris 的创业与产品逻辑始终围绕“感觉”和“假设验证”。无论是早期在医疗软件公司通过实地观察发现产品根本性错误,还是在 Anthropic 内部将一个终端聊天机器人 hack 成强大的编码智能体,他坚信最初的想法几乎总是错的,必须通过快速原型和用户反馈逼近真实需求。

Claude Code 的诞生颇具戏剧性。起初它只是一个让 Boris 熟悉 API 的终端聊天工具。在为其添加“工具使用”能力后,一个“啊哈”时刻降临:当被问到“我在听什么歌”时,它自动编写了一段 AppleScript 来查询音乐播放器。

Boris 意识到,模型本身就是一个“主体”,不应被硬塞进预设的系统框架中,而应被赋予工具并让其自主完成任务。

尽管该工具在内部迅速被工程师采纳(采用率曲线几乎垂直上升),但 Anthropic 决定将其公开发布的核心原因之一竟是为了安全研究。在真实世界中观察用户如何使用模型,是让模型变得更安全的关键一环。

02 根本变革:AI 重构“编程”与“工程师”定义

Boris 亲历了从“手写第一个 PR”到“所有代码交给 AI”的转变。当使用 Opus 4.5 模型后,他发现自己编写的代码 bug 数量远高于 AI。他坦承:“我可以很坦白地说,它写得比我好。”

这引发了一个更深层的身份思考:当“写代码”这项曾需要数年磨练的核心技能变得人人可及时,工程师的价值何在?

Boris 用 “印刷机与抄写员” 来比喻这场变革。印刷机的发明并未让文字消亡,反而催生了作者、出版商等全新职业,并奠定了现代经济的基础。同样,AI 将编程能力普及化后,“工程师”的角色将从“代码抄写员”转向“问题定义者、系统架构者和跨领域整合者”。

在 Anthropic,这种转变已肉眼可见:数据科学家用 Claude Code 跑 SQL 并生成图表,财务团队用它进行预测分析,销售团队也在快速采纳。写代码正从工程师的专属技能,变为一种泛化的解决问题能力。

03 反常识文化:不设职称、不写 PRD、全员通才

Anthropic 内部独特的组织文化,是其能快速、连续推出爆款产品的重要土壤。

首先,这里几乎不设传统职称。所有技术员工的 title 都是 “Member of Technical Staff”。这并非形式主义,而是一种写进组织语言的默认设定:它暗示每个人都是通才,都能参与产品、工程、研究等各环节,从而天然鼓励跨角色协作。

其次,这里拒绝繁重的文档流程,尤其是不写冗长的产品需求文档。团队文化极度倾向 “直接做原型、演示验证”。例如,Claude Cowork 的团队在数月内迭代了上百个原型,才打磨出正确的用户体验。“如果我们一开始写 PRD,根本不可能把它做出来。”

最后,工作方式高度灵活且以原型驱动。无论是个人工作还是团队协作,都强调快速假设、快速验证。Boris 分享了一个极致案例:一位同事在周末让早期版本的 AI “蜂群” 自主运行,AI 自己创建了 Asana 看板,拆解任务,并最终实现了后来正式发布的功能。

04 未来工程师:放下执念,拥抱“短注意力”与通才思维

面对疾速变化的 AI 浪潮,Boris 建议工程师需要做出如下调整:

  • 需要放下的执念:对特定编程语言、框架或代码风格的宗教式争论已不再重要。模型可以适配任何技术栈,争论应转向更高层面的设计。
  • 必须坚持的核心:“假设驱动”的思维方法、深度好奇心、开放心态和强大的适应力。在一切被颠覆的世界里,系统性思考和快速学习的能力比以往任何时候都重要。
  • 正在被奖励的新技能:“短注意力”与多任务上下文切换能力。工作模式正从深度沉浸式编程,转向管理多个 AI Agent 并行工作。同时,通才——能横跨工程、产品、商业、设计等多领域思考的人——将越来越被重视。

05 印刷机时刻:无法预测的未来与必须坚守的安全

展望未来,Boris 认为最令人兴奋的是 “完全无法预测的新事物将会诞生”,就像当年无人能预测印刷机会催生出麦克风一样。当编程能力如识字能力般普及,全新的经济形态和职业可能性将会涌现。

与此同时,他比以往任何时候都更关注 AI 安全。在 Anthropic 的亲身经历让他意识到,确保这项强大技术走向好的结果,是当下最重要的事之一。这不仅是技术对齐问题,更需要在产品设计、权限控制(如 Claude Code 复杂的多层安全模型)和真实世界部署中,构建起“瑞士奶酪”般的多重防护层。


这场由 AI 驱动的“印刷机时刻”,正在瓦解旧有的技能壁垒与职业边界。它带来失落,也孕育着前所未有的创造潜力。Anthropic 及其产品的故事揭示了一个核心启示:未来的赢家,将是那些能最快放下旧工具骄傲、以新手心态拥抱变化、并用跨领域通才思维重新定义问题的人。

当 Claude Code 在终端中闪烁光标,等待下一个自然语言指令时,它代表的不仅是一个工具,更是一个新时代的叩门声:门槛已然消失,创造者的定义,正在被重写。

访谈原文链接:
https://www.youtube.com/watch?v=julbw1JuAz0

本文由mdnice多平台发布

看了大家发了自己很多负面的东西,尤其时对婚姻家庭等问题持负面态度,我也聊聊我的生活。

我现在在一家小公司上班,薪资一般,但是工作自由度高,我自己独立负责开发一个项目,话语权高。领导只注重结果,我和领导处的也不错,可以说工作上没太多烦恼,压力可控,偶尔加班,不打卡,公司在家附近,通勤电动车 20 分钟。

我老婆在大厂上班,,加班较为严重,薪资是我的 double ,我们夫妻结婚后建立了一个共同账户,每月抛出去正常的支出(衣食住行零花)都存入共同账户,结婚前我在二线买了房子,贷款 100 个,目前出租状态,目前我俩一起还,俩人公积金 cover 无压力。

没结婚前我对我媳妇比我收入高,多少有点担心,我是北方人,传统观念对我有些影响,担心因为收入差距影响夫妻的感情,但是实际是我多虑了。我们夫妻感情非常好,对于婚姻我最注重的就是亲密关系的稳定性,我不是事业型的男人,比较注重家庭,我认为维护家庭稳定比我能挣多少钱更加重要。

我老婆是随遇而安的性格,性格温柔大方,脾气特别好,我们夫妻恩爱,目前是结婚无小孩,近两年准备要小孩。

现在的生活就是早上不用早起,然后吃个早饭(在家和老婆一起(我媳妇加班多,一般我起来做,我不做我们就分别去公司吃)骑电动上班到公司(九点半左右),自己计划自己当天的工作,晚上 7 点多下班,回家偶尔自己做饭(通常自己吃,老婆晚上在公司食堂吃)。吃完晚饭可以玩会儿电脑 看会视频什么的,大部分时间玩,小部分时间提升自己。

老婆加班到很晚,基本上 11 点才到家,到家后她再玩一会,然后 12 左右一起睡觉,睡前还会聊聊天,今天的事啊,网上最近发生的一些大事儿,工作中有哪些不顺心啊,我特别爱聊天,我老婆也能倾听我的话。我也善于倾听,我们通常能聊半小时,近期还有一次聊到半夜三点,聊到最后我老婆问我几点了,我说才 1 点,实际都三点了,整整聊了三个小时,当时我不困,甚至还回味在我们的幸福中。说起来,就是觉得已经相处了六年的情侣 能够在深夜畅谈,让我觉得非常幸福。

可能是还没有孩子,家庭的琐事没有落在我头上,未来哪怕有了孩子,我依然抱有积极的心态,家庭的经营是我觉得最重要的事儿,关于未来我的工作 ai 大势的来袭 我也在积极的学习,争取保持这种稳定的生活,为了生活积极学习改变,就是为了这种稳定的一成不变,这种生活,确实已经是让我梦寐以求又乐在其中。

希望大家也能过得幸福,多向内求,莫向外求。

api.kksj.org 充值 1r=1 刀,默认渠道费率 0.9 ,折合九毛一刀,由于成本较高,注册无优惠,但支持一刀起充试用
企业 api 链路中转,渠道近乎百分之百稳定性,站点部署于 OVH 物理机,绝对稳定性保障
支持 GPT 全模型,直连 azure 和 openai ,默认 azure 渠道,可切换 openai 渠道
支持 claude 全模型,默认直连 AWS 渠道 ,更有 claude max 官方满血渠道
支持 gemini 全模型,转自官方 ai studio ,不降智,原生 1M 上下文
支持 绘图 视频 音乐等各领域领先模型,如 nano banana pro 等

随时失效

操作如下:

1 、先打开 cursor 官网,随便登录一个账号
2 、F12 打开控制台,输入脚本回车:
fetch("https://cursor.com/api/accept-invite", {
"headers": {
"accept": "*/*",
"accept-language": "zh-CN,zh;q=0.9",
"content-type": "application/json",
"priority": "u=1, i",
"sec-ch-ua": "\"Not:A-Brand\";v=\"99\", \"Brave\";v=\"145\", \"Chromium\";v=\"145\"",
"sec-ch-ua-arch": "\"x86\"",
"sec-ch-ua-bitness": "\"64\"",
"sec-ch-ua-mobile": "?0",
"sec-ch-ua-platform": "\"Windows\"",
"sec-ch-ua-platform-version": "\"10.0.0\"",
"sec-fetch-dest": "empty",
"sec-fetch-mode": "cors",
"sec-fetch-site": "same-origin",
"sec-gpc": "1"
},
"referrer": "https://cursor.com/cn/team/accept-invite?code=35e6450f10c81bf7624d108f500db751485285e4458dace0",
"body": "{\"inviteCode\":\"35e6450f10c81bf7624d108f500db751485285e4458dace0\"}",
"method": "POST",
"mode": "cors",
"credentials": "include"
});

3 、Cursor 登录,开始蹬

登陆之后你就会发现之前 free Team 可以使用高级 500 次模型了,现在估计会有很多老哥薅了很多账号了

OpenClaw 在开发者社区迅速获得 23万+ Stars,因其作为开源、本地优先的个人 AI Agent,能够将大语言模型的推理能力转化为对计算机的实际操作,为构建个人 AI 助手提供了系统级权限与自动化基础。

然而,近期部分平台开始收紧对非官方入口的访问。谷歌以“恶意使用”为由,大规模封禁通过 OpenClaw 路由 Gemini token 的用户账号,Anthropic 随后也更新使用条款,明确禁止通过第三方工具调用 Claude 的 OAuth token。这些事件表明,依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat 团队提供稳定合规的官方免费 API,开发者可通过官方渠道直接接入,在确保账号安全的前提下构建自动化工作流

LongCat API 开放平台:

https://longcat.chat/platform/usage

下文将通过实测数据与典型案例,展示 LongCat-Flash-Thinking-2601 在 OpenClaw 上的性能表现,并附完整部署流程,帮助开发者快速构建个人自动化助理。

01 核心优势

在执行效率方面,LongCat-Flash-Thinking-2601 展现出显著优势。在 21 个可比的非定时任务中,其平均单任务耗时仅为 2.35 分钟,相比对比模型快约 30%。这种高效率在不同复杂度的任务中均有体现:

  • 高频简单任务:如模糊文件搜索与即时发送,可在 30 秒 内完成。
  • 中等常规任务:如文件整理与格式转换,仅需约 2 分钟。
  • 复杂综合任务:如文档生成与网页开发,也能在 3 分钟 内交付可用结果。

在任务完成质量方面,LongCat-Flash-Thinking-2601 在涉及联网信息检索和 GUI 界面生成的场景中,能够准确获取信息并快速生成符合要求的输出,展现出较好的执行效率和稳定的任务完成能力。与此同时,我们也在持续优化模型在系统路径识别、脚本生成一致性等方面的表现,致力于为用户带来更全面、更可靠的自动化体验。

02 技术能力拆解

我们通过一系列开发者日常会遇到的真实场景,进一步来评测 LongCat-Flash-Thinking-2601 在驱动本地 Agent 时的技术表现。速度是贯穿始终的核心优势——无论是秒级的文件检索,还是分钟级的复杂任务编排,它都能快速响应,让开发者真正从重复劳动中解放出来。

场景一:自动化配置Python开发环境(2分钟完成)

复杂任务分解与顺序工具调用,这是 Agent 实现真正自动化的基石。

指令要求:

“在 Downloads 目录下创建一个名为 Projects 的文件夹,初始化一个 Python 3.10 的虚拟环境,安装 flask 和 requests 库,然后用 VS Code 打开这个文件夹…”

技术表现分析:

我们给出的指令包含了一系列连续的、有依赖关系的操作。LongCat-Flash-Thinking-2601接收指令后,精准地对任务进行了拆解:mkdir -> python -m venv -> pip install -> code 。它准确地规划了每一步操作,并依次调用 OpenClaw 提供的 shell 工具来执行。

整个过程在2 分钟内自动完成,没有步骤遗漏或顺序错乱。

场景二:远程图片重绘与跨应用协作(3分钟完成)

一个高效的 Agent 必须能无缝地连接不同的服务。

指令要求:

“把这张图用 Google 的 Nano Banana 重绘成赛博朋克风格,生成好之后通过 iMessage 发给我。”

技术表现分析:

我们通过 iMessage 发送一张图片,这个工作流涉及三个关键点:

  • 通道感知: 理解指令来自 iMessage。
  • 工具选择: 准确识别出需要调用名为 nano-banana 的外部技能 (Skill)。
  • 低延迟执行: 快速完成 API 调用和文件回传。

LongCat-Flash-Thinking-2601 在这个过程中表现出色,成功调度了外部 AI 工具。

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

场景三:TGA年度游戏信息网页生成(3分钟完成)

从非结构化信息中提取价值并生成结构化产出,是开发中的高频需求。

指令要求:

“整理2015-2024这十年的TGA年度游戏信息,包括游戏发布时间、游戏简介、IGN评分、其他获奖记录等,并且每部游戏需给出高度概括的一句话评价。按获奖年份顺序进行排序,制作成一个主色调为深蓝+金色的精美网页。”

技术表现分析:

LongCat-Flash-Thinking-2601 在此展示了端到端的能力:

  • 信息合成:调用知识库或搜索工具,获取并整理 TGA 的相关数据。
  • 代码生成:将整理好的数据,结合“深蓝+金色”的设计要求,直接生成包含 HTML 和 CSS 的完整代码文件。

游戏信息介绍按照指令要求展示。

场景四:定制化GitHub每日热榜推送(5分钟自动触发)

最强大的 Agent 是那些无需提醒、能主动为你服务的。指令要求:

“每天下午17:40查询 github 的今日热榜并将其做成一个中文简报(需附带项目链接),完成后通过 imessage 发送给我。”

技术表现分析:

设定一个长期、自动执行的任务,LongCat-Flash-Thinking-2601 成功地设置并执行了 cron 类型的定时任务。它能够在无人干预的情况下,周期性地执行信息获取、处理和推送,成为一个真正的自动化情报助理。

成功定位全部文件,并通过 iMessage 完成发送。

场景五:模糊文件搜索与即时发送(32秒完成)

精准的本地文件检索与跨平台交互,是远程办公场景下的高频需求。

指令要求:

“帮我找一下电脑上《东鞑纪行》有关的文件,格式为 word 或者 pdf,可能在 Downloads 或文档目录下。找到后直接通过 imessage 发送给我。”

技术表现分析:模型需要理解模糊的文件名(“东鞑纪行”可能并非精确文件名)、推测可能的存放位置,然后遍历目录、筛选匹配文件,最后通过 iMessage 完成发送。

LongCat-Flash-Thinking-2601 成功定位到全部 3 个相关文件,并通过 iMessage 发送,文件完整无损。整个过程仅耗时 32 秒,充分体现了其在本地文件系统操作与消息通道集成上的高效率。

03 OpenClaw 部署教程

3.1 环境准备

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

在使用OpenClaw前,您需要准备好以下内容:

1.OpenClaw安装包

MacOS 环境下安装命令如下:

# 使用npm安装
npm install -g openclaw@latest

# 或使用pnpm安装
pnpm add -g openclaw@latest

# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell 环境下安装命令如下:

iwr -useb https://openclaw.ai/install.ps1 | iex

2.LongCat核心配置

支持的模型:

3.2 快速启动

向导启动命令

openclaw onboard --install-daemon

向导配置选项说明

3.3 启动后的配置

向导启动完成后,OpenClaw会自动启动Gateway服务并打开Web控制页面。

默认访问地址:http://127.0.0.1:18789

如果页面没有自动打开,可以手动在浏览器中访问上述地址。

配置文件位置:OpenClaw的配置文件位于:~/.openclaw/openclaw.json

3.4 LongCat模型配置

启动后我们可以通过修改自定义配置来接入LongCat模型。

配置方案一:修改配置文件

  1. 增加自定义模型供应商在openclaw.json中添加models字段:

  1. 修改默认模型设置

修改agents字段,设置默认模型:

修改保存后立即生效。

配置方案二:GUI界面配置

1.在Web控制页面中,进入 Config → Models → Providers

2.添加如下配置:

完整配置示例地址:https://longcat.chat/platform/docs/zh/OpenClaw.html

3.5 开始使用

配置生效后,即可使用 OpenClaw。

打开TUI,并查看Gateway状态

openclaw tui
/status

打开Web UI,在Chat页面进行交互

openclaw dashboard

然后输入测试消息,如:"你好,请介绍一下自己"。

如果配置正确,您将收到来自LongCat模型的回复。

04 更多资源

欢迎通过以下资源开始实践:

期待你的反馈与更多场景的探索。

对于追求极致效率的开发者来说,一个强大的本地 Agent 框架和一个为行动而优化的 AI 模型是天作之合。这套技术栈的核心优势在于,它将自然语言的灵活性与机器执行的精确性高效地结合起来,能够切实地自动化开发者日常工作流中的高频、重复性任务。

| 关注「美团技术团队」微信公众号,阅读更多技术干货!

| 本文系美团技术团队出品,著作权归属美团。欢迎出于分享和交流等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者使用。任何商用行为,请发送邮件至 tech@meituan.com 申请授权。

OpenClaw 在开发者社区迅速获得 23万+ Stars,因其作为开源、本地优先的个人 AI Agent,能够将大语言模型的推理能力转化为对计算机的实际操作,为构建个人 AI 助手提供了系统级权限与自动化基础。

然而,近期部分平台开始收紧对非官方入口的访问。谷歌以“恶意使用”为由,大规模封禁通过 OpenClaw 路由 Gemini token 的用户账号,Anthropic 随后也更新使用条款,明确禁止通过第三方工具调用 Claude 的 OAuth token。这些事件表明,依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat 团队提供稳定合规的官方免费 API,开发者可通过官方渠道直接接入,在确保账号安全的前提下构建自动化工作流

LongCat API 开放平台:

https://longcat.chat/platform/usage

下文将通过实测数据与典型案例,展示 LongCat-Flash-Thinking-2601 在 OpenClaw 上的性能表现,并附完整部署流程,帮助开发者快速构建个人自动化助理。

01 核心优势

在执行效率方面,LongCat-Flash-Thinking-2601 展现出显著优势。在 21 个可比的非定时任务中,其平均单任务耗时仅为 2.35 分钟,相比对比模型快约 30%。这种高效率在不同复杂度的任务中均有体现:

  • 高频简单任务:如模糊文件搜索与即时发送,可在 30 秒 内完成。
  • 中等常规任务:如文件整理与格式转换,仅需约 2 分钟。
  • 复杂综合任务:如文档生成与网页开发,也能在 3 分钟 内交付可用结果。

在任务完成质量方面,LongCat-Flash-Thinking-2601 在涉及联网信息检索和 GUI 界面生成的场景中,能够准确获取信息并快速生成符合要求的输出,展现出较好的执行效率和稳定的任务完成能力。与此同时,我们也在持续优化模型在系统路径识别、脚本生成一致性等方面的表现,致力于为用户带来更全面、更可靠的自动化体验。

02 技术能力拆解

我们通过一系列开发者日常会遇到的真实场景,进一步来评测 LongCat-Flash-Thinking-2601 在驱动本地 Agent 时的技术表现。速度是贯穿始终的核心优势——无论是秒级的文件检索,还是分钟级的复杂任务编排,它都能快速响应,让开发者真正从重复劳动中解放出来。

场景一:自动化配置Python开发环境(2分钟完成)

复杂任务分解与顺序工具调用,这是 Agent 实现真正自动化的基石。

指令要求:

“在 Downloads 目录下创建一个名为 Projects 的文件夹,初始化一个 Python 3.10 的虚拟环境,安装 flask 和 requests 库,然后用 VS Code 打开这个文件夹…”

技术表现分析:

我们给出的指令包含了一系列连续的、有依赖关系的操作。LongCat-Flash-Thinking-2601接收指令后,精准地对任务进行了拆解:mkdir -> python -m venv -> pip install -> code 。它准确地规划了每一步操作,并依次调用 OpenClaw 提供的 shell 工具来执行。

整个过程在2 分钟内自动完成,没有步骤遗漏或顺序错乱。

场景二:远程图片重绘与跨应用协作(3分钟完成)

一个高效的 Agent 必须能无缝地连接不同的服务。

指令要求:

“把这张图用 Google 的 Nano Banana 重绘成赛博朋克风格,生成好之后通过 iMessage 发给我。”

技术表现分析:

我们通过 iMessage 发送一张图片,这个工作流涉及三个关键点:

  • 通道感知: 理解指令来自 iMessage。
  • 工具选择: 准确识别出需要调用名为 nano-banana 的外部技能 (Skill)。
  • 低延迟执行: 快速完成 API 调用和文件回传。

LongCat-Flash-Thinking-2601 在这个过程中表现出色,成功调度了外部 AI 工具。

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

场景三:TGA年度游戏信息网页生成(3分钟完成)

从非结构化信息中提取价值并生成结构化产出,是开发中的高频需求。

指令要求:

“整理2015-2024这十年的TGA年度游戏信息,包括游戏发布时间、游戏简介、IGN评分、其他获奖记录等,并且每部游戏需给出高度概括的一句话评价。按获奖年份顺序进行排序,制作成一个主色调为深蓝+金色的精美网页。”

技术表现分析:

LongCat-Flash-Thinking-2601 在此展示了端到端的能力:

  • 信息合成:调用知识库或搜索工具,获取并整理 TGA 的相关数据。
  • 代码生成:将整理好的数据,结合“深蓝+金色”的设计要求,直接生成包含 HTML 和 CSS 的完整代码文件。

游戏信息介绍按照指令要求展示。

场景四:定制化GitHub每日热榜推送(5分钟自动触发)

最强大的 Agent 是那些无需提醒、能主动为你服务的。指令要求:

“每天下午17:40查询 github 的今日热榜并将其做成一个中文简报(需附带项目链接),完成后通过 imessage 发送给我。”

技术表现分析:

设定一个长期、自动执行的任务,LongCat-Flash-Thinking-2601 成功地设置并执行了 cron 类型的定时任务。它能够在无人干预的情况下,周期性地执行信息获取、处理和推送,成为一个真正的自动化情报助理。

成功定位全部文件,并通过 iMessage 完成发送。

场景五:模糊文件搜索与即时发送(32秒完成)

精准的本地文件检索与跨平台交互,是远程办公场景下的高频需求。

指令要求:

“帮我找一下电脑上《东鞑纪行》有关的文件,格式为 word 或者 pdf,可能在 Downloads 或文档目录下。找到后直接通过 imessage 发送给我。”

技术表现分析:模型需要理解模糊的文件名(“东鞑纪行”可能并非精确文件名)、推测可能的存放位置,然后遍历目录、筛选匹配文件,最后通过 iMessage 完成发送。

LongCat-Flash-Thinking-2601 成功定位到全部 3 个相关文件,并通过 iMessage 发送,文件完整无损。整个过程仅耗时 32 秒,充分体现了其在本地文件系统操作与消息通道集成上的高效率。

03 OpenClaw 部署教程

3.1 环境准备

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

在使用OpenClaw前,您需要准备好以下内容:

1.OpenClaw安装包

MacOS 环境下安装命令如下:

# 使用npm安装
npm install -g openclaw@latest

# 或使用pnpm安装
pnpm add -g openclaw@latest

# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell 环境下安装命令如下:

iwr -useb https://openclaw.ai/install.ps1 | iex

2.LongCat核心配置

支持的模型:

3.2 快速启动

向导启动命令

openclaw onboard --install-daemon

向导配置选项说明

3.3 启动后的配置

向导启动完成后,OpenClaw会自动启动Gateway服务并打开Web控制页面。

默认访问地址:http://127.0.0.1:18789

如果页面没有自动打开,可以手动在浏览器中访问上述地址。

配置文件位置:OpenClaw的配置文件位于:~/.openclaw/openclaw.json

3.4 LongCat模型配置

启动后我们可以通过修改自定义配置来接入LongCat模型。

配置方案一:修改配置文件

  1. 增加自定义模型供应商在openclaw.json中添加models字段:

  1. 修改默认模型设置

修改agents字段,设置默认模型:

修改保存后立即生效。

配置方案二:GUI界面配置

1.在Web控制页面中,进入 Config → Models → Providers

2.添加如下配置:

完整配置示例地址:https://longcat.chat/platform/docs/zh/OpenClaw.html

3.5 开始使用

配置生效后,即可使用 OpenClaw。

打开TUI,并查看Gateway状态

openclaw tui
/status

打开Web UI,在Chat页面进行交互

openclaw dashboard

然后输入测试消息,如:"你好,请介绍一下自己"。

如果配置正确,您将收到来自LongCat模型的回复。

04 更多资源

欢迎通过以下资源开始实践:

期待你的反馈与更多场景的探索。

对于追求极致效率的开发者来说,一个强大的本地 Agent 框架和一个为行动而优化的 AI 模型是天作之合。这套技术栈的核心优势在于,它将自然语言的灵活性与机器执行的精确性高效地结合起来,能够切实地自动化开发者日常工作流中的高频、重复性任务。

| 关注「美团技术团队」微信公众号,阅读更多技术干货!

| 本文系美团技术团队出品,著作权归属美团。欢迎出于分享和交流等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者使用。任何商用行为,请发送邮件至 tech@meituan.com 申请授权。

配置能力:

  • homeassistant
  • Agent Browser 抓取指定页面
  • xiaohongshu-mcp

完成的任务总结

  • 一句话安装 skills 和增加定时任务
  • SSH 服务器批量连接测试
  • Agent Browser 安装测试并成功抓取 bilibili 69aa7571e261f.png
  • 监控 claude code 会话框确保任务完成
  • 港股 IPO 上新提醒 69aa75415b7eb.png
  • 根据 HomeAssistant 天气组件和温湿度计数据,检测到湿度大于 90%,给房间开一小时除湿模式 69aa758b81f79.png
  • 小红书搜索相关帖子 69aa75d86c231.png
  • 给 ESP32-C3 擦除 NVS 分区 69aa75af9e76e.png

每日定时任务

  • 港股新股 IPO 提醒
  • 温湿度检测

使用情况

  • ChatGLM Coding Pro 套餐
  • GLM4.7
  • Telegram 聊天
    69aa6f428b27b.png

编者按:本文是少数派 2025 年度征文活动#TeamSilicon25标签下的入围文章。本文仅代表作者本人观点,少数派只略微调整排版。

今年的征文活动更有创意,「只能用 AI」和「不能用 AI」两大赛道激情 PK,硅基生物和碳基生物都将决出各自领域的佼佼者。我们会在征文结束后统一组织投票活动,但在正式投票之前,如果你喜欢这篇文章,不妨通过充电或评论的方式支持作者,让内容创作者获得更多维度的鼓励。


之前还在知乎回答了一个问题:自己拥有一台服务器可以做哪些事情。

买了个服务器,买了俩域名。

  • 做了个交互式游戏,嗯,重生之侯府嫡女那种爽文然后在游戏里面给 NPC 接了 AI,NPC 知道故事背景,有自己的人物小传,然后就可以在游戏里面疯狂辱骂 npc(bushi
  • 做了个减脂小程序,接了 AI,上传照片识别热量、截图识别运动记录,减脂过程一顿夸 (别骂了在练了 FIT)
  • 做了个给装修公司用的 SaaS
  • 还做了一堆在线测试的小网页

本文细讲这个交互式爽文游戏。


春节假期在家无聊的时候刷了十几部短剧十几篇知乎小说,无一例外都是重生爽文。套路非常现成:上辈子被渣男辜负,重生后我要夺回属于我的一切

节奏快、冲突强,看着主角手撕仇敌、脚踩反派,从打工时的情绪价值勒索状态,被爽文一秒充满情绪价值。

爽文不愧是爽文,要是让我进去也给那些反派几个大耳巴子狠狠辱骂他们就更爽了……等等……我、给反派、耳巴子?灵感来了,给这些反派 NPC 接个 AI 不就好了,玩家可以随时和 NPC 对话,而 NPC 知道自己的身世、故事的背景、玩家的进度,甚至会对玩家的辱骂做出符合人设的反应。机智如我。

于是心动不如行动,火速开始和 ChatGPT 聊了这个事儿。得益于看过的短剧、爽文小说、玩过的橙光游戏,这件事情变得非常迅速。我随手把这个游戏也发了小红书笔记,没想到几百个姐妹在线蹲……

架构设计

和设计产品一样,开始之前的第一件事是架构设计。参考橙光游戏的设计策略,玩家可以进行的是:

  • 剧情分支:玩家阅读完剧情后通过选项进入不同分支,分支最终回收至主线或进入不同结局,它本质上是一棵可被穷举的决策树。玩家之所以能体验到「互动」,是因为作者提前设计了每一个可能发生的路径。
  • 养成系统:没有剧情触发的时候,玩家可以给女主安排日常任务从而获取游戏中的各项属性值,比如练习骑射提升武艺,编排舞蹈提升美貌,学习制药提升技能,甚至可以安排「出门赚钱」赚取银两(有些任务需要消耗银两)。再通过属性值门槛触发对应剧情、解锁角色好感、开启特殊事件或达成不同结局。

简单来说就是这两点:剧情靠选项走分支,养成靠属性定结局。有了上面的玩法之后,再加个 NPC 自由 AI 对话,这个交互式小说游戏就基本上齐活了。

传统橙光游戏里,NPC 是纸片人,台词固定。而我想要的 AINPC 是:每次和他对话,他都能根据当前的剧情、玩家的属性、之前的互动,给出真实的回应。为了不让游戏复杂,和 NPC 的自由对话也不能影响主线剧情任务的设计,也就是说,剧情是剧情、NPC 只是提供情绪价值,负责被玩家辱骂。

所以整个游戏的核心循环长这样:

阅读剧情 → 做分支选择 → 安排日程刷属性 → 和 NPC 对话互动 → 触发下一段剧情

架构理清楚之后,剩下的问题就是:故事背景怎么写、NPC 怎么设计、AI 怎么接。

故事设计:和 ChatGPT 疯狂聊天

这一步说起来简单,就是把游戏的「内容」填进去。

我先和 ChatGPT 疯狂聊想法,先来讲我要做什么,就是上面的架构设计的内容,告诉它我这个对话的目的。

接着,把「重生宅斗爽文」的核心设定讲清楚,正因为看过那么多重生小说,这一步信手拈来——女主被辜负后重生,目标是打脸反派、攻略男性角色,同时不被感情束缚。几百字交代了人物情况、人物冲突然后让 ChatGPT 帮我完善故事大纲。

故事大纲的框架定了,再聊剧情分支设计、结局设计、属性值等等的设计逻辑。基本上所有的框架到这一步就 OK 了,接着就开始帮我写人物小传和剧情正文。

我只需要给方向,GPT 老师来补细节,我来判断「爽不爽」,不爽就打回去改。每个分支的选项文案、不同选择对应的属性加成、结局文案……嗯,有点像是在做产品需求评审。

整个世界 ready 了,再下一步就到人物了,每个 NPC 都要有自己的成长背景、性格逻辑、说话方式,这直接决定后续 AI 能不能真的「演」出这个人。仍然是 G 老师帮我写设定,我再给意见。

世界背景和人物内容都补齐了,接下来到 NPC 的提示词工程了。

NPC Prompt 设计

一开始我以为这件事只是工程问题:给 AI 写一个人物设定,让它模仿说话就可以了。但很快我发现,这远远不够。

如果 NPC 不知道世界观,它会随意扩展背景,甚至凭空创造新的设定;如果它知道全部剧情,它又可能提前暴露尚未发生的事件;如果它不知道玩家当前进度,它的态度就会和剧情脱节。

于是我开始一点一点地补齐上下文。

首先是整个前面跟 G 老师聊完的世界的设定,包括家族结构、权力关系和核心人物之间的矛盾。这是对话的边界。然后是每个 NPC 的人物小传,包含成长经历、性格特征、隐藏动机和语言风格,这决定了它「像谁」。

接下来是玩家状态。NPC 必须知道玩家当前处于哪个章节、做过哪些关键选择、属性值是多少,以及与自己之间的亲密度。不同角色关注的属性不同,比如小将军更看重武艺,二皇子更在意美貌,大夫更看重道德和制药能力。如果这些状态不参与计算,对话就只是表面的文本,而不会真正反馈玩家的行为。

但更重要的是,NPC 必须被限制。

它不能知道未来发生的剧情,不能谈论尚未解锁的信息,不能跨越当前章节去回应问题。换句话说,它必须只活在「当前阶段」。当我意识到这一点时,我才发现自己其实不是在做一个爽文游戏,而是在构建一套叙事边界系统。

最后我设计了这几个部分的 System Prompt:

  • 世界观与人物关系: 明确整个世界的背景,核心角色的身份与羁绊,避免 NPC 出现「一问三不知」的情况,确保对话始终贴合故事设定。
  • 专属人物小传:给每个核心 NPC 写一段详细的经历,包括性格、过往遭遇、对女主的初始态度——比如大夫 NPC 温柔但看重道德感,小将军直率且在意武艺,二皇子肤浅更看美貌,而反派则要突出其自私、虚伪的特质。这些小传直接决定 NPC 的说话风格,尤其是面对玩家辱骂时的反应,比如反派可能会嘴硬反驳,庶妹可能会委屈卖惨,渣男未婚夫可能会恼羞成怒。
  • 剧情进度同步:这一层也是最关键的限制。为了让 NPC 只知道「已经发生的事」,不会剧透未来,也不会乱讲没发生过的剧情(比如别的剧情分支),避免出现逻辑漏洞。 这部分设计了一个核心事件文件,记录玩家从重生开始到当前阶段的所有关键选择——比如春日宴选了认识小将军还是二皇子,有没有帮过某个 NPC,有没有揭发过反派的小动作。
  • 亲密度、属性等动态数值传参:真实的人与人之间的情感关系不是一成不变的,它会随着你的行为慢慢变化。所以亲密度低时,NPC 叫「沈小姐」,语气客气甚至疏离;亲密度高了,开始叫小名,说话也亲昵起来。玩家的属性值同样会影响 NPC 的态度,比如现在玩家和 NPC 本人的年龄,要根据年龄有不同的语气。还有一些其他参数的影响,类似小将军对武艺高的女主更认可,二皇子对美貌值高的女主更热情。
  • 上下文记忆:每次对话都把前六轮内容带进去,让 NPC 记得之前聊过什么。玩家上一轮刚骂了反派「忘恩负义」,下一轮再提起,反派会顺着这个情绪回应,而不是像失忆了一样重新开始。连贯的记忆,才能让辱骂的爽感叠起来。

除此之外我还加了一个设计:NPC 的对话会以 JSON 格式返回一条隐藏信息,也就是 AI 回复的是双通道,system_content 是告诉系统这次对话是否增减了亲密度或属性值,role_content 参数是玩家看的 NPC 的对话内容,这样既不破坏沉浸感,又能实现属性同步。

OK,system prompt 很完整,NPC 接上 AI 之后也不弱智,但是代价显然易见……token 烧得飞速。游戏上线没多久,嗷嗷待哺的一两百个姐妹们玩了不到一小时,我领的百万免费 token 基本见底。

从数据上看,是 system prompt 塞爆了导致的成本爆炸,然后我干了两件事。

第一件事是把每个 NPC 的 system prompt 翻出来,人工精简一遍。

然后我又给玩家加了一个「自带 API Key」的入口,类似 Cherry Studio 的逻辑,选好模型厂商、填上自己的 Key,就走自己的额度,平台不再承担这部分成本。

结局也要 AI 定制

普通互动小说的结局是固定的,触发某个条件就对应某段文字,几个周目下来看多了会腻。我想让结局更有「这是我这一局独有的经历」的感觉。

所以在结局触发时,系统会把玩家整个游戏历程打包,走过哪些剧情分支、各个 NPC 的亲密度是多少、所有属性值的最终状态——全部交给 AI,让它在固定结局框架之上,生成一段专属于这个玩家的回顾叙述。

同一个结局,不同的人玩,读到的文字不一样。玩家自己知道哪些细节是真实发生过的,这种感觉比看一段通用文案爽多了。

开发流程:工具接力

内容和设计想清楚了,开始动手。全程工具接力,大概是这条线:

ChatGPT 聊框架 → 豆包出图 → Gemini 写前端 →Codex 实现逻辑并部署上线

美术素材:参考了橙光游戏,需要有几个核心场景和人物立绘图,立绘要抠成透明背景,叠在场景图上用,切换 NPC 对话时换场景、换立绘,沉浸感一下就有了。这一步直接让 ChatGPT 帮我写场景图和人物立绘的提示词,然后把提示词丢给豆包生图。

前端界面:我根据自己玩橙光游戏的经验,手绘了一份草图,标好各按钮的位置——换场景、查属性、安排日程、跳转下一天、NPC 对话框。把草图加上故事概要和玩法说明一起给 Gemini,它的前端生成效果比 Codex 这个理工直男好很多,出了一版可以直接用的 UI。

业务逻辑:把 Gemini 的项目文件下载到本地,再增加了几个剧情、System Prompt、玩法和逻辑的文档,导进 Codex,把各个文件的内容和用途都说清楚,让它来跑通所有核心功能。

部署上线:服务器买好了,域名之前已经备案,提交 Git,部署这事儿也全权交给 Codex。

玩下来怎么样

其实还不错。

沉浸式读完故事背景、走剧情分支、攒属性值,再去找 NPC 对话——这套流程确实能给出那种爽文里的代入感,而且比单纯阅读更有参与感,因为你得做选择、得经营关系、得规划日程,你的每一步都在影响剧情的走向。

最爽的部分当然还是骂人。对着一个知道自己干了什么坏事、会委屈辩解、还会因为你骂得狠了而变得更疏远的 AI 反派开骂,比看小说爽多了。这才是这个游戏存在的意义。

辱骂 NPC(bushi

当然,这只是个春节期间一时兴起做出来的东西,距离「好游戏」还差得很远。token 消耗的问题、剧情分支的深度、NPC 偶尔的抽风……都是坑。

姐妹们的反馈

但一个人,三五天功夫,从想法到能给别人玩的东西,这件事本身已经很够用了。


要是你也有那种「看爽文不够爽,想自己进去打反派」的冲动——做一个吧,现在真的不难。

如果想要体验我做的这个游戏,欢迎去小红书我的笔记下一键三连,里面有链接。

AI 创作过程披露

主力 AI:Claude Sonnet 4.6,同时使用了豆包出了一版内容,将还不错的部分让 Sonnet 4.6 进行审核。

首先是将之前写做过的文风交给 Claude 学习:

接着我提供了我需要写作的内容,录音文件差不多十多分钟:

接着,我提供了一些开头,让 Claude 继续续写:

续写版的 md 文档如下:

可以看到差不多就是我本文的正文了。部分章节采用了豆包:

> 参与 2025 年度少数派征文,分享你的观点和经验 ✍🏻️

> 实用、好用的 正版软件,少数派为你呈现 🚀

    配置能力:

    • homeassistant
    • Agent Browser 抓取指定页面
    • xiaohongshu-mcp

    完成的任务总结

    • 一句话安装 skills 和增加定时任务
    • SSH 服务器批量连接测试
    • Agent Browser 安装测试并成功抓取 bilibili 69aa7571e261f.png
    • 监控 claude code 会话框确保任务完成
    • 港股 IPO 上新提醒 69aa75415b7eb.png
    • 根据 HomeAssistant 天气组件和温湿度计数据,检测到湿度大于 90%,给房间开一小时除湿模式 69aa758b81f79.png
    • 小红书搜索相关帖子 69aa75d86c231.png
    • 给 ESP32-C3 擦除 NVS 分区 69aa75af9e76e.png

    每日定时任务

    • 港股新股 IPO 提醒
    • 温湿度检测

    使用情况

    • ChatGLM Coding Pro 套餐
    • GLM4.7
    • Telegram 聊天
      69aa6f428b27b.png

    一、概述总结

    微视通是一款专为微信公众号生态打造的短视频营销管理工具,旨在帮助企业和个人运营者高效管理短视频内容、提升营销效果。该系统基于微擎平台开发,支持PHP5.6环境,采用源码加密交付方式,确保系统安全性。

    核心定位:短视频营销管理工具

    适用平台:微信公众号

    二、功能介绍

    基于页面展示信息,微视通主要功能模块包括:

    1. 会员等级体系
    • 普通会员:基础功能使用权限,累计消费达标可升级
    • 银会员:累计消费10次即可升级
    • VIP会员:本店消费满10次可成为VIP,享受更多权益
    1. 短视频内容管理
    • 短视频发布与编辑
    • 内容分类与标签管理
    • 视频数据追踪与分析
    1. 营销互动功能
    • 霸榜红包:激励用户互动传播的红包机制
    • 朋友圈分享裂变
    • 用户行为数据统计
    1. 个人中心管理
    • 会员信息展示
    • 消费记录查询
    • 等级权益查看
    1. 后台管理系统
    • 可视化数据面板
    • 用户行为分析
    • 营销活动配置
    • 功能脑图展示(便于理解系统架构)

    三、适用场景与行业价值

    适用场景:

    • 企业品牌短视频营销推广
    • 自媒体内容变现与粉丝运营
    • 电商产品短视频展示
    • 本地生活服务推广
    • 知识付费内容传播

    行业价值:

    1. 降低运营门槛:提供标准化短视频营销工具,无需技术开发能力
    2. 提升转化效率:通过红包激励等机制促进用户分享传播
    3. 数据驱动决策:后台数据分析帮助优化内容策略
    4. 会员体系沉淀:建立用户成长体系,提高客户留存率
    5. 生态整合优势:深度对接微信公众号生态,流量获取更便捷

    目标用户:

    • 中小微企业市场部
    • 自媒体运营者
    • 电商卖家
    • 本地生活服务商

    四、常见问题解答(FAQ)

    Q1:微视通支持哪些平台?

    A:目前主要支持微信公众号,需配合微擎系统使用。

    Q2:系统对服务器有什么要求?

    A:支持PHP5.6环境,需配合微擎系统部署。

    Q3:什么是"霸榜红包"功能?

    A:霸榜红包是微视通的特色营销功能,通过红包激励机制鼓励用户分享短视频内容,提升传播效果。

    Q4:会员等级如何提升?

    A:普通会员累计消费10次可升级为银会员;在本店消费满10次即可成为VIP会员,享受更多专属权益。

    Q5:源码是否加密?

    A:是的,系统源码已加密交付,保障知识产权安全。

    一、概述总结

    新留言板是一款基于微擎平台开发的轻量化互动留言系统,专为微信小程序和抖音小程序生态打造。该系统采用模块化架构设计,支持快速部署与定制开发,旨在为企业和个人提供高效、便捷的用户反馈与互动管理解决方案。

    作为微擎应用市场官方认证产品,新留言板具备源码加密保护和在线交付能力,确保应用安全性和部署便捷性。系统上线以来已有10+活跃站点在使用,主要服务于意见收集、投诉建议、互动留言等场景。


    二、功能介绍

    核心功能模块

    1. 多渠道留言管理

      • 支持微信小程序、抖音小程序多端接入
      • 统一后台管理所有渠道留言数据
      • 实时消息提醒与推送通知
    1. 智能分类与标签

      • 内置"点题整治"、"意见"、"投诉"等预设分类标签
      • 支持自定义标签体系,灵活适配不同业务场景
      • 留言自动归类,提升处理效率
    1. 用户互动体系

      • 支持点赞、回复、置顶等互动功能
      • 用户身份验证与权限管理
      • 敏感词过滤与内容审核机制
    1. 数据可视化分析

      • 留言数据统计报表
      • 用户行为分析
      • 热点话题追踪
    1. 定制化扩展能力

      • 支持界面风格自定义
      • 字段自定义配置
      • API接口开放,便于二次开发

    三、适用场景与行业价值

    主要适用场景

    场景类型 具体应用 价值体现

    政务服务 市民意见箱、投诉建议平台、点题整治 提升政务透明度,构建政民互动桥梁

    企业客服 产品反馈、售后服务、客户建议收集 降低客服成本,提升用户满意度

    社区运营 业主留言、物业沟通、社区公告 增强社区凝聚力,提高管理效率

    教育行业 家校互动、课程反馈、意见征集 促进家校共育,优化教学质量

    活动互动 活动留言墙、现场互动、祝福留言 增强活动氛围,提升用户参与度

    行业价值

    1. 提升用户粘性:通过即时互动功能,增强用户参与感和归属感
    2. 优化决策依据:基于真实用户反馈数据,辅助业务决策优化
    3. 降低运营成本:自动化留言管理减少人工客服压力
    4. 合规安全保障:源码加密与内容审核机制,确保数据安全合规
    5. 快速部署上线:微擎生态支持,最快1天完成系统部署

    四、常见问题解答(FAQ)

    Q1:新留言板支持哪些平台部署?

    A:目前支持微信小程序和抖音小程序双平台部署,后续将根据市场需求扩展至更多平台。

    Q2:系统是否需要编程基础才能使用?

    A:不需要。新留言板采用可视化配置界面,普通运营人员通过后台即可完成全部设置。如需深度定制,微擎平台也提供专业的定制开发服务。

    Q3:如何保障留言内容的安全性?

    A:系统内置三重安全机制:①敏感词自动过滤 ②内容人工审核开关 ③用户实名验证选项。同时源码已加密,防止恶意篡改。

    Q4:购买后是否提供技术支持?

    A:作为微擎官方认证应用,享受平台标准售后服务。开通微擎VIP还可获得30天无售后急速退款保障及优先技术支持。

    Q5:能否根据我们行业特性定制功能?

    A:可以。新留言板支持字段自定义和标签体系自定义,基础定制无需开发。如需深度定制,可通过微擎任务市场或官方定制开发服务实现。

    Q6:数据存储在哪里?是否安全?

    A:数据存储在您自主控制的微擎系统服务器上,符合中国数据安全法规要求。微擎平台提供企业级数据安全保障。

    一、概述总结

    内容资讯管理系统插件是微擎应用市场推出的一款免费内容管理插件,专为微信小程序和抖音小程序设计。该插件是神秘商城主程序的配套插件,提供完整的文章、资讯、新闻等内容管理功能,适用于企业官网、博客、新闻门户等需要大量内容展示的网站场景。

    核心定位:作为神秘商城生态系统的文章资讯模块,为电商系统提供内容营销支持,实现"内容+电商"的融合运营。


    二、功能介绍

    后台管理功能

    1. 文章分类创建:支持灵活的内容分类体系搭建
    2. 文章创建:便捷的内容发布与管理

    前台展示功能

    1. 自定义页面文章列表:支持个性化页面布局
    2. 文章列表页面:结构化展示内容目录
    3. 文章详情页面:完整的内容阅读体验

    配套主程序功能(神秘商城)

    • 首页设置与轮播图展示
    • 商品发布、购买、下单全流程
    • 商品分类与品牌展示
    • 微信支付集成
    • 用户地址管理
    • 完整电商解决方案

    三、适用场景与行业价值

    核心适用场景

    场景类型 具体应用

    企业官网 公司介绍、产品说明、新闻动态发布

    内容博客 个人/企业博客、技术分享、行业观点

    新闻门户 行业资讯、热点新闻、专题报道

    内容电商 结合神秘商城实现"内容种草+商品转化"

    行业价值

    1. 零成本启动:插件完全免费,降低创业门槛
    2. 生态协同:与神秘商城无缝集成,实现内容营销与电商转化闭环
    3. 多平台覆盖:支持微信小程序和抖音小程序,触达海量用户
    4. 轻量化部署:无需复杂配置,快速上线内容站点
    5. 灵活扩展:基于微擎平台,可扩展更多营销功能

    四、常见问题解答(Q&A)

    Q1:支持哪些小程序平台?

    A:目前支持微信小程序,适用于PHP 7.1环境。

    Q2:是否需要获取用户隐私信息?

    A:需要获取以下用户信息:微信昵称、头像、性别、地区,以及位置信息和相册权限,主要用于提升用户体验和内容推荐。

    Q3:与神秘商城的关系是什么?

    A:神秘商城是主应用,提供电商核心功能;内容资讯管理系统是插件,为商城提供内容营销支持。两者结合可实现"内容引流+商品转化"的完整商业闭环。

    Q4:插件代码是否开源?

    A:源码未加密,开发者可以根据需要进行二次开发和定制。

    Q5:服务周期结束后还能使用吗?

    A:服务周期结束后插件仍可继续使用,但无法获取后续更新,建议保持服务套餐以获得最新功能和安全补丁。

    Q6:适合什么技术水平的用户使用?

    A:适合具备基础PHP开发能力的用户。神秘商城提供完整电商解决方案,内容插件提供标准化内容管理功能,部署简单,配置便捷。

    当AI应用深入各行各业,系统稳定性的保障方式也必须进化。传统的SRE模式正面临四重挑战:

    • 告警风暴:海量告警涌入,难以分辨真正需要关注的紧急事件;
    • 根因定位低效:故障排查高度依赖个体经验,缺乏跨指标、日志与变更的自动化关联分析;
    • 运维操作重复:日常部署、扩缩容、重启等任务琐碎繁重,工程师疲于“救火”,难有精力投入架构优化;
    • 知识难以复用:系统认知与排障经验分散在个人或静态文档中,无法沉淀为可查询、可迭代的团队资产。

    云智慧推出的AI SRE Agent——Castrel AI,正是为应对这些挑战而生——它是一款专为SRE打造的AI 智能体,能够理解系统上下文、自主调查事件、安全执行运维任务,并将团队知识转化为可交互的智能资产。

    智能运维Agent——Castrel AI不是简单的自动化脚本,也不止于传统 AIOps,而是团队的专属AI SRE Agent —— 一个深度嵌入 SRE 全工作流的智能协作者。

    图片

    一、Castrel AI 能做什么?覆盖SRE全工作流的五大高频场景

    SRE 智能体——Castrel AI 的设计哲学很清晰:从被动响应,转向主动预防;从人力依赖,转向智能协同。它覆盖SRE全生命周期,聚焦五个高频痛点场景:

    智能告警分类:自动过滤90%以上的告警噪音

    国内主流 AI SRE 产品——云智慧 Castrel AI 接入企业现有告警系统(如Prometheus、Datadog等),通过智能分类、去重和优先级排序,自动处理低优先级告警,帮助团队从“告警风暴”中解脱,聚焦真正需人工介入的关键事件。

    图片

    自主事件调查:分钟级定位根因

    故障发生后,智能运维SaaS——云智慧 Castrel AI会自动收集并分析相关指标、日志与代码变更,在分钟级内完成事件调查,输出包含完整证据链的根因分析报告。在真实案例中,将 MTTR 缩短 90%,为团队争取宝贵的修复窗口。

    图片

    自动化运维任务:可靠执行日常运维操作

    AIOps AI Agent——云智慧 Castrel AI可作为安全的本地代理,在企业的基础设施上基于实施手册执行部署、回滚、扩缩容、配置变更等日常操作。所有敏感操作均需人工确认,确保执行过程安全、合规、可追溯,同时减少人为错误,提升操作的一致性与可靠性。

    图片

    部署验证:让每一次发布都稳如泰山

    常用的SRE Agent 产品——云智慧 Castrel AI 在部署前后自动对比关键指标、日志和链路追踪数据,进行健康检查和性能验证,提前发现潜在风险,确保服务变更的稳定性和可靠性。

    图片

    系统问答:把专家经验变成团队资产

    好用的 SRE 智能体——云智慧 Castrel AI将分散的系统文档、监控指标与专家经验整合为统一知识中心。团队成员只需用自然语言提问,或直接 @ 服务/IT 资源,即可获取服务状态、架构信息和历史事件,让系统知识真正触手可及、高效复用。

    图片

    二、为什么 Castrel AI 不同?三大差异化优势

    专为SRE 智能体 打造,不止于通用AI

    云智慧 Castrel AI 并非通用大模型的简单封装,而是专为运维场景训练的AI Agent。它理解微服务、容器、服务网格等云原生语境,能将指标、日志、链路、变更等多维数据融合理解,实现从“识别告警”到“推理根因”的跨越。

    开放集成,无缝融入现有工具链

    云智慧 Castrel AI 无缝集成 Prometheus、Datadog、Elasticsearch、Grafana(Loki/Tempo)、GitHub、Slack 等30+主流协作和部署工具。企业无需改造现有工作流程,即可直接使用。

    企业级安全保障,数据零泄露

    云智慧Castrel AI 将数据安全置于首位:默认仅需只读权限,不对生产环境产生任何变更;所有客户数据均不用于模型训练;支持私有化部署,数据全程保留在企业自有环境中,并通过 AES-256 加密保障传输与存储安全。未经明确授权,任何人无法访问企业数据,真正实现数据主权归属企业。

    三、Castrel AI 不只是工具,更是可进化的团队智能

    智能运维Agent——云智慧 Castrel AI在每次事件分析与操作执行中,自动沉淀可复用的组织知识。随着时间推移,它对系统的理解不断加深,预警更准、建议更可靠。新人能快速掌握复杂架构,老员工的经验不再随离职流失——企业的运维能力真正从个体走向团队,实现可持续的稳定性保障。

    图片

    对于深陷告警风暴、根因难寻、操作重复与知识流失的 SRE 团队而言,云智慧 Castrel AI 提供了一条从“人肉救火”走向“智能协同”的可行路径。如果你所在的团队正在被上述运维挑战困扰,欢迎点击了解云智慧推出的 专属 AI SRE Agent —— Castrel AI,访问官网申请免费试用。

    联系电话:400-666-1332

    最近喜欢上一个女生,但感觉错过了自己认为的“暧昧期”,越来越朝朋友方向上走了,现在陷入了时而感觉她也喜欢我、时而感觉她只把我当朋友的状态。想问问 v 友感觉对方是否对我有点意思呢?现在还有表白的必要吗?

    大致过程:

    1. 2024 年 10 月在社交软件认识,断断续续聊到 12 月下旬加了 v ,又聊了三天后彼此没再主动发消息。25 年 6 月下旬评论她朋友圈后开始了聊六七天断联一两天的频率的交流,但只在线上没有约过见面,一直持续到 10 月份,期间时而会喊对方宝宝,偶尔会讲骚话和聊性话题。
    2. 10 月中旬她来我在的健身房核销了月卡,开始经常一起训练到她月卡快到期,她觉得年卡太贵没打算续,但另一个业务员给足优惠后办了年卡(我也有说肯定是希望她留下来的),之后依旧经常一起训练,练完时不时一起吃饭,每个月偶尔也会一起去徒步。
    3. 大概从 12 月开始,不怎么说骚话也不咋喊宝宝了(可能因为我知道了她编制单位?),并且聊到谈恋爱话题时会表达不想谈恋爱,但每天都会聊天维持到现在,彼此都会主动发消息。

    细节补充:

    1. 前几次见面后对我评价:网上感觉下一秒要把她扑倒,而在生活里就是“你好”;(这个我承认自己缺乏攻击性不敢主动,心里总怕万一对方没想法拒绝自己)
    2. 她说自己臀腿天赋好,我说那我要揉揉,线下也确实给揉了,有次在来优品还反过来揉我屁股;
    3. 有次健身后要回家,我说抱一下,然后也抱了,后面分开时只要我张开手她也会过来抱抱;
    4. 在路上时我搂她腰也不没有抵触,有次坐一起吃饭,她把一条腿架在了我腿上;( 2/3/4 点说明至少不排斥身体接触?)
    5. 彼此会点外卖、互送礼物和带好吃的等,倒没有单方面付出的情况;

    一、概述总结

    微云二手车小程序是专为二手车行业打造的字节跳动生态(今日头条/抖音)小程序解决方案,属于微云二手车系统的高端版本。该系统支持车商入驻平台发布车源,实现二手车交易的线上化、平台化运营。

    核心定位:二手车交易平台的轻量化入口,打通字节跳动流量生态,为车商和买家提供便捷高效的二手车交易服务。

    基本信息:

    • 适用平台:字节跳动小程序(今日头条、抖音)
    • 交付方式:微擎系统在线交付,源码已加密
    • 技术环境:支持PHP5.6/PHP7.1
    • 数据同步:与主应用"微云二手车运营版"数据互通

    二、功能介绍

    基于微擎模块标准及二手车行业特性,该小程序主要功能包括:

    1. 车源展示与管理
    • 车辆信息多维度展示(图片、参数、价格、车况等)
    • 支持车商自主发布、编辑、下架车源
    • 车辆分类检索与筛选功能
    1. 车商入驻体系
    • 车商资质认证与入驻申请
    • 独立车商店铺页面
    • 车源管理与数据统计
    1. 用户交互功能
    • 用户信息获取(微信昵称、头像、性别、地区)
    • 位置信息定位服务
    • 相册权限用于车辆图片上传/查看
    1. 平台运营支持
    • 与PC版+WAP版数据同步
    • 主从应用架构,数据互通
    • 支持平台级运营与推广
    1. 营销与推广
    • 字节跳动生态流量入口
    • 支持平台级营销活动配置

    三、适用场景与行业价值

    适用场景

    场景类型 具体应用

    二手车交易平台 区域性或全国性二手车线上交易市场

    车商联盟平台 多家车商联合运营的线上展示渠道

    4S店二手车业务 品牌经销商二手车业务线上化

    汽车服务商转型 传统汽车服务企业拓展二手车业务

    行业价值

    1. 流量价值
    • 无缝对接字节跳动生态(抖音+今日头条),触达海量潜在购车用户
    • 短视频+直播场景下的二手车展示与交易转化
    1. 运营效率
    • 轻量化小程序降低用户使用门槛
    • 多端数据同步(PC+WAP+小程序)提升管理效率
    • 车商自主管理减少平台运营成本
    1. 商业模式
    • 支持平台抽佣、广告位、增值服务等多种盈利模式
    • 车商入驻费+交易服务费双重收益
    • 数据沉淀为金融、保险等增值服务提供基础
    1. 用户体验
    • 无需下载APP,即用即走
    • 基于LBS的附近车源推荐
    • 沉浸式短视频看车体验

    四、常见问题解答(Q&A)

    Q1:这个小程序和"微云二手车运营版"有什么区别?

    A:本小程序是字节跳动端(抖音/今日头条)的专用版本,而"微云二手车运营版"是主应用,包含PC版+WAP版。两者数据互通,但本小程序专为字节生态流量入口设计。

    Q2:购买后是否包含抖音/今日头条的账号申请?

    A:不包含。您需要自行申请字节跳动小程序账号并通过审核,本模块提供的是小程序系统源码和技术支持。

    Q3:源码已加密是否影响二次开发?

    A:源码加密意味着核心代码不可修改,但通常支持通过微擎框架进行功能配置和界面自定义。如需深度定制,建议联系开发商咨询定制开发服务。

    Q4:服务套餐到期后不续费会怎样?

    A:服务周期内可享受应用更新至最新版。到期后不续费,现有功能仍可继续使用,但无法获取后续版本更新和技术支持。

    Q5:是否支持微信支付和其他支付方式?

    A:作为字节跳动小程序,主要支持字节跳动支付体系。具体支付方式需在字节小程序后台配置,与微信支付体系不同。

    Q6:数据存储在哪里?是否安全?

    A:数据存储在您自己的微擎系统服务器上,开发商不存储业务数据,数据安全性由您自主掌控。

    Q7:是否支持多城市运营?

    A:基于微云二手车系统的定位,支持多城市分站运营,但具体功能需参考主应用"微云二手车运营版"的详细配置。

    Q8:购买后多久可以上线使用?

    A:购买后需完成字节跳动小程序账号申请、服务器配置、系统部署等流程,通常1-2周内可完成上线,具体时间取决于您的准备进度。

    一、概述总结

    这是一款基于AI图像识别技术的驾驶证信息自动提取系统,支持微信小程序和抖音小程序双平台。系统通过OCR技术自动识别驾驶证正本和副本的全部关键信息,并支持自动填充到表单字段,大幅提升信息录入效率,降低人工错误率。

    核心亮点:

    • 双证识别:同时识别驾驶证正本和副本信息
    • 智能填充:自动将识别结果填充至指定字段
    • 批量处理:支持同时识别多张驾驶证
    • 灵活定制:支持自定义字段映射和填充规则

    二、功能介绍

    1. 智能识别功能
    • 正本识别:证号、姓名、性别、国籍、住址、出生日期、准驾车型、初次领证日期、有效期
    • 副本识别:证号、姓名、档案编号
    • 车辆信息识别:车辆类型、所有人、住址、使用性质、品牌型号、车辆识别代号、发动机号码、注册日期、发证日期
    • 详细参数识别:档案编号、核定载质量、准牵引总质量、外廓尺寸、核定载人数、号牌号码、整备质量、总质量
    1. 自动填充功能
    • 支持自定义字段映射,将识别结果自动填充到指定表单字段
    • 支持同时识别并填充多张驾驶证信息
    • 与表单系统无缝对接(如工单预约表单Plus)
    1. 技术对接
    • API接口:采用阿里云OCR服务
    • 成本:低廉
    • 兼容性:支持PHP 5.3至PHP 7.4全版本
    1. 平台支持
    • 微信小程序
    • 抖音小程序
    • 支持WEB、WAP、微信多端访问

    三、适用场景与行业价值

    核心适用场景

    行业领域 具体应用场景 价值体现

    汽车服务 4S店客户登记、保险理赔、维修保养登记 3秒完成信息录入,客户体验提升80%

    交通管理 违章处理、事故登记、证件核验 自动核验真伪,降低人工审核风险

    物流运输 司机入职登记、车辆调度、运输资质审核 批量处理司机证件,效率提升10倍

    共享经济 租车平台、共享汽车实名认证 快速完成KYC认证,缩短用户注册流程

    金融服务 车险投保、贷款申请、信用评估 自动提取关键信息,减少人工录入错误

    政务系统 车管所业务、交警执法、证件补办 提升政务数字化水平,优化服务流程

    行业价值

    1. 效率革命:传统手工录入需2-3分钟/张,AI识别仅需3-5秒,效率提升30倍以上
    2. 成本优化:减少90%的人工录入工作量,降低人力成本和错误率
    3. 体验升级:用户只需拍照,系统自动完成信息提取,实现"零输入"体验
    4. 数据准确:OCR识别准确率达99%以上,避免人工录入错误导致的数据质量问题
    5. 合规保障:完整记录识别过程,满足金融监管和政务审计要求

    四、常见问题解答(Q&A)

    Q1:这个系统支持哪些平台?

    A:系统同时支持微信小程序和抖音小程序,也可通过WEB、WAP等多端访问。

    Q2:识别一张驾驶证需要多少费用?

    A:采用阿里云OCR接口,识别成本约为0.018元/次(1.8分/次),费用按实际调用量计算。

    Q3:可以识别哪些信息?

    A:可识别驾驶证正本(证号、姓名、性别、国籍、住址、出生日期、准驾车型、初次领证日期、有效期)和副本(证号、姓名、档案编号)的全部关键信息,同时支持车辆相关详细信息识别。

    Q4:识别准确率如何?

    A:基于阿里云成熟的OCR技术,在证件清晰、光线正常的情况下,识别准确率可达99%以上。

    Q5:是否支持批量识别?

    A:是的,系统支持同时识别并填充多张驾驶证,适合物流、租车等需要批量处理证件的场景。

    Q6:能否与现有系统对接?

    A:可以。系统支持自定义字段映射,可将识别结果自动填充到您的表单系统中。特别推荐与"工单预约表单Plus"配合使用。

    Q7:对服务器环境有什么要求?

    A:支持PHP 5.3至PHP 7.4全版本,兼容性广泛,无需特殊服务器配置。

    全文链接:https://tecdat.cn/?p=45140

    原文出处:拓端数据部落公众号

    封面:

    封面

      • *

    关于分析师

    Dawei Zhou

    麦吉尔大学计算机科学与统计专业。熟练使用Python、R、SQL、C、stata、Wind数据分析软件,专注于金融、数理统计领域。

      • *

    引言

    我时常思考:当传统的金融分析遇见大语言模型,会碰撞出怎样的火花?在过往帮助客户优化投资决策流程的咨询项目中,我们发现一个普遍痛点——基本面分析依赖分析师手动解读财报,耗时耗力且主观性强。同时,传统量化模型又难以捕捉文本中的语义信息。正是这一洞察,催生了我们今天要分享的项目:利用大语言模型(LLM)自动化评估上市公司财务报表,并构建可回测的算法交易策略。

    本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂怎么做,也懂为什么这么做;遇代码运行问题,更能享24小时调试支持。

    本文将从数据获取、LLM评估、策略构建到回测验证,完整呈现一套LLM增强的基本面分析框架。我们将以标普500指数成份股为例,展示如何通过API调用Llama模型,对收入报表进行多维度评分,并基于评分筛选优质股票,最终通过历史数据回测验证策略有效性。整个流程不仅涉及Python技术栈(pandas、yfinance等),更体现了如何将前沿AI技术融入经典金融分析,实现“AI+金融”的真正落地。

      • *

    1. 背景与动机

    基本面分析是股票投资的基石,但传统方法高度依赖人工阅读财报、计算财务比率,效率低下且容易受主观判断影响。近年来,大语言模型(LLM)的兴起为文本理解与自动化分析提供了全新可能。我们设想:能否让LLM像专业分析师一样,读取收入报表,并给出量化评分?这样既能解放人力,又能保证评价标准的一致性。

    本项目正是基于这一设想,利用快速调用Llama模型,对标普500头部公司最近5年的收入报表进行结构化评估,并基于评分构建年度调仓的选股策略,最后通过回测验证策略表现。

      • *

    2. 方法论:LLM增强的基本面分析框架

    2.1 数据获取与预处理

    我们使用yfinance库获取股票历史价格及财务报表。首先,筛选出标普500中市值最大的20只股票作为分析池(实际应用中可扩大范围)。以下是获取股票列表的核心函数(已修改变量名):

    import yfinance as yf
    import pandas as pd
    import numpy as np
    def fetch_top_tickers(limit=20):
        # 预定义初始股票列表(可替换为动态获取)
        initial_tickers = ['AAPL', 'MSFT', 'AMZN', 'GOOGL', 'META', 'TSLA', 'BRK.B', 'JPM', 'V', 'UNH']
        market_values = {}
        for sym in initial_tickers:
            obj = yf.Ticker(sym)
            market_values[sym] = obj.info.get('marketCap', 0)
        # 按市值降序排序
        sorted_items = sorted(market_values.items(), key=lambda x: x[1], reverse=True)[:limit]
        return [item[0] for item in sorted_items]
    # 获取并保存
    top_list = fetch_top_tickers(20)
    pd.DataFrame(top_list, columns=['Ticker']).to_csv('top_20_stocks.csv', index=False)
    print("Top 20 stocks:", top_list)

    执行上述代码,我们得到市值最大的10只股票(实际输出为20只,此处仅展示前10):

    Top 20 stocks: ['AAPL', 'MSFT', 'GOOG', 'GOOGL', 'AMZN', 'META', 'TSLA', 'JPM', 'V', 'BRK.B']

    接下来,定义函数获取特定股票的历史价格与收入报表:

    2.2 基于LLM的财务评估

    为了让LLM理解财务报表,我们需要将DataFrame格式的收入报表转换为文本描述。我们定义一个格式化函数,将每一行指标名和数值拼接成字符串:

    def format_income_for_llm(income_series):
        lines = []
        for idx, val in income_series.items():
            if isinstance(val, (int, float)):
                lines.append(f"{idx}: {val:,.2f}")
            else:
                lines.append(f"{idx}: {val}")
        return "\n".join(lines)

    然后,构造提示词,要求LLM从多个维度对当年与上一年的报表进行对比评分。评分维度包括:收入增长、毛利率、营业利润率、净利润率、EPS增长、运营效率、利息保障倍数。每个维度0-10分,并给出总体评分。

    以下是创建提示词的函数(已修改变量名):

    调用Groq API进行评分。注意,此处省略了API密钥的配置,实际使用时需替换为有效密钥。同时,我们修改了模型名称和参数:

    2.3 股票筛选策略

    对每只股票,我们遍历其收入报表的每一列(年份),调用LLM获取当年相对上一年的评分。我们将评分存储为DataFrame,以便后续分析。核心评估函数如下(部分循环细节省略):

    def evaluate_symbol(symbol, begin, end):
        data = fetch_fin_data(symbol, begin, end)
        income_df = data['income']
        records = []
        # 假设income_df的列按年份倒序排列,我们正向遍历
        for i in range(len(income_df.columns) - 1):
            curr = format_income_for_llm(income_df.iloc[:, i])
            prev = format_income_for_llm(income_df.iloc[:, i+1])
            score = llm_evaluate(curr, prev)
            year = income_df.columns[i].year
            records.append({'Year': year, 'Score': score, 'Ticker': symbol})
        return pd.DataFrame(records)

    在实际执行中,我们循环处理20只股票,并保存价格数据用于回测。由于调用LLM需要时间,我们省略了循环的完整代码,仅展示核心逻辑。

      • *

    3. 应用案例:标普500头部股票评估与回测

    3.1 数据准备与评分结果

    设置回测区间为过去5年:

    运行评估后,得到各股票各年份的评分,并保存为all_sces.csv。部分结果如下:

    YearScoreTicker
    20236.90AAPL
    20228.10AAPL
    20218.40AAPL
    20238.10MSFT
    20228.40MSFT

    为了便于观察,我们将评分表透视,保留最近3年数据:

    输出透视表(部分列):

    YearAAPLAMZNGOOGGOOGLMETAMSFTTSLAV
    20236.97.98.4NaN8.38.16.98.1
    20228.13.47.47.96.78.48.3NaN
    20218.47.48.48.38.48.67.47.9

    可见部分年份存在缺失值(如JPM全为空),可能与数据获取有关,实际应用中需处理缺失情况。

    3.2 回测策略设计

    我们采用年度调仓策略:每年初,根据上一年度的LLM评分,选择评分大于7分且排名前三的股票,等权重买入,持有至年底,计算年度收益。若当年无股票满足条件,则持有现金(收益率为0)。回测函数实现如下(关键部分已修改):

    3.3 回测结果

    运行回测,得到各年交易记录和累积收益:

    累积收益表:

    YearReturnCumulative Return
    20200.00.0
    20210.53760.5376
    2022-0.41695-0.1035
    20230.99740.79066

    从2021年到2023年,组合累积收益达79.07%,年化收益15.68%,夏普比率0.52,表现优于同期标普500指数(需对比,但本文未计算基准)。需要注意的是,2022年市场整体下跌,组合出现亏损,但2023年强势反弹,体现了策略的弹性。

    3.4 可视化与绩效指标

    绘制年度收益率柱状图:

    执行后得到下图:

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    相关文章

    DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

    原文链接:https://tecdat.cn/?p=44060

      • *

    3.5 最终绩效指标

    计算总收益、年化收益与夏普比率:

    total_ret = (cum_df['Return'] + 1).prod() - 1
    annual_ret = (1 + total_ret) ** (1 / len(cum_df)) - 1
    sharpe = np.mean(cum_df['Return']) / np.std(cum_df['Return'])
    print(f"Total Return: {total_ret:.2%}")
    print(f"Annual Return: {annual_ret:.2%}")
    print(f"Sharpe Ratio: {sharpe:.2f}")

    输出:

    保存回测结果:

    cum_df.to_csv('backtest_results.csv', index=False)
    print("Backtest results saved.")

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    4. 结论与展望

    本文提出并实现了一套基于大语言模型的增强型基本面分析框架。通过Groq API调用Llama模型,我们能够自动解读收入报表,并给出多维度的财务评分。基于评分的选股策略在2021-2023年取得了79%的累积收益,年化收益15.68%,夏普比率0.52,验证了方法的有效性。

    未来改进方向包括:

    • 扩大股票池,覆盖更多行业与市值区间。
    • 引入更多财务指标(资产负债表、现金流量表)和另类数据。
    • 优化评分维度与提示词设计,提高LLM评估的准确性。
    • 加入风险管理模块,如止损、仓位控制等。
    • 探索多模型集成或微调开源LLM,进一步提升专业性。

    我们相信,随着LLM能力的不断增强,AI将在量化投资领域扮演越来越重要的角色。希望本文能为读者提供一个可参考的实践起点,也欢迎各位加入社群交流讨论。

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    封面

    长期以来,工业软件中的可视化工具承担着一个非常明确的角色:还原历史。趋势图、仪表盘、报表和大屏,本质上都是围绕同一个目标——帮助用户理解系统已经发生了什么。在传统工业体系中,这种能力已经足够有价值。通过历史趋势判断设备状态,通过报警记录复盘异常,通过运行曲线分析工况变化,构成了过去几十年工业数字化的核心范式。

    但随着 AI 逐渐进入生产一线,这种以“回顾过去”为中心的模式,正在显露出边界。越来越多企业开始意识到,单纯看见历史数据,并不能直接转化为决策能力。数据在不断增长,但理解成本并没有同步下降,这也是很多工业系统长期存在的矛盾之一。

    传统可视化的能力边界

    从能力结构上看,传统可视化工具往往隐含着一个前提:系统负责展示,人负责理解。无论是经典工业平台还是现代通用可视化工具,大多数产品都围绕这一分工展开。系统尽可能把数据呈现清楚,剩下的判断交给工程师。

    即便像 PI Vision 这样的工业工具,在资产语义和事件框架上已经走得很远,本质上仍然停留在“提供上下文 + 人工分析”的模式中。而以 Grafana 为代表的新一代工具,则在交互体验上更加现代,但往往缺少工业语义层,对运行数据的理解依然依赖使用者本身。

    这种模式在过去几十年是成立的,因为软件的职责是“记录”和“展示”,而不是“理解”。但当数据规模与复杂度持续增长,这种分工开始逐渐显得吃力。

    AI 改变的不是界面,而是职责

    AI 的真正影响,并不只是让界面更智能,而是改变软件的职责边界。当算法具备持续学习和模式识别能力之后,系统不再只是数据的搬运者,而开始成为“理解数据的一方”。

    这意味着一个关键转变:工业软件正在从可视化(Visualization)走向洞察(Insight)。软件的价值不再只是把图画出来,而是参与到理解过程本身。

    在 AI 原生的工业数据管理平台 TDengine IDMP 中,这类能力已经开始落地。例如在最新版本中推出的面板数据解读(Panel Insights)功能,可以直接对当前可视化面板中的数据进行 AI 分析,并自动生成结构化分析报告。系统不仅会总结数据概览,还会给出趋势分析、异常识别以及面向业务的建议,帮助用户快速抓住数据重点,而不需要从零开始手动解读图表。

    这种体验的关键并不是“图更智能”,而是分析过程本身被系统接管。用户不再只是观察数据,而是可以直接获得基于数据生成的判断线索。

    为什么工业系统更早进入洞察时代

    在工业领域,这种能力升级尤为重要。工业数据往往具有结构稳定但语义复杂的特点,资产关系清晰但理解门槛较高,而运行决策通常具有较高成本,也高度依赖经验积累。

    单纯提供图表并不能显著降低理解难度,真正的价值在于把专家经验逐步沉淀为系统能力。当系统能够基于资产模型和历史模式主动生成分析线索时,新手可以更快获得判断辅助,专家也能从重复分析中解放出来。决策方式将逐步从经验密集型走向系统增强型。

    这种变化的本质,是把“人脑中的模式识别能力”逐渐外化为软件能力。而像面板数据解读这类能力,可以看作这种演进的早期体现:系统开始参与分析过程,而不仅仅是呈现结果。

    需要强调的是,可视化本身并不会消失。趋势图、曲线和仪表盘依然是理解系统的重要入口,但它们的角色正在发生变化——从终点变成理解洞察的入口。

    过去,用户通过可视化自己得出结论;未来,可视化更多用于解释系统已经生成的洞察。系统先给出判断,再通过可视化呈现证据,这将成为一种更常见的交互方式。像面板数据解读这样的能力,本质上就是这种转变的早期形态:可视化仍然存在,但不再是分析的终点,而是洞察生成的起点。

    从仪表盘时代走向决策智能

    如果回看工业软件的发展路径,可以看到一条清晰的演进线索:早期关注数据采集与监控,随后进入可视化与报表阶段,再向分析与优化延伸,而现在,正在迈入以“决策智能”为核心的新阶段。

    在这一阶段,软件的目标不再只是帮助用户看数据,而是帮助用户做判断。越来越多系统开始强调洞察生成能力、AI 在运行环节中的嵌入深度,以及软件对决策链路的直接支持能力。未来工业系统的核心界面,可能不再是仪表盘本身,而是围绕问题线索、异常提示和行动建议构建的新型交互形态。

    从这个角度看,工业软件正在经历一次非常深刻的转变。从展示历史到生成洞察,背后不仅是界面形态的变化,更是软件能力边界的重构。随着 AI 能力逐渐嵌入数据平台底层,这种变化很可能在未来几年内成为行业共识。

    可视化告诉你发生了什么,洞察帮助你决定下一步做什么。当工业系统真正具备“决策智能”,我们讨论的将不再是看到了多少数据,而是做出了多少更好的决定。

    如果你希望进一步了解面板数据解读功能的实现方式和使用细节,可以参考 TDengine IDMP 官方技术文档中的详细介绍:https://idmpdocs.taosdata.com/basic/data-visualization/panel-...

    在自动驾驶等 AI 场景中,对象存储的性能瓶颈导致严重的 “I/O Tax”,造成昂贵的 GPU 算力闲置。通过引入 GooseFS 写缓存能力替换直写对象存储链路,利用高性能缓存层加速数据处理环节,能够显著提升持久化效率。某自动驾驶客户通过引入 GooseFS 写缓存方案,将数据处理任务提效 77%,大幅降低了 GPU 闲置成本。本文将从瓶颈分析、架构解析、最佳实践及模式泛化四个维度深度解析该方案。

    瓶颈分析:对象存储在 AI 数据处理 I/O 模式下的写入挑战

    在自动驾驶等 AI 场景中,对象存储 COS 凭借低成本、高可靠、无限扩展的特性成为数据的存储底座,承接从采集、处理、训练到仿真的全流程数据流转。然而,在以 GPU 算力为核心计算环节,对象存储面临严峻挑战:

    • 性能与算力的错配: 对象存储的介质与架构并非针对高频、低延迟写入设计。在数据自动标注、回放、点云渲染等处理环节,存储 I/O 的高延迟导致算力资源被迫处于等待状态。
    • 昂贵的 “I/O Tax”: 这种因存储瓶颈导致的算力闲置,实质上将算力成本转化为了存储的 “I/O Tax”,严重拉低了整体 ROI。
    • 数据流转的吞吐压力: 处理后的数据既需被下游训练任务即时读取,又需持久化保存以备复用,对存储系统的吞吐提出了极高要求。

    为了缓解上述瓶颈,业界传统的做法是引入高性能文件系统作为中间层,先暂存热数据,再异步持久化至对象存储。但这种方案存在以下缺陷:

    • 运维复杂度高:中间层文件系统容量有限,一旦容量写满,业务 I/O 将被阻塞,需要运维人员持续监控并手动干预。
    • 数据流动性差:数据从高性能层流动到对象存储层通常依赖用户自建任务,不仅开发维护成本高,且难以实时感知数据的冷热状态及持久化进度。

    因此,AI 基础设施需要一种轻量级、低成本且自动化的解决方案。GooseFS 写缓存方案利用“透明缓存”理念,使用近计算节点端的 NVMe SSD 构建高性能写入缓冲池,既能满足 GPU 对 I/O 的性能需求,又能通过后台自动化的异步搬迁任务释放缓存空间,从而在消除 “I/O Tax” 的同时,将运维复杂度降至最低。

    架构解析:GooseFS 写缓存的核心设计与工作流

    GooseFS 写缓存是专为 AI 等高吞吐场景设计的透明加速层。其核心设计理念利用近计算节点的 NVMe 全闪集群构建高性能缓冲池,接管 GPU 产生的高频写入 I/O,再通过异步机制将数据持久化至对象存储。该功能旨在通过“削峰填谷”策略,消除对象存储带宽波动对上层计算任务的影响,确保 GPU 算力不因 I/O 等待而闲置。

    1

    GooseFS 写缓存采用分布式架构,通过异步缓存策略实现高性能与持久化的平衡。核心数据流转如下:

    1. 数据分片与写入:业务客户端(GooseFS Client)将写入数据自动拆分为多个 Block,并行写入到写缓存池(GooseFS Worker 节点)的 SSD 中。此时,业务侧即刻获得“写入完成”响应,GPU 可立即释放并进入下一轮计算。
    2. 任务调度:客户端同步向 GooseFS Master 节点提交数据持久化任务,Master 将任务分发至持有数据副本的 Worker。
    3. 异步持久化: Worker 节点在后台异步将 Block 数据上传至对象存储。
    4. 元数据同步:上传完成后,Worker 向 Master 汇报结果,Master 更新文件元数据,完成整个持久化闭环。

    2

    针对 AI 数据处理场景的痛点,GooseFS 写缓存提供了以下针对性解决方案:

    • 针对“性能瓶颈” 问题:基于分布式缓存架构,支持写吞吐随节点数平行扩展。同时,利用 NVMe 介质,小文件写入时延降低至 3~4ms(优化 10-15 倍),大文件单流带宽达 1200MB/s(提升 8.5 倍),彻底释放 GPU 算力。
    • 针对“数据可靠性”问题:支持多副本落盘防止单点故障;通过 Raft 协议保障元数据一致性,确保持久化任务零丢失。
    • 针对“运维复杂度高” 问题:提供透明缓存,支持透明分层与自动退避,当写缓存池未满时提供极速体验;一旦容量达到上限,自动平滑退避至直写对象存储模式,确保业务永不中断,无需人工干预降级。
    • 针对“数据流动性差”问题:通过异步运行的数据持久化任务释放存储容量,无需手动发起数据流转任务。同时 GooseFS 提供持久化查询工具,可通过入参目录或文件路径,查询数据的持久化状态,有助于下游依赖任务快速查询数据持久化进度。
    • 针对“资源抢占”问题:提供弹性带宽调度能力,独创的水位弹性浮动机制。在高业务 I/O 时主动限制持久化带宽,优先保障计算任务;在业务低峰期自动提升持久化带宽,加速缓存空间释放,实现资源的智能错峰利用。

    3

    最佳实践:GooseFS 写缓存在自动驾驶数据处理场景中的性能表现

    某国内领先的自动驾驶科技公司,拥有 PB 级的数据闭环(Data Loop)平台。其核心业务对海量路测数据进行离线感知、自动标注、算法训练及算法仿真回放。该客户的数据处理任务主要负责将物理车队采集的原始数据进行二次处理。在定位算法验证、热力图生成及点云融合等环节,计算节点需要频繁写入大量的 .bin 中间结果文件。

    该客户原有架构采用计算节点直写对象存储,单 GPU 节点的中间数据写入对象存储需要耗时 33s,在此期间,下游依赖的仿真及二次处理任务被迫处于 iowait 状态,无法处理下一帧数据。这种“算力等存储”的现象在高并发场景下尤为严重,导致整体任务耗时被拉长,GPU 利用率长期徘徊在低位。

    客户引入 GooseFS 写缓存进行改造后,将 GooseFS 挂载至容器内,业务代码无需任何修改,只需将输出路径指向 GooseFS 挂载点,单 GPU 节点中间数据写入耗时缩短为 7s,整体提效 77%。大幅消除了“I/O Tax”,GPU 资源利用率显著提升。在相同的算力投入下,每日可完成的仿真回放里程数提升了 2 倍,相当于间接节省了 50% 的 GPU 租赁成本

    4

    模式泛化:写缓存模式在其他计算密集型场景的应用探讨

    GooseFS 写缓存模式还可以广泛适用于任何面临 I/O 限制的计算密集型场景,无论是为了加速持久化、扩展内存边界,还是处理海量临时数据。

    • AI 大模型训练:非阻塞式 Checkpoint 写入

    在 LLM(大语言模型)训练中,定期保存 Checkpoint 提升系统容错性。随着模型参数量达到千亿甚至万亿级别,单个 Checkpoint 文件往往高达数 TB。利用 GooseFS 写缓存,训练任务只需将 Checkpoint 快速写入本地 NVMe 缓存即可立即恢复训练,通过海量可平行扩展的吞吐能力,将“写入耗时”压缩至秒级。后台异步的持久化过程对前台计算完全透明,从而显著提升集群的有效训练时间。

    • LLM 推理与长文本处理:KV Cache 的高性能卸载

    随着长上下文成为大模型的主流需求,推理过程中产生的 KV Cache 占用显存急剧增加,成为限制并发和上下文长度的瓶颈。显存容量有限且昂贵,无法存储海量 KV Cache;而重新计算 KV Cache 又会带来巨大的延迟。GooseFS 可作为 KV Cache 的高性能缓存层。通过将冷的 KV Cache 卸载到 NVMe 缓存中,在需要时再快速读取。这种机制以极低的延迟代价,打破了物理显存的限制,支持更长的上下文窗口和更高的并发吞吐。

    • 大数据 ETL 与分析:中间数据的极速暂存

    在 Spark、MapReduce 等大数据计算框架中,GooseFS 写缓存可以作为 ETL 任务的高性能缓冲区。它提供了高读写性能,加速数据流转。任务完成后,这些临时数据可直接丢弃或异步归档,完美契合大数据计算“用完即走”的特性。

    无论是自动驾驶的数据清洗、大模型的 Checkpoint 备份、KV Cache 的卸载,还是大数据 ETL 的中间数据缓存,GooseFS 写缓存形态都能进一步降低 I/O 消耗,在算力日益昂贵的今天,这种架构模式将成为企业降本增效、释放基础设施潜能的关键杠杆。

    全文链接:https://tecdat.cn/?p=45139
    原文出处:拓端数据部落公众号

    封面

      • *

    关于分析师

    Dawei Zhou

    麦吉尔大学计算机科学与统计专业。熟练使用Python、R、SQL、C、stata、Wind数据分析软件,专注于金融、数理统计领域。

      • *

    引言

    想象一下,你手头有数千篇新闻稿件,需要快速将它们分类到体育、财经、科技等不同栏目,或者自动发现其中隐藏的主题模式。在没有人工智能的年代,这需要大量人工阅读和标注,费时费力。如今,借助机器学习,我们只需将文本转换为计算机能理解的数字形式,模型便能自动完成这些任务。然而,如何将文字转化为有效的数字特征,却是一门学问。

    在过去的二十年里,文本表示方法经历了从简单统计到深度语义理解的演进:早期的词袋模型(Bag-of-Words, BoW) 简单粗暴,通过统计单词出现次数构建向量;随后的TF-IDF 引入词频逆文档频率,降低常见词干扰,一度成为工业界标配;如今,大语言模型(LLM)生成的嵌入(如Sentence-BERT)能捕捉上下文语义,成为前沿研究的宠儿。但哪种方法在实际业务中效果更好?何时该用简单方法,何时必须上复杂模型?

    本文将通过一个真实的新闻分类与聚类项目,为你揭晓答案。我们将使用新闻数据集,分别用BoW、TF-IDF和LLM嵌入构建特征,在Scikit-learn中训练多种分类器(逻辑回归、随机森林、SVM)并评估性能;同时对比它们在无监督聚类中的表现。你会发现,最先进的方法并不总是最优——对于某些任务,传统方法反而更快更准。

    本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂“怎么做”,也懂“为什么这么做”;遇代码运行问题,更能享24小时调试支持。

      • *

    1. 文本表示:从词袋到语义嵌入

    在机器学习中,文本必须转化为数值向量才能被算法处理。这一过程称为“文本表示”或“特征提取”。让我们用通俗的比喻来理解三种主流方法:

    • 词袋模型(BoW) :好比给每篇文章建立一个“词汇表”,统计每个词出现的次数。它忽略了词序和语法,只关心“有没有”和“有多少”。优点是简单快速,缺点是丢失语义信息(比如“苹果好吃”和“好吃苹果”向量相同)。
    • TF-IDF:在BoW基础上,给每个词加上一个权重——如果某个词在很多文章中都出现(如“的”“是”),它的重要性就降低;如果只在少数文章中出现,重要性就提高。这样能突出有区分度的关键词。
    • LLM嵌入:利用预训练的大语言模型(如BERT),将整个句子或段落映射到一个稠密向量(如384维)。这个向量不仅包含词汇信息,还融入了上下文语义,因此能理解“苹果”是水果还是公司。

    下面,我们将在Python中为同一批新闻数据生成这三种表示。

      • *

    2. 数据准备与特征生成

    首先导入所需库,加载BBC新闻数据集(包含2225篇新闻,分5类),并划分为训练集和测试集。

    print(f"类别: {df['category'].unique()}")
    # 分离文本和标签
    documents = df['text'].tolist()
    raw_labels = df['category'].tolist()
    # 标签编码
    label_encoder = LabelEncoder()
    encoded_labels = label_encoder.fit_transform(raw_labels)
    # 划分训练集和测试集(保证各类别比例一致)
    docs_train, docs_test, y_train, y_test = train_test_split(
        documents, encoded_labels, test_size=0.2, random_state=42, stratify=encoded_labels
    )
    print(f"训练集: {len(docs_train)} 篇, 测试集: {len(docs_test)} 篇")

    2.1 词袋模型特征

    使用 CountVectorizer 构建词袋,限制最大特征数为5000,过滤掉出现次数过少(<2)的词和英文停用词。

    2.2 TF-IDF特征

    使用 TfidfVectorizer,参数与词袋保持一致,以获得可比性。

    print("\n[2] 生成TF-IDF特征...")
    start_time = time()
    tfidf_vec = TfidfVectorizer(
        max_features=5000,
        min_df=2,
        stop_words='english'
    )
    X_tfidf_train = tfidf_vec.fit_transform(docs_train)
    X_tfidf_test = tfidf_vec.transform(docs_test)
    tfidf_elapsed = time() - start_time
    print(f"完成,耗时 {tfidf_elapsed:.2f} 秒")
    print(f"训练集形状: {X_tfidf_train.shape}")
    print(f"稀疏度: {(1 - X_tfidf_train.nnz / (X_tfidf_train.shape[0] * X_tfidf_train.shape[1])) * 100:.1f}%")

    2.3 LLM嵌入特征

    加载预训练模型 all-MiniLM-L6-v2,该模型将句子映射为384维的稠密向量。

    至此,我们得到了三组特征:X_bow_trainX_tfidf_trainX_emb_train 以及对应的测试集。接下来将用它们进行监督分类和无监督聚类。

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    3. 比较一:文本分类性能

    我们选择三种经典分类器:逻辑回归(LR)、随机森林(RF)和线性支持向量机(SVM)。分别在三组特征上训练并评估,记录准确率、F1分数和训练时间。

    输出结果如下:

    为了直观对比,绘制准确率和训练时间的柱状图:

    # 省略绘图代码(完整代码见社群)

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    相关文章

    DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

    原文链接:https://tecdat.cn/?p=44060

      • *

    分类结果解读

    从结果看,TF-IDF + SVM 组合以0.987的准确率拔得头筹,而LLM嵌入 + 逻辑回归 训练最快(0.27秒) 。令人意外的是,最先进的LLM嵌入并未在所有指标上领先。原因在于BBC新闻数据集本身类别区分度极高(如体育类文章大量出现“足球”“比赛”等词),传统词频特征已足够捕捉规律;而嵌入模型带来的语义抽象反而可能引入噪声,且训练耗时更长。

    这表明:在实际项目中,应从简单方法开始,只有当简单方法遇到瓶颈时,再考虑引入复杂模型。对于本数据集,TF-IDF + 逻辑回归 在精度和速度上取得了最佳平衡(准确率0.984,训练0.52秒),是理想的基线方案。

      • *

    4. 比较二:文档聚类

    无监督聚类不依赖标签,我们使用K-Means(k=5,与真实类别数一致)对三种特征分别聚类,评估聚类质量。

    from sklearn.cluster import KMeans
    from sklearn.metrics import silhouette_score, adjusted_rand_score
    # 使用全量数据生成特征
    X_bow_full = bow_vec.fit_transform(documents)
    X_tfidf_full = tfidf_vec.fit_transform(documents)
    X_emb_full = embedder.encode(documents, show_progress_bar=True, batch_size=32)
    n_clusters = len(label_encoder.classes_)
    cluster_results = []
    full_reps = {
        'BoW': X_bow_full,
        'TF-IDF': X_tfidf_full,
        'LLM Embeddings': X_emb_full
    }
    for rep_name, X_full in full_reps.items():
        print(f"\n使用 {rep_name} 聚类...")
        t0 = time()
        kmeans = KMeans(n_clusters=n_clusters, random_state=42, n_init=10)
        pred_clusters = kmeans.fit_predict(X_full)
        cluster_time = time() - t0
        # 轮廓系数(内部指标)
        sil = silhouette_score(X_full, pred_clusters)
        # 调整兰德指数(外部指标,需要真实标签)
        ari = adjusted_rand_score(encoded_labels, pred_clusters)
        print(f"轮廓系数: {sil:.3f}, 调整兰德指数: {ari:.3f}, 耗时: {cluster_time:.2f}秒")
        cluster_results.append({
            'Representation': rep_name,
            'Silhouette': sil,
            'ARI': ari,
            'Time': cluster_time
        })
    cluster_df = pd.DataFrame(cluster_results)

    输出:

    聚类质量可视化:

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

    聚类结果解读

    在聚类任务中,LLM嵌入以0.899的调整兰德指数(ARI)遥遥领先,表明其生成的簇与真实类别高度吻合。这是因为聚类完全依赖特征本身的内在结构,而嵌入包含了语义相似性,能更好地将同一主题的文章聚集在一起。尽管TF-IDF在分类中表现优异,但在无监督场景下,其基于词频的向量难以形成语义紧致的簇(轮廓系数仅0.016)。因此,若任务目标是探索性分析或主题发现,LLM嵌入是更优选择

      • *

    5. 总结与业务建议

    通过新闻数据集的对比分析,我们得出以下实用指南:

    任务类型推荐方法理由
    快速构建分类基线TF-IDF + 逻辑回归精度接近最优,训练快,可解释性强。
    追求最高分类精度TF-IDF + SVM(线性)当数据线性可分时,SVM能最大化间隔,效果最佳。
    大规模分类需实时预测LLM嵌入 + 逻辑回归/SVM嵌入维度低(384维),模型轻量,预测速度快(但生成嵌入需算力)。
    无监督主题聚类LLM嵌入 + K-Means语义信息能有效聚合相似文档,显著优于词频方法。
    极度简单且需解释词袋 + 随机森林可查看特征重要性,但精度略低。

    关键洞察:没有一种方法能统治所有场景。先进技术(如LLM)在需要语义理解的任务中优势明显,但在强信号的传统分类任务中,传统方法(如TF-IDF)凭借高效和鲁棒性依然不可替代。实际项目应遵循“由简入繁”的原则,以最小成本验证可行性,再逐步升级。

    阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

      • *

    附录:代码获取与交流

    本文所有代码和数据已上传至交流社群,如需完整代码(包括绘图、交叉验证、超参数调优等),请扫描下方二维码或点击“阅读原文”加入社群,与900+同行交流成长,获取24小时技术支持。

      • *

    封面