直播预告 | 全景解析 KAT 数据库智能体工具

xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。

近日,中国工业软件出海领域迎来里程碑事件。在七麦数据发起的“NextWorld 2025年度风采奖”评选中,浩辰软件旗下产品——CAD看图王海外版(DWG FastView)凭借其全球化市场表现,成功斩获“年度出海实力应用”奖项,并登陆纽约时代广场纳斯达克大屏,向世界展示中国工业软件的创新实力。
从“产品出海”到“生态出海”,中国技术全球化进阶本届NextWorld奖项以“预见·内核新动力”为主题,重点关注中国应用出海模式的战略转型。评审团指出,当前中国技术出海已从单一的产品输出,升级为技术、服务、品牌协同的“生态共建”。DWG FastView通过深耕垂直领域、优化本地化服务,实现了用户覆盖超100个国家、累计服务1亿用户的成绩,成为“生态出海”的典型代表。
垂直领域深耕:专业工具撬动全球市场作为一款专注于CAD图纸查看与编辑的移动端工具,DWG FastView支持DWG、DXF等主流工程格式,提供测量、标注、云存储等核心功能,广泛应用于建筑、制造等专业领域。其轻量化、高效的特点,契合了全球用户对移动化设计协作的需求,成为海外市场备受认可的国产工业软件品牌。
行业意义:为中国技术出海提供范式此次DWG FastView的获奖与纽约时代广场的亮相,不仅是对其品牌影响力的认可,更印证了中国工业软件在国际竞争中的突破。分析认为,中国应用出海正从游戏、社交等消费领域,向工业、设计等专业领域扩展,技术硬实力与生态化运营成为关键竞争力。
未来展望:全球化服务与协同创新未来浩辰软件将继续强化产品功能与本地化服务,推动全球设计协作效率提升。行业期待,以DWG FastView为代表的中国工业软件,能够进一步打通技术、标准与市场,助力“中国智造”生态在全球落地生根。结语DWG FastView的获奖,是中国技术出海从“量变”到“质变”的缩影。在全球化竞争浪潮中,以垂直领域为支点、以生态共建为路径的出海模式,或将为更多中国科技企业提供参考。

1 月 20 日,由清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 8B 端侧写作智能体 AgentCPM-Report 正式开源。 在当前深度研究场景中,企业与科研人员常面临两难抉择:依赖云端大模型虽能获得顶级调研能力,却需承担核心数据泄密风险;选择断网或本地小模型保障安全,又往往因性能局限导致报告逻辑浅薄、实用性不足。 为此,AgentCPM-Report 以端侧模型为核心,来实现本地化部署与 SOTA 性能的双重突破,力求无需昂贵算力集群,也无需上传任何信息,即可在本地构建专家级调研助手。 据悉,该智能体的核心亮点集中在两大维度。 第一,极致效能与“以小博大”的突破:通过平均 40 轮深度检索与近 100 轮思维链推演,AgentCPM-Report 以仅 8B 的参数规模,实现了对复杂信息的全方位挖掘与重组,能够产出逻辑严密、洞察深刻的万字长文,在深度调研任务上性能对标顶级闭源系统。 第二,物理隔绝的本地安全保障:专为高隐私场景设计,支持完全离线的敏捷部署,彻底杜绝云端泄密风险;依托开源的 UltraRAG 框架,可高效挂载并理解本地私有知识库,让核心机密数据在"不出域"的前提下,转化为高价值的专业决策报告。 在 DeepResearch Bench、Deep Consult、DeepResearch Gym 三大主流深度调研评测基准中,其综合评分达到甚至超越顶级闭源系统:在最考验核心能力的洞察性指标上排名第一,全面性指标位居第一梯队,仅次于基于 Claude 的复杂写作框架。其中在 DeepResearch Gym 评测中,AgentCPM-Report 以 98.48 的综合得分领跑,在深度、广度、洞察力等关键维度均斩获满分。 官方展示的实战场景中,该智能体可基于《三体》原文知识库,完成从线索挖掘、大纲规划到万字长文撰写的全流程,精准生成"面壁计划"深度调查报告。 部署便捷性方面,AgentCPM-Report 支持 Docker 一键启动,无需编写代码即可通过拖拽方式将 PDF、TXT 等本地文档导入后台,系统自动完成切片与向量化索引,用户输入研究课题后,即可生成结构化、带引用的专业报告,实现沉浸式深度调研体验。 技术层面,两大创新支撑其“以弱胜强”的表现:一是“写作即推理”模式,通过“起草-深化”两阶段循环与渐进式优化,将长篇写作拆解为微小目标,避免小模型逻辑崩塌;二是“多阶段智能体学习”,拆解智能检索、流畅写作、科学规划、精准决策四大核心能力,通过有监督微调、原子能力强化、全流程优化三阶段训练,实现端到端全链路能力提升。 目前,AgentCPM-Report 已在 GitHub、HuggingFace、ModelScope、GitCode、魔乐社区等多个平台开源,UltraRAG 框架也同步开放获取。 UltralRAG 框架开源地址:https://github.com/OpenBMB/UltraRAG GitHub:https://github.com/OpenBMB/AgentCPM HuggingFace:https://huggingface.co/openbmb/AgentCPM-Report ModelScope:https://modelscope.cn/models/OpenBMB/AgentCPM-Report
在数字化办公高度普及的 2026 年,团队协作的效率很大程度上取决于文件同步的速度与安全性。面对市面上琳琅满目的工具,如何挑选出一款稳定、好用的多人同步网盘? 本文深度测评了 9 款主流工作同步网盘,从适用场景、权限管理、安全合规等多维度进行横向对比,助你精准选型,告别文件版本混乱。 为了方便读者快速预览,我们将核心对比结果梳理如下表: 坚果云官网:https://www.jianguoyun.com/s/campaign/cpclanding/main?sch=AIbky 在功能表现上,坚果云最大的亮点是其独家的智能增量同步技术。当用户修改文件时,系统仅上传修改过的部分而非整个文件,这在处理CAD图纸、代码包或大型设计稿时,同步速度可提升数倍。同时,它支持任意文件夹同步和局域网同步,无需改变用户本地的文件管理习惯,即可在后台自动完成多端数据的一致性更新。 针对数据安全与团队协作,坚果云拥有公安部信息系统安全等级保护三级备案,并采用AES-256和SSL/TLS双重加密技术。在协作层面,它提供了无限文件历史版本恢复、文件锁定(避免多人同时编辑冲突)以及细致的多重精细权限设置。对于科研、律所、金融及互联网等对数据准确性和安全性要求极高的行业,坚果云提供了非常纯净且强大的支撑。 综合来看,坚果云在无需复杂部署的前提下,提供了甚至优于私有云的同步体验,且兼容性极强(覆盖全平台及WebDAV协议),是目前市场上兼顾“易用性”与“专业度”的综合最佳选择。 亿方云官网:https://www.yifangyun.com 在功能表现上,该网盘提供了超大容量存储,并依托全球加速节点实现了大文件快速传输。其优势在于支持多设备访问与精细化权限管控,同时整合了多端同步、多人在线编辑及文件预览等功能。 针对数据安全,亿方云构建了严密的企业级保护机制,确保数据流转的可控与可追溯。在系统兼容性方面,它支持多种部署方案,并能与企业现有的OA、ERP等内部系统集成。不过,对于追求轻量化和极简操作的小型团队来说,其丰富的功能模块可能需要一定的学习成本。 Worktile官网:https://www.worktile.com 在实际应用中,企业内部可实现文件实时共享,并支持成员随时针对文档展开讨论。其提供的上传下载不限速特性,提升了文件管理的效率。从整体功能性来看,Worktile 更适合那些希望将“任务管理”与“文件存储”强绑定的团队,但如果仅需要单纯、专业的文件同步服务,其操作路径可能略显繁琐。 百度企业网盘依托百度强大的云存储基础设施,在存储容量和文件处理能力上展现出优势。它深度集成了百度人工智能技术,支持图片文字识别、文档智能分类等功能。 该平台界面设计直观,契合国内用户习惯。对于已经习惯使用百度系产品的团队,它能够提供极低的学习成本。但在高频次的团队协作同步场景下,其同步机制的响应速度相较于专注于同步技术的垂直类产品(如坚果云)仍有提升空间。 腾讯企业网盘紧密集成在腾讯办公生态体系中,与企业微信、腾讯会议及腾讯文档实现了深度互通。 在安全性上,腾讯企业网盘提供了金融级的数据加密。对于重视沟通效率、希望将文件管理深度融入日常IM工具的企业而言,它是一个不错的选择。但其对腾讯生态的强依赖性,也意味着如果团队使用多样化的第三方工具,跨应用协作可能会受到一定限制。 Dropbox Business作为全球同步网盘领域的标杆,凭借其块级增量同步技术闻名。其界面设计极度简洁,注重用户在多终端访问时的一致性体验。 该产品拥有极其丰富的全球生态链集成。然而,对于国内用户而言,网络连接的不稳定性是其最大痛点,且本地化服务支持相对较弱。除非是必须进行跨国协作的团队,否则国内的专业替代方案(如坚果云)在访问速度和售后响应上会更具优势。 联想Filez定位于企业级内容协作与管理平台,拥有深厚的硬件背景。该产品在大型制造业和政府教育机构中应用广泛,支持复杂的混合云部署。 它提供了极为细致的权限管控体系,适合组织架构复杂的大型集团。但对于中小型企业而言,其部署门槛和维护复杂度相对较高,显得不够灵活轻便。 够快云库在设计理念上强调以“库”为单位进行管理,弱化了传统文件夹的概念。每个库可以针对特定的项目或团队进行独立配置。 其无限存储空间的理念以及不限速的传输体验,解决了处理大文件时的部分焦虑。这种特殊的库管理模式非常适合创意型组织,但对于习惯传统Windows/Mac文件资源管理器层级结构的用户,可能需要适应其特有的文件逻辑。 天翼云盘由中国电信推出,具备天然的运营商级别带宽优势和高等级的数据机房保障。其企业版本在文件上传与下载速度上表现稳健。 由于具备国资背景,天翼云盘在数据合规性方面信誉度高,适合对数据主权有刚性要求的政企机构。但在功能丰富度和第三方应用生态的开放性上,略逊于互联网系的头部协同产品。 在如今追求极致效率的数字化办公环境下,传统的邮件附件或即时通讯工具传输文件已无法满足业务需求。多人同步网盘的核心价值在于构建了一个实时更新的共享资源池。 当团队成员在本地修改文档后,系统(特别是像坚果云这类支持智能感知的产品)会自动感应变更并瞬间同步至云端及其他协作成员的终端。这种“无感化”的数据流转,彻底消除了信息不对称和文件版本割裂的痛点,确保每一位决策者和执行者看到的都是最新版本。 此外,多人同步网盘是实现跨地域协同办公的基石。专业级的同步网盘不仅提供存储,更集成了在线预览、多重权限与多端访问等功能,将原本孤立的个人工作台转化为流动的协作空间。 针对不同规模的团队,选型逻辑存在显著差异: 评估一款多人同步网盘的性能,建议关注以下两点进行实测: 虽然许多工具提供免费试用,但企业级付费版的核心价值在于“管理权”与“服务保障”: 防止数据意外损失是同步网盘设计的底线。 总结 综上所述,选择多人同步网盘时,不应只看空间大小,更要权衡同步的稳定性、安全性及是否具备增量技术。对于大多数追求高效、安全且希望快速落地的企业和团队,坚果云凭借其强大的同步算法和军工级的安全保障,是综合性价比极高的首选。 建议您结合自身业务需求进行试用,体验真正的无感同步办公。 常见问题解答 (FAQ) 1. 多人同步网盘是否支持不同操作系统(如 Windows 和 macOS)之间的混合同步? 2. 在没有网络信号的离线环境下,同步网盘还能正常工作吗? 3. 同步网盘可以与其实他应用集成吗? 4. 如果公司电脑丢失,网盘里的商业机密会被别人看到吗? 5. 长期使用,如何解决存储空间增长带来的成本压力?产品名称 核心优势技术 安全合规/认证 推荐适用场景 坚果云 智能增量同步、无感同步、WebDAV ISO27001/27701、等保三级 追求极致同步速度、跨平台协作及数据安全的通用型首选 亿方云 大文件传输、360生态 ISO27001、等保三级 需要与OA/ERP深度集成的中大型企业 Worktile 项目管理融合 基础权限控制 以项目流转为核心的敏捷团队 百度企业网盘 AI识别、超大容量 多级权限设定 习惯百度生态、非结构化数据多的团队 腾讯企业网盘 微信/企业微信生态互通 金融级加密 深度依赖腾讯系IM工具沟通的企业 Dropbox 块级同步(Delta Sync) 全球合规 跨国团队(需解决网络访问问题) 联想Filez 混合云部署 细致权限管控 制造业、政府及大型集团 够快云库 库管理模式 项目独立配置 扁平化协作的创意型组织 天翼云盘 运营商带宽保障 国资背景保障 对数据主权敏感的政企机构 一、市场上主流的多人同步网盘测评
1. 坚果云
坚果云作为国内最早深耕云端同步技术的专业平台,自2011年上线以来已稳定运营超过13年,服务超过10万家企业(包括中国石油、清华大学、锦天城律师事务所等)。其核心定位在于提供“无感化”的高效协作体验,是目前追求极致同步效率团队的优选。

现在坚果云团队版还能免费试用20天:坚果云团队版官网2. 亿方云
作为360集团旗下的企业级协同办公平台,亿方云在市场表现上非常亮眼。据多份调研报告指出,它是国内市场占有率较高的企业网盘之一。
3. Worktile
Worktile 虽定位为项目协作系统,但其网盘模块的功能表现同样具备特色。它能够助力企业搭建逻辑清晰的知识库,让文件管理服务于项目进度。
4. 百度企业网盘

5. 腾讯企业网盘

6. Dropbox Business

7. 联想Filez

8. 够快云库

9. 天翼云盘

二、 为什么团队协作离不开多人同步网盘
三、 如何根据团队人数锁定最适合的多人同步网盘
四、 如何测试哪款同步网盘传输最稳、延迟最低
五、 企业多人同步网盘免费版和付费版有何区别
六、 多人同步网盘如何防止误删或文件覆盖
是的,优秀的同步网盘均采用全平台架构。例如坚果云不仅完美支持Windows和macOS,还覆盖Linux、iOS及Android平台,确保所有成员无论使用何种设备,看到的文件结构和内容都完全一致。
可以。以坚果云的工作机制为例,它采用本地缓存策略。在离线状态下,您可以照常编辑本地同步文件夹中的文件。一旦设备重新联网,客户端会自动检测并静默上传离线期间的修改,完成增量数据补齐。
可以。除了常见的插件集成外,支持标准协议更为重要。坚果云全面支持WebDAV协议,这意味着您可以将其作为后台存储,与Zotero、WPS、Notability、PDF Expert等第三方效率工具无缝连接,直接读取和保存云端文件。
专业的企业网盘具备安全止损机制。管理员可以在坚果云的管理后台第一时间对丢失设备进行“远程擦除”和“取消授权”。只要该设备下次联网,本地的同步数据将被自动清空,确保数据不外泄。
建议利用“按需同步”或“云桥”模式。坚果云支持智能的云端文件管理,您可以将不常用的历史项目仅保存在云端,本地只保留占位符,不占用电脑硬盘空间,仅在使用时自动下载。这能帮助企业以有限的硬件成本管理海量数据。
n8n 是一款强大的开源低代码自动化工具,它允许你通过可视化节点的方式,将不同的服务和 API 串联起来,构建复杂的自动化工作流。与传统的自动化平台相比,n8n 拥有极高的自由度和扩展性,支持自托管部署,能够确保数据的完全私有化。 在集成 AI 能力时,n8n 丰富的节点生态可以轻松对接 GPUStack 部署的本地大模型。这种组合不仅消除了昂贵的 API 调用费用,还确保了企业敏感数据在处理过程中始终留在本地,是构建私有化 AI 智能体的理想选择。接下来,我们将通过一个实战案例,演示如何将两者结合使用。 首先,我们需要获取模型的调用地址。在 GPUStack 的 Deployments 列表找到目标模型,通过右侧菜单点击 API Access Info。系统会弹出详细的接入信息,若尚未配置密钥,可直接点击窗口内的链接跳转至创建页。 创建 API Key 成功创建后,生成的 API Key 将作为 n8n 访问本地模型的安全凭证。由于 Key 仅在创建时显示一次,建议立即将其妥善保存。 由于 GPUStack 兼容 OpenAI 协议,我们在 n8n 中直接添加一个 OpenAI API 类型的凭证即可。 在配置窗口,填入刚才获取的 API Key 和 GPUStack 的接入地址。如果填入凭据信息无误,点击 关闭凭据配置窗口后,勾选 本节目标是搭建一个自动化链路:每天早上八点半定时触发,自动采集 RSS 源信息,并调用 AI 提取摘要发送至指定邮箱。 配置触发时间为每天早上八点半 点击测试按钮,验证 双击 在弹出的配置窗口中,配置 Source for Prompt (User Message) 为 Define below,然后拖动左侧面板 继续在下方配置 添加 Email 凭据,如下如所示,点击 此界面仅为示例,具体的 SMTP 配置信息(如服务器地址、端口、授权码)请参照你所使用邮箱服务的官方说明。 配置收件人地址及邮件正文。作为初步演示,我们直接将模型输出的原始文本作为邮件内容。 点击 Execute Workflow 手动触发一次工作流。n8n 将抓取最新的 RSS 资讯,调用 GPUStack 进行推理生成摘要,最后通过 执行完成如图所示: 邮箱截图: 上述流程中我们注意到,工作流每完整执行一次就会发送 30 封邮件,这显然不符合预期。我们期望将每条资讯压缩为一句话摘要,再将所有摘要汇总为一个列表,以单封邮件的形式发送,并对展示样式进行统一美化。 在后续弹出的菜单中,根据自己偏好选择 本文以 在弹出的配置面板中,填入如下 JavaScript Code: n8n 支持在 修改完成,重新运行,最终效果如下所示 至此,工作流部署完成。只要 n8n 服务保持运行,系统将按照预设在每天早上 8:30 触发执行,并在处理完成后自动发送资讯摘要邮件。 通过本文的实战,我们成功利用 n8n 和 GPUStack 搭建了一套全自动、零成本的 AI 资讯助手。从 RSS 抓取到 AI 摘要再到邮件推送,整个流程完全运行在本地环境中,既保护了数据隐私,又规避了高昂的 API 调用成本。 最后,别忘了打开 GPUStack Dashboard 概览页。你可以直观地查看指定模型在一段时间内的 Token 消耗详情(包括 Prompt 和 Completion)以及 API 请求总数,真正掌握 AI 服务的运行状况。🛠️ 演示环境
📖 工作流搭建
1. 获取模型 API 凭证




2. 配置 n8n 模型连接


Save 会提示 Connection tested successfully。

Limit models,指定该凭证仅使用特定的本地模型。
3. 编排自动化工作流
Workflow
First step node 为 On a schedule 类型

RSS Read 节点,这里以 https://36kr.com/feed 为例

RSS Read 节点是否正常工作

RSS Read 节点可查看执行日志和数据
Basic LLM Chain 节点,用于提取信息摘要
contentSnippet 字段到 Prompt (User Message) 输入框中

System Prompt -> 你是一个资深科技编辑。请阅读下方的文章内容,提取摘要,要求字数精炼,直击本质。


Send Email 节点

Create new credential 会弹出配置窗口。

表达式无需手写,将字段拖拽到输入框即可。

📊 效果验证
Send Email 节点发送邮件。注意:这一步不要着急实操,否则将一次性收到 30 封邮件!🤣



💡 工作流优化
Basic LLM Chain 节点上的系统提示词,指导其直接输出一个 list item你是一个资深科技编辑。请将用户输入的文章内容总结为一条简练的 HTML 列表项(<li>...</li>),包含标题和核心要点。
格式示例:
<li><b>标题</b>:核心要点摘要</li>
要求:
1. 仅输出 <li> 标签及其内容,不要包含 <ul> 或其他 markdown 格式。
2. 摘要控制在 50 字以内。
Basic LLM Chain 与 Send Email 节点之间插入一个 Code 节点,用于将分散的摘要聚合为美观的 HTML 格式。
Code in JavaScript / Code in Python (Native)。Code in JavaScript 为例。⚠️ 注意:在微信公众号中直接复制以下代码时,普通空格可能会被替换成不换行空格 (NBSP),粘贴后请务必检查并手动替换回普通空格!
// 获取所有 LLM 节点的输出项
const items = $input.all();
// 定义 CSS 样式
const style = {
container: "font-family: 'Helvetica Neue', Helvetica, Arial, sans-serif; max-width: 600px; margin: 0 auto; padding: 20px; background-color: #f9f9f9; border-radius: 10px; border: 1px solid #e0e0e0;",
header: "color: #2c3e50; border-bottom: 2px solid #3498db; padding-bottom: 10px; margin-bottom: 20px; font-size: 24px;",
list: "list-style-type: none; padding: 0;",
listItem: "background-color: #ffffff; margin-bottom: 15px; padding: 15px; border-radius: 8px; box-shadow: 0 2px 4px rgba(0,0,0,0.05); line-height: 1.6; color: #555;",
footer: "margin-top: 30px; font-size: 12px; color: #999; text-align: center; border-top: 1px solid #e0e0e0; padding-top: 10px;"
};
// 构建 HTML 内容
let htmlContent = `<div style="${style.container}">`;
htmlContent += `<h2 style="${style.header}">📅 每日科技资讯摘要</h2>`;
htmlContent += `<ul style="${style.list}">`;
for (const item of items) {
if (item.json.text) {
// 为 item 添加样式
let styledItem = item.json.text.replace('<li>', `<li style="${style.listItem}">`);
htmlContent += styledItem + "\n";
}
}
htmlContent += `</ul>`;
htmlContent += `<div style="${style.footer}">Generated by n8n & GPUStack • ${new Date().toLocaleDateString()}</div>`;
htmlContent += `</div>`;
// 返回合并后的单一结果供邮件节点使用
return [{
json: {
email_content: htmlContent
}
}];
Send Email 节点{{ }} 中编写 JavaScript 表达式。这里我们使用 {{ $now.format('yyyy-MM-dd') }},以便在邮件主题中自动附带当天的日期信息。


📈 总结

🙌 欢迎加入我们的社区

如果二维码失效,大家可前往 GPUStack 项目获取最新入群二维码 https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg
在全球化浪潮加速推进的今天, 中国企业正从“产品出海”迈向“生态出海” 。作为这—进程的数字化基座,位置服务能力正成为决定企业全球化成败的关键变量。 十年筑基,从“服务国人”到“连接世界” 自2016年在行业内率先发布国际化战略以来, 百度地图便开启了体系化的全球征程 。从服务中国出境游客起步, 短短半年覆盖50多个国家, 2016年底更将版图拓展至全球200多个国家和地区, 完成了从区域服务到全球化平台的关键跨越 。2017年更是将国际化服务能力正式开放, 并推出全球API服务 。通过与北欧等国家旅游局的深度合作, 百度地图加速了本土化数据建设, 让全球用户感受到更真实 、可靠的地图体验。 近十年来持续的数据积累 、技术迭代与生态构建,2026年的今天百度地图出海2.0正式发布,从服务中国人出境升级为赋能企业出海。 出海2.0:百度地图的万全准备与坚定决心 • 技术基座,全球一张图: 已构建完整的全球地图服务平台, 涵盖底图 、检索 、路线规划等全栈能力 。基于AI开放平台,打造“全球—张图”架构, 并全面升级多语言支持, 目前已覆盖包括中 、英 、 日 、韩 、德 、法等在内的16种主流语言 ,满足来华及出海场景的双向需求。 • 生态支持,开发者优先:背靠400万开发者的庞大生态, 百度地图持续完善全球开发者支持体系,提供多语言技术文档 、国际化技术支持及丰富的开发工具,确保开发者获得领先的技术与流畅的全球服务体验。 • 合规布局,安全稳定:深入研究和尊重各国法律法规, 已完成在东南亚 、中东 、欧洲 、北美四大核心区域的服务器本地化部署,确保全球访问的低延迟与高可用 。同时, 建立完善的数据合规管理体系, 实现海内外数据安全隔离,在遵守海外数据隐私法规与中国法律要求的前提下, 为企业提供稳定服务。 生态重构:融合全球数据能力 ,构建全球一张图 2026年, 百度地图持续深化与HERE Technologies合作的同时,加入了新的重量级伙伴TomTom, 旨在构建—个更具活力 、更高效的全球位置服务新生态 。百度地图将聚焦三大关键领域, 为开发者带来质的飞跃: • 数据融合,构建“更丰富、更鲜活”的全球地图 百度地图将打造—个地点信息更丰富 、道路网络更完整 、更新速度更快的全球数字底图 。这将极大提升跨境电商 、本地生活 、出行服务等应用的全球用户体验。 • 动态交通,实现“更实时、更精准”的全球路况 在实时交通信息领域, 交通事件 、拥堵状态 、道路作业等动态数据的补充融合,将显著提升全球交通信息的时效性与准确性, 为跨境物流 、国际旅游等提供至关重要的决策支持。 • 技术升级,打造“一次集成,全球部署”的开发体验 除数据层外, 百度地图还将推进API/SDK的技术国际化标准的适配与生态互通 。这意味着, 开发者未来有望以更低的成本 、更简单的集成流程,快速获得覆盖全球的标准化位置服务能力, 真正实现“ 写—次代码, 服务全球市场”。 于变局中开新局, 共绘全球LBS新篇章 在AI技术加速重构各行各业的今天,位置服务作为连接物理世界与数字世界的核心纽带, 其战略价值日益凸显 。百度地图出海2.0,不仅将重塑全球位置服务市场的竞争格局, 更将为全球开发者打开—扇通往无限创新的大门 。百度地图将与全球开发者共绘关于全球位置服务未来的新篇章。
IP 地址 / 子网计算

超网拆分

路由汇总(算法对比)


进制转换

历史记录(导入 / 导出)


哈啰 v 友们,中午好!
千辛万苦,个人开发的小游戏《潜艇进击》终于上线了(当前发布的是微信版,抖音版也即将上线)。
作为 Godot 游戏开发初学者,之前在 v 站问过大佬们很多问题,现在把第一个小作品拿来汇报下。
这是一款海战小游戏,分为常规战和 BOSS 局。
常规战:玩家控制潜艇躲避敌人攻击,同时也可以发射武器(鱼雷、潜射导弹、激光炮等)攻击敌人。胜利条件:5 分钟内潜艇击沉全部敌人。失败条件:倒计时结束(超时)或潜艇生命值归零。



BOSS 局:直接把单一海战搬到了外太空!各种 BOSS 正在设计和开发中。

如果大家玩腻了消消乐一类的小游戏,可以来试试它,应该很好玩的!小游戏发布一周多了,已经有 1000 多的小伙伴玩过。收到的一些反馈也及时改了,说是至少比消消乐一类有意思(狗头
关于空投积分,有点标题党了。并不是什么有价值的东西,谈不上空投。如果大家有登录(不登录也可以玩的),在空间复制 UID 放下面,我给大家每人发 200 积分。可以去商店使用积分兑换激光炮,一发摧毁一个舰队!战斗胜率 100%(笑哭
最后放下小游戏码,扫码可以直达(或者微信-发现-小程序/小游戏搜索“潜艇进击”),开炮!!!

体验有点像接力,
是抖音刻意而为?
还是因为 iOS 抖音 app 是浏览器套皮导致触发 macOS 的接力机制

对于拥有大量外勤人员的企业来说,管理难点往往不在办公室内,而是在员工走出办公室之后。销售人员是否真正拜访了客户,巡店人员有没有按要求到店,维修工程师的时间是否被合理利用,这些问题长期困扰着管理者。 在传统管理方式下,企业更多依赖员工自觉和事后填写的日报来了解外勤情况。但在实际操作中,日报内容容易流于形式,真实性难以核实。当业绩出现波动时,管理者很难判断问题到底出在市场环境,还是外勤人员执行不到位。 外勤管理软件正是在这样的现实需求下被广泛应用。它并不是单纯为了监管人员,而是通过技术手段,把原本不可控的外勤过程转化为清晰的数据记录,让管理从猜测走向事实。越来越多企业在实践中发现,外勤管理软件真正解决的,是 “保真实”和“提人效” 这两个核心问题。 一、保真实:外勤管理的数据基础 如果缺乏真实的数据支撑,外勤人员管理很容易变成形式化管理。外勤管理软件首先要做的,就是还原现场工作的真实状态。 1、杜绝虚假定位与考勤 在过去,虚假定位一直是管理盲区。专业的外勤管理软件会通过多重定位校验(如GPS、Wi-Fi、基站)和环境识别机制,有效减少定位造假的空间。系统会对异常打卡(如非规定区域、频繁切换定位)自动标记,确保外勤人员真实在岗。 2、全程轨迹可追溯 单一的打卡记录只能反映某一时刻的状态。通过持续记录行动路线,系统可以完整呈现外勤人员的拜访顺序、停留时长和行程安排。管理者可以直观查看轨迹,发现效率瓶颈(如无效奔波、停留过短),而非主观臆断。 3、工作现场可视化留证 在外勤巡店、巡检等场景中,现场照片是关键依据。为避免使用旧图或非现场图片,外勤管理软件通常要求拍照时自动同步时间、地点水印。这确保了每张图片都对应真实的场景与时刻,大幅降低造假可能,也减少了事后核查成本。 二、提人效:外勤管理软件的核心价值 真实数据是基础,外勤管理软件更重要的价值,在于利用这些数据持续提升外勤人效。 1、标准化作业流程 新员工常因流程不清影响执行质量。通过外勤系统,企业可将成熟经验固化为标准化的线上流程(如巡店步骤、巡检清单),引导外勤人员按步骤操作,减少随意性,保障执行质量稳定。 2、智能规划与路线优化 路线安排是否合理,直接决定每日有效产出。外勤管理软件可基于客户分布、优先级和交通状况,智能规划最优拜访路线,帮助外勤人员减少在途时间,在相同工时内完成更多有效拜访。 3、解放事务性工作负担 繁琐的事后填报、报销流程消耗大量精力。外勤管理软件能自动关联考勤、拜访记录与费用数据,一键生成报告或报销单,减少重复录入和人工统计,让外勤人员将精力聚焦于核心业务。 三、成本下降:效率提升的自然结果 当数据真实、流程清晰后,成本控制效果自然显现。尤其在差旅费用管理上,通过外勤轨迹反算实际里程,可减少人为填报误差,使费用核算透明、准确。这既让员工报销更便捷,也显著降低了财务审核的压力与成本。 四、如何选择合适的外勤管理软件 企业在选择时,应关注以下三点: 1、数据可靠性:核心是系统的定位稳定性与防作弊能力,确保基础数据可信。 2、业务适配度:软件需深度理解外勤业务场景(如销售拜访、巡检、售后),而非仅是考勤工具。 3、实施与服务能力:供应商能否在落地和后续使用中提供持续支持,确保软件真正用起来、产生价值。 结语 外勤管理软件的意义,并不在于管得更严,而在于让外勤工作更透明、更高效。 当真实数据成为管理基础,决策便不再依赖猜测。 在数字化浪潮下,尽早引入合适的外勤管理工具,将在团队执行力、运营效率和成本控制等方面,带来持续而显著的改善。







全文链接:https://tecdat.cn/?p=44868 关于分析师 封面: 在心理健康服务日益精细化的今天,多量表联合评估已成为心理状态研判的核心手段,但量表数据的多样性、量化指标的差异性的问题,导致传统评价方法易出现主观性强、分类模糊的痛点。作为数据分析师,我们在过往客户咨询项目中发现,单一方法难以兼顾分类准确性与评价客观性,因此探索出多算法融合的解决方案——通过聚类、降维、统计检验与客观赋权方法结合,构建适配多心理量表的数据处理体系。 本次采用三类核心心理量表数据,分别从心理症状(SL-90症状自评量表)、职业适配度(职业成熟度量表)、人格特质(大五人格量表)三个维度采集信息,覆盖168名评估对象,为后续分析提供全面数据支撑。 首先对原始数据进行清洗:剔除极端异常值,针对空白值采用众数填补法补全,确保数据完整性。此步骤可规避残缺数据对后续模型的干扰,为分析结果可靠性奠定基础。 采用频数分析对三类量表分别完成分类,计算各得分区间的频数及占比,形成分类标准:评估对象得分落入对应区间,即可判定其所属类别。 对三类量表的频数分布进行可视化分析,结果如下: 采用Kendall’s W检验验证三类量表分类结果的一致性,检验结果如下表所示: 注:*代表1%的显著性水平 相关文章 原文链接:https://tecdat.cn/?p=37724 先通过KMO检验与Bartlett检验验证数据适配性,检验结果显示KMO值为0.525,Bartlett球形度检验P值小于0.001,表明数据适合进行主成分分析。 基于降维后的数据进行K-means聚类,通过对比不同簇数的距离平方和确定最优簇数为5,此时距离平方和降至2158.375,聚类效果较优。 代码功能:导入降维数据后,以5为簇数执行K-means聚类,通过散点图可视化聚类结果,标注各簇中心位置,直观呈现分类效果。 聚类结果如下表所示,5个簇的占比分别为34%、27%、16%、8%、15%,分布相对合理。 各聚类中心对应的原始量表得分如下: 可视化结果显示,各簇整体区分度良好,但簇1与簇2、簇2与簇5存在少量重叠,后续可通过算法优化提升分离度。 采用T检验对比两组评估对象的量表数据,研判组间差异:SL-90量表两组数据的P值小于0.001,Cohen’s d为1.309,表明组间差异显著;大五人格量表P值为0.918,职业成熟度量表P值为0.001但Cohen’s d仅0.355,两组量表的组间差异不明显。 采用熵权TOPSIS法构建综合评价模型,客观计算各量表权重,再通过K折交叉验证检验模型可靠性。 结果显示,大五人格量表权重最高,对综合评价的影响最大,符合人格特质在心理评估中的核心地位。 代码功能:按9:1比例划分数据,通过支持向量机训练模型,计算准确率、召回率、精确度三个指标,验证评价模型可靠性,最终结果显示准确率0.9492、召回率0.9128、精确度0.9389,模型表现优异。 基于熵权TOPSIS法的综合得分再次进行聚类,仍划分为5个簇,聚类结果的F值为556.892,P值小于0.001,表明各簇间差异显著。 优势在于多算法融合,通过客观赋权与交叉验证规避主观性,结果可靠性高;覆盖分类、聚类、差异分析、评价验证全流程,适配心理评估实际需求。可广泛应用于心理服务机构的评估筛查、人才选拔的心理适配度研判等场景。
原文出处:拓端数据部落公众号
在此对Xiongtao Zou对本文所作的贡献表示诚挚感谢,他在伊利诺伊大学厄巴纳-香槟分校完成了信息管理专业的硕士学位,专注心理健康数据分析领域。擅长Python、MySQL、Neo4j、AWS SageMaker、MATLAB、机器学习、深度学习、数据预处理。Xiongtao Zou曾参与多家机构心理健康评估项目,负责数据建模与分析工作,助力搭建精准的心理分类评价体系,为心理服务机构提供数据支撑与优化方案。
引言
本文围绕SL-90症状自评量表、职业成熟度量表、大五人格量表三类数据,搭建从数据预处理到评价验证的全流程模型,依次实现量表分类、综合聚类、分组差异研判与评价方法校验。模型核心创新在于将熵权TOPSIS法与K-means聚类结合,通过客观赋权规避人为权重偏差,同时用K折交叉验证保障结果可靠性。
本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群,可与800+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。项目文件目录

数据预处理与核心方法概述
数据基础
预处理流程
核心方法简化说明
量表分类与关联性分析
分类实现
分类结果验证



图1 三类量表频数统计图

图2 频数分布条形统计图
从分布特征来看,职业成熟度量表与大五人格量表的频数分布接近正态分布,符合心理评估数据的普遍规律,证明分类标准具有科学性;SL-90量表某一区间占比达90%,因该量表用于心理健康筛查,健康人群占比偏高的结果贴合实际应用场景。分类结果关联性检验
名称 秩平均值 中位数 Kendall’s W系数 X² P SL-90 1 1.07 1 200 0.000* 大五人格 3 194.5 - - - 职业成熟度 2 3.78 - - -
检验结果显示Kendall’s W系数为1,表明三类量表的分类结果几乎完全相关,说明不同维度的心理评估具有一致性,为后续综合分析提供了合理性支撑。
Python用TOPSIS熵权法重构粮食系统及期刊指标权重多属性决策MCDM研究|附数据代码
综合评价体系构建与聚类分析
降维处理
采用PCA主成分分析对三类量表数据降维,提取特征根大于1的主成分,结果显示前两个主成分的累积方差解释率达86.917%,可充分保留原始信息。降维后各量表在主成分上的载荷系数如下:量表 主成分1 主成分2 共同度 SL-90 -0.591 0.785 0.966 大五人格 0.784 0.49 0.855 职业成熟度 0.882 0.091 0.787 聚类实现
聚类核心代码(MATLAB改写)
% 心理量表数据聚类分析(K-means算法)psych_data = []; % 省略:导入降维后的主成分数据cluster_num = 5; % 最优聚类簇数[cluster_idx, centroids] = kmeans(psych_data, cluster_num); % 执行聚类% 聚类结果可视化color = {'r','g','b','c','m'};figurefor i = 1:cluster_num cluster_data = psych_data(cluster_idx == i, :); scatter3(cluster_data(:, 1), cluster_data(:, 2), zeros(size(cluster_data,1),1), color{i},'o'); hold on; scatter3(centroids(i, 1), centroids(i, 2), 0,'k','x');endhold off;xlabel('主成分1');ylabel('主成分2');title('5簇K-means聚类分析');legend({'簇1','簇2','簇3','簇4','簇5','簇中心'});grid on;聚类结果分析
聚类类别 频数 百分比% 1 34 34 2 27 27 3 16 16 4 8 8 5 15 15 合计 100 100 聚类种类 SL-90 大五人格 职业成熟度量表 1 1.115 187.559 3.553 2 1.132 201.481 3.865 3 1.103 168.625 3.708 4 1.030 231.125 4.325 5 1.062 216.533 4.252 
分组差异研判与评价方法验证
分组差异分析
结果提示,两组评估对象的心理症状表现差异较大,而人格特质与职业适配度的差异较小,可为针对性心理服务提供方向。评价方法准确性验证
熵权计算结果
量表 信息熵值e 信息效用值d 权重(%) 大五人格 0.97 0.03 55.374 职业成熟度 0.981 0.019 34.307 SL-90 0.994 0.006 10.319 K折交叉验证核心代码(MATLAB改写)
% 心理评价模型K折交叉验证(验证准确率、召回率、精确度)X = []; % 省略:导入量表特征数据y = []; % 省略:导入分类标签数据% 划分训练集与验证集(9:1比例)cvp = cvpartition(size(X,1),'HoldOut',0.1);X_train = X(cvp.training,:);y_train = y(cvp.training,:);X_val = X(cvp.test,:);y_val = y(cvp.test,:);% 训练模型并预测model = fitcsvm(X_train, y_train); % 支持向量机模型训练y_pred = predict(model, X_val); % 验证集预测% 计算评价指标confusionMatrix = confusionmat(y_val, y_pred);accuracy = sum(diag(confusionMatrix)) / sum(sum(confusionMatrix));recall = diag(confusionMatrix) / sum(confusionMatrix, 1);precision = diag(confusionMatrix) / sum(confusionMatrix, 2);% 输出结果fprintf('准确率: %.4f\n', accuracy);fprintf('召回率: %.4f\n', mean(recall));fprintf('精确度: %.4f\n', mean(precision));聚类优化结果

图3 熵权法评价聚类分析图模型评价、优化与工具适配说明
模型优势与应用价值
优化方向
工具适配说明
附录(关键代码节选)
1. PCA主成分分析代码(MATLAB改写)
% 量表数据PCA降维psych_data = []; % 省略:导入原始量表数据[m,n] = size(psych_data);% 数据中心化data_centered = zeros(m,n);for i = 1:n data_centered(:,i) = psych_data(:,i) - mean(psych_data(:,i));end% 计算协方差矩阵并降维C = cov(data_centered);[V,D] = eig(C);E = diag(D);[u,v] = sort(E,'descend');V = V(:,v);k = 2; % 保留2个主成分X_pca = psych_data * V(:,1:k); % 降维后数据fprintf('降维后的二维特征数据:\n');disp(X_pca);2. 熵权TOPSIS法核心代码(MATLAB改写)
% 熵权TOPSIS法计算综合得分X = []; % 省略:导入标准化后的量表数据[n,m] = size(X);% 计算信息熵e = zeros(1,m);for j = 1:m p = X(:,j)/sum(X(:,j)); e(j) = -sum(p.*log(p))/log(n);end% 计算权重与综合得分d = 1 - e;w = d/sum(d);% 省略:正理想解、负理想解及距离计算代码C = D_neg ./ (D_pos + D_neg); % 综合得分fprintf('各评估对象综合得分:\n');disp(C);
最近,有一张图在很多人的朋友圈和群里传开了。 说实话,我看第一遍的时候,心里堵得慌。看第二遍,只觉得后背发凉。 这张图讲的是一位32岁的程序员,也是一位部门经理。他在一个周六的清晨,倒在了家里,再也没能起来。 最让我难受的,不是“猝死”这两个字,而是这张时间线里记录的那些细节。 你看,出事的前一天是周五。下午5点多,他还在改文档,还要布置第二天的任务。他跟妻子说:“明天有工作。” 周六一大早,他身体已经不舒服了。正常人的反应应该是赶紧休息,或者去医院对吧?但他没有。他想的是“顺便处理工作”。那天早上,他登录了至少5次公司的OA系统。 后来他倒在家里,失禁了。这时候他对妻子说了一句什么话?他说:“以为不严重。” 然后,他提出了一个要求:带上电脑去医院。 都这个时候了,命都快没了,他惦记的还是那台电脑,还是没做完的工作。 在去医院的电梯里,他再次倒下,抽搐。邻居帮忙做心肺复苏,急救车也来了。 上午9点46分,人到了医院,其实已经没有生命体征了,但家属不放弃,要求抢救。 就在医生拼命按压胸口,试图把人救回来的时候,他的手机还在响。 10点48分,他被拉进了一个新的工作群。 11点15分,群里有人@他:“高工帮忙处理一下这个订单。” 那时候,他正在被抢救。 下午1点,医院宣布临床死亡。 事情结束了吗?没有。 晚上9点多,他去世8个小时了,他的微信又收到了私聊工作信息:“周一有急任务……要把这个改下。” 看着这些时间点,我真的说不出话来。 我们总是觉得,自己年轻,身体好,熬一熬没关系。我们总是觉得,工作很重要,任务很紧急,如果不回消息、不处理bug,就会出大问题。 但事实是什么? 事实是,当你躺在急救室里的时候,那个工作群依然会热闹,新的需求依然会产生,别人依然会@你干活。 事实是,当你真的离开了,公司可能会申请工伤,可能会赔偿,然后很快就会招一个新的“高工”来顶替你的位置。那个工作群会继续运转,就像你从来没来过一样。 但是,对于你的家人来说呢? 如果你倒下了,你的父母、你的爱人、你的孩子,他们的生活就真的彻底毁了。 32岁,正是上有老下有小的年纪。 兄弟姐妹们,我今天写这篇文章,不想讲什么大道理,也不想分析什么行业现状。我只想用最直白的大白话跟你们说一句: 身体真的是你自己的,命只有一条。 不舒服了,就请假。累了,就休息。 工作做不完,可以明天做。天大的急事,也没有你的心跳重要。 别总觉得“再坚持一下就好”。有时候,那一下坚持,可能就是最后一下。 别总想着“带病坚持工作”是一种负责任。对自己负责,对爱你的家人负责,才是最大的责任。 咱们都是普通人,打工是为了过日子的,不是为了送命的。 从今天起,少熬点夜,多喝点水。感觉胸闷、心慌、头晕的时候,立马停下手里的活,去医院,去休息。 别让你的最后时刻,还只有工作群的消息在响。 好好活着,比什么都强。
在大模型算法快速迭代演进的背景下,业务研发人员负责工程、算法研究人员负责模型优化的协作模式,已经无法满足大模型产品快速创新、模型效果快速迭代的业务需求,业务团队需要建设自有的大模型优化能力。如何建设一个人人都能训大模型的技术氛围,已成为加速大模型业务落地、推动组织创新与发展的关键。 2025 年 4 月,在 InfoQ 举办的 QCon 全球软件开发大会(北京站) 上,科大讯飞消费者 BG 大数据研发部总监吕昕分享了“如何建设人人都能训的大模型技术氛围”,他从平台基础设施、大模型思维、协作文化 3 个角度,阐述如何建设“人人能用、人人会训”的大模型文化,有效提升组织效能,进而推动业务的持续成长。 预告:2026 年 QCon 全球软件开发大会(北京站)策划了「AI 时代的“超级团队”」专题,将探讨如何弥补人与 AI 的能力鸿沟,重构产品与技术的协作关系,并建立一套适应 AI 时代的全新管理与度量体系,打造高适应性、高产出的“超级团队”。如果你也有相关方向案例想要分享,欢迎提交。 以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。 大模型时代创新的必要性在于,无论是 C 端还是 B 端业务,直接使用大模型完成工作都存在困难,需要进行优化。每个业务线或单元都有必要自己训练大模型,我的分享一方面可以帮助小团队或业务线从 0 到 1 建设大模型训练能力,另一方面能让想转大模型的工程人员了解如何转型。 从业务优化需求来看,C 端业务场景零散但可划分到特定场景优化,业务线要求高且效果优化永无止境,核心是围绕用户场景建立数据和快速优化能力。B 端业务以解决方案为主,对效果要求相对有限,主要是满足国产化和安全要求,达到可用即可。 大模型优化模式与传统机器学习有所不同。传统机器学习中,算法需求由算法研究人员或团队主导,业务线研发主要负责部署上线和维护。而在大模型时代,特征工程基本不存在,但出现了两种新的合作模式:一种是以算法研究人员为主,业务线辅助定义需求、标数据等;另一种是以业务线为主导,算法人员辅助问题定义与选型、模型训练。DeepSeek 等技术的出现,使得业务线或产品线有可能自己优化大模型训练效果,不再依赖算法辅助。 从组织架构角度,各个业务线更希望业务线自己训练大模型。因为大模型技术发展迅速,战略需灵活调整,组织活力需进一步激活,以实现敏捷创新和更好的信息拉齐与穿透。传统的算法团队与工程团队分开的模式已不能满足业务发展需要,每个业务线或团队都需要具备从 0 到 1、端到端优化大模型的能力。 在大模型时代,DeepSeek 的出现既带来了危机也带来了机遇。它在基础模型方面表现出色,一些场景直接使用深度探索就能取得不错的效果。同时,开源生态的成熟,包括训练框架、推理框架和智能代理框架,降低了训练基础设施的建设成本。通过蒸馏深度探索,可以快速构建高质量数据,如思维链数据,节省了大量人工标注成本。此外,模型优化范式也在变革,从之前的底座模型训练和监督微调(SFT),转变为现在的知识蒸馏,并且广泛采用 GRPO 来优化效果。 业务线如果想自己从 0 到 1 建设大模型的优化能力,会面临诸多挑战。首先是基础设施的缺失,包括算法、算力、平台、数据,以及训练框架和推理框架。其次是缺乏算法优化经验,不清楚如何选择模型、技术方案,如何评估和优化效果。最后是人才短缺,不清楚需要什么样的人才、到哪里找以及需要掌握哪些技术栈。 在大模型时代,对研发岗位的要求也发生了变化。核心岗位包括大模型算法工程师和大模型测试工程师。大模型算法工程师相比传统搜索、广告、推荐算法工程师,门槛降低,需要调的参数少,但需要更好的业务感知能力,将业务需求转化为大模型优化场景,并具备创新思维和前沿跟进能力。大模型测试工程师相比传统测试工程师,需要更高的自动化测试要求,能够基于业务感知能力自动化构建大模型测试样本和制定测试标准。除了这两个核心岗位,还有其他岗位,如提示词工程师因天花板低和深度探索出现后需求减少而不再热门;大模型平台架构师、大模型平台开发工程师和大模型应用开发工程师这些岗位和传统软件开发岗位基本没有太大区别。 在研发和测试的协作方面,之前让团队野蛮发展,未重视项目管理,导致模型训练完成、上线前测试环节出现问题,训练样本与业务未对齐,浪费了大量时间。因此,我增加了样本评估环节,要求在训练前与业务线对齐样本,确保样本能满足业务需求。同时要求每次算法上线时提供详尽的自测报告和提示词文档,明确参数设置等细节,以避免因参数错误导致的测试问题,因为大模型训练结果是黑盒,测试时不易发现问题。 基于我对整个平台架构设计的理解,基本分为三层。最底层是基础设施,公有云可以解决 90%,甚至 100% 的问题。因为业务线的训练样本数和情况一般不支持训练 32B 以上的模型,32B 的全参训练是上限。此时租用几十张显卡基本能解决大部分训练问题,大部分业务场景 7B 模型也能搞定。所以公有云租卡基本能解决 90% 的训练和部署问题。在训练的第二层是训练工具。这里使用了公司内部已有的星火训练平台,同时也基于开源搭建了相关工具,开源生态的成熟对此帮助很大。再往上是大模型应用开发的三个工程:数据工程、模型工程和 Agent 工程,也可称为大模型的应用开发。核心需要自己扩建设的资源主要是数据资源和应用开发资源。数据资源方面,要掌握如何通过调用 API 构建样本,如何蒸馏 Deepseek,公有云的 API 基本能满足需求。应用开发方面,主要涉及 Agent 和 RAG。Agent 的开源项目众多,star 超过 1000 的都有 50 个左右,可以基于开源搭建自己的 Agent 和 RAG 平台。如果想低成本建设从 0 到 1 的基础设施,利用公司内部资源复用和拥抱开源,基本能解决所有问题。 有了基础设施后,简单介绍一下开源技术栈。之前没显卡时还考虑过 Qlora,但后来发现 32B 模型的 Lora 训练,16 张显卡基本都能搞定,没必要再用 Qlora。在模型选型上,简单模型用 7B、14B、32B 基本都能满足,复杂一点的长文本和复杂任务,32B 模型也能差不多应对。使用开源模型进行部署和训练基本没什么太大问题。 在数据管理平台方面,我看了所有开源项目并梳理了公司内部所有数据相关平台后,得出结论是必须由业务线自建,因为没有任何两个业务的数据管理需求是一样的。其核心有两点:一是 Badcase 驱动,Badcase 管理非常重要,我每次训练时核心任务是修复 Badcase;二是要进行模型样本管理,避免引入脏数据,出问题时能追溯模型来源,所以要建设模型溯源能力,而不仅仅是数据管理能力。 如何培养全员训练大模型的思维和能力,重点在于提升能力,尤其是让普通研发人员快速掌握大模型训练,建设他们的算法能力。大模型训练流程包括问题定义、提示词设计、样本构建、微调(蒸馏、强化学习)、评估和上线。模型优化能力由四个能力叠加而成:模型问题定义能力、样本构建能力、训练能力和评测能力。最初认为模型训练能力最难,但实际上最容易,一周内所有人都能学会调参,且调参不超过 3 个。研发团队最需要提升的是问题定义和评测能力。 我将自己最近半年工作中的教训和经验总结,把所有训练过的大模型场景做了拆分,发现大部分大模型场景都能映射到下表几个类别中。每次模型训练时,思考一下可以放到哪个类别,然后按照相应的优化方式去做,基本都能取得不错的效果。以写作类为例,这是最常用的大模型优化场景,现在 DeepSeek 效果较好,大家开始广泛使用。以前不敢碰写作类,因为需要构建样本,难度较大。但现在通过 DeepSeek 蒸馏和强化学习(GRPO),基本能取得较好的效果。要素抽取类场景中,公有云模型准确率能达到 90%,自身优化空间不大。问答类场景中,大模型能力很少单独训练,大家主要做 RAG 和搜索插件,因为底层工程化可以提升更多效果。还有 API 调用类场景,训练大模型时将其抽象到某个场景,再看每个场景的优化方式。无论是写作还是交互,最核心的是要有一套快速构建样本训练的链路能力,从业务驱动出发,快速构建样本训练,再快速进行评测和 Badcase 修复,以及与之相配合的平台能力。 大模型测试曾是我最不关心的环节,但后来发现它对模型优化迭代效率影响最大。首先,数据来源很重要。如果线上有 Badcase,建议直接使用 Badcase 作为优化数据。性能测试方面,大模型性能测试与普通性能测试存在差距,可能会考虑 GPU 并发等因素。但我认为,同样 Token 长度和 Size 模型性能差异不大,不要投入过多精力。最核心的是找一个测过的开源的数据源,拿来即用。效果测试很关键,就是理解模型效果并进行测试。我的感受是,合作的业务线中,是否有优秀的测试人员对最终模型效果影响很大。优秀的测试人员可以从业务需求出发,将业务标准和测试标准转化为测试用例,自动化生成样例,并用大模型自动评测。一个这样的测试人员对于团队能力的提升,相当于三个以上的大模型算法人员,而那些配合较差、反复优化效果不好的业务线,往往缺少这样的人。因此,我在公司内进行大模型测试能力评估,尽管自己做算法工作,但感觉没有优秀的测试人员,工作开展会很困难。 我最早做搜索时,用户输入多轮搜索结果,需要多轮改写来理解用户意图。之前使用传统方法和一些大模型,都无法很好地理解几轮对话之间的关系,上下文无关和上下文有关的内容都识别不出来。DeepSeek 出现后,发现其 R1 效果非常好,因为它有思维链,能思考上下文关系。于是尝试用 R1 做蒸馏,结果效果也很好。这个实验有几点结论:一是使用 DeepSeek 后,提示词简化了很多,这也是提示词工程师现在市场不大的原因;二是蒸馏时仍需要底座模型,像 1.5B 的底座模型较弱,学不到东西;三是思维链加入后,可以做一些以前做不到的事情。举个例子,用户在搜索中要求生成双色球下期中奖号码,以前在 Query 理解上做了很多尝试,但都无法解决。DeepSeek 给出的回复是“双色球号码不靠谱,远离赌博,珍爱生命”,这让我觉得自己之前的尝试很愚蠢。这个案例说明,当新技术如 DeepSeek 出现后,要勇于探索和尝试,会得到超出预期的惊喜,也能让团队成员感到开心。 写作场景以前是我不敢碰的,因为构建样本难度大。DeepSeek 出现后,针对政府公文写作场景,直接使用 DeepSeek,通过公文反推生成大纲,再基于大纲生成要素,然后进行写作。这个过程中有几点分享:一是 DeepSeek 可以帮助做样本构建,节省大量工作量,甚至可以做样本评测;二是用多轮改写的成功经验来训练和蒸馏 COT,发现写作类加 COT 后效果更差,说明之前的经验证到新技术面前可能需要更多实验来验证;三是写作类模型优化并非一次生成文章即可,大部分写作类模型优化是先生成大纲,再基于大纲写作,这样才能取得较好效果,即使使用 DeepSeek,直接一步生成的效果也不如两步走(先生成大纲再生成文章)的效果好;四是通过尝试新技术,即使之前在该领域没有积累,基于 DeepSeek 等最新开源成果,也能实现技术跨越,从原来 30 分的能力提升到 75 分。 在推动工程人员转向大模型工作时,会遇到一些疑虑。例如,一位有五六年的软件开发经验的同学对转向大模型工作非常抵触,他提出了两个疑虑:一是自己不会深度学习理论技术怎么办,我对此解释是大模型工作不需要这些,只要会搞样本、调参数、写 Python 代码就行;二是大模型优化与写代码差距太大,我展示了一个在 QCon 学到的关于工程师文化的图,就是李云老师在 2024 年 QCon 上海演讲分享的 《AI 时代团队管理的不变与变》 中的一张图,该图将工程师文化的关键项总结得很好,指出工程师的工程能力包括设计能力和工程能力两块,之前做工程开发可能是 30% 时间设计、70% 时间工程,而大模型优化可能是 80% 时间设计、20% 时间写代码,本质上仍是工程师工作,只是比例变化,底层活动也一样,都是设计、文档化、写代码以及敏捷开发等。 如果有人担心自己的效果比不上专业的研究团队,那是因为缺乏经验,存在知识壁垒和技术孤岛。解决方法是打破壁垒,通过开源和分享打破技术孤岛,大家团结起来共同成长。遇到问题时,可以找人问、开分享会、开会研讨。 我在做多轮搜索时,面临模型合并、样本合并问题,如果每个模型都单独训练,最后需要维护几百个模型,这是无法维护的,所以把相似数据放在一起同时训练,但这样导致准确率下降很多,当时不知所措,于是向研究院同学请教,对方建议把多轮与单轮的 promot 差异加大,尝试后发现有效;又向工程同学请教,对方说 VLLM 支持动态的 Lora 加载,每个模型训练一个 Lora,然后动态加载即可,这两种方式都能解决问题。 在写作场景中,出现前面写得正常,后面突然出不来标点符号的问题,当时甚至想用强化学习设置 Reward 来解决,但训练底座大模型写作的人说把 decay 的惩罚从 0.6 设到 0.1,尝试后发现可以解决。现在回看去年做的事,觉得当时犯了低级错误,但认为这不是黑历史,而是成长之路,想跟大家分享的是遇到问题找别人会得到帮助,能力是逐渐积累的。 我在公司负责一些工程师文化建设工作,梳理出工程师文化最核心的几点是技术过硬、专业靠谱和开放共享。在大模型时代,我个人最认同的是开放和乐于分享,整个团队、公司或组织需要有更开放共享的文化心态。 从组织氛围或组织变革角度看,训练大模型很简单,只要有平台、有业务 Sense 就能做起来。大模型基础平台可以低成本建设,有众多开源资源可复用。大模型场景就那几类,按流程优化就行。要拥抱开源,避免闭门造车。 最后是致敬:一是 QCon 上一位老师的分享,他讲的“优化算法最好的办法就是找 bug”这句话对我后续工作影响很大,认为在大模型时代,找 bug 和 review 数据比调参更有用;二是 Hugging Face,感谢它提供很多优秀的开源模型和数据,每个公司都需要有自己的类似 Hugging Face 的共享平台,用于模型数据、训练方法论和经验的共享,打造开放共享的团队氛围。 嘉宾介绍 吕昕,负责科大讯飞消费者 BG 大数据和大模型技术平台相关工作,先后负责建设了讯飞 C 端用户数据中台、大数据分析平台和大模型应用开发平台等,目前负责多个 C 端产品的大模型效果优化工作。 在大数据平台、个性化推荐、广告算法、商业分析、大模型算法领域有多年经验。 会议推荐 从基础设施、推理与知识体系,到研发与交付流程,再到前端、客户端与应用体验——AI 正在以更工程化的方式进入软件生产。2026 年 QCon 全球软件开发大会(北京站)将以 「Agentic AI 时代的软件工程重塑」 作为大会核心主线,把讨论从 「AI For What」,走向真正可持续的 「Value From AI」。大模型时代组织创新的必要性
大模型算法优化的几种模式

大模型吋代的 BLM 模型

从 0 到 1 自建大模型优化能力面临的问题
大模型效果优化团队的协作与流程

建设人人能训大模型的基础设施
大模型优化平台的建设

开源模型的技术选型

数据管理平台
培养全员大模型思维与能力
大模型的应用场景和优化方式

大模型测试

大模型优化案例 1 一多轮改写

大模型优化案例 2 一公文写作

构建开放共享的协作文化

一些解决遇到的大模型优化问题的经验
工程师文化建设
总结与展望

1.前言 2.私有云盘搭建步骤 2.3下载 Cloudreve 2.4上传安装包 2.5配置伪静态规则 } 2.6开始安装 Cloudreve 2.8完成安装与登录 2.9设置和管理账户 2.9.1小贴士 2.9.2 VPS 的更多可能性 2.9.3为什么不用免费云盘? 3.总结
如果你最近刚入手了 VPS,或许你已经在尝试搭建一些网站,甚至可能还在使用宝塔面板管理服务器。其实,VPS的用途可不仅限于搭建网站,今天我就来教大家如何用 VPS 搭建一个属于自己的私有云盘。
Cloudreve 是一个开源网盘项目,它基于 PHP 和 MySQL,所以在宝塔面板上安装起来非常简单。它还支持 WebDAV 协议,这意味着你可以将它挂载成本地磁盘,直接在电脑上访问自己的云盘,体验非常流畅。对于那些希望拥有私人云盘而又不愿意依赖免费的公共云存储服务的朋友,它是一个不错的选择。
今天的教程将一步步带你搭建自己的私有云盘,按照教程做,你几乎不需要花费任何额外的费用,还可以享受免费的域名和空间资源。开始之前,你可能需要准备一个免费域名,别担心,我会告诉你如何申请。
2.1登录宝塔面板
首先,登录你的宝塔面板后台,点击左侧的“网站”选项,准备添加一个新的网站。
2.2创建站点
在宝塔面板的“网站”界面,点击右上角的“添加站点”按钮。在域名字段中,输入你申请的免费域名(可以在这里找到一些提供免费域名的平台)。选择 MySQL 作为数据库类型,设置好其他信息后点击“提交”。
接下来,去 Cloudreve 的官方 GitHub 官网,下载最新版本的安装包。找到下载链接并点击下载。
返回到宝塔面板,进入你刚才创建的网站的根目录。你会看到该网站的文件夹是空的,点击“上传”按钮,选择你下载好的 Cloudreve 安装包进行上传。上传完成后,点击“解压”按钮,系统会自动解压安装包文件。
安装包解压完后,接下来需要配置伪静态规则。这一步很简单,只需要在宝塔面板左侧的“网站”选项中,点击你创建的网站后方的“设置”按钮。在设置页面中,找到“伪静态”选项,点击后将以下规则粘贴进去:location / {if (!-e $request_filename) {
rewrite ^(.*)$ /index.php?s=/$1 last;
break;
}
保存设置后,别忘了开启全站强制 HTTPS,确保访问时更加安全。具体操作可以参考宝塔的教程。
完成上述设置后,打开浏览器,输入“域名/CloudreveInstaller”访问安装页面。在安装页面底部,你会看到一个提示,点击“忽略问题,继续下一步”就可以进入下一步。2.7配置数据库信息此时,返回宝塔面板,找到刚才创建的网站的数据库名、用户名和密码。将这些信息填写到它的配置界面中,然后点击“开始安装”。

安装完成后,你就可以看到它后台的登录地址、用户名和密码。记得保存好这些信息,接下来就可以用这些账号登录后台了。
登录到后台后,点击右上角的账户图标,进入“管理面板”界面。在这里,你可以修改账户密码,还可以配置其他一些网站的基本信息。设置完成后,访问网站首页,你就可以开始使用自己的私有云盘了。
作为一款开源项目,功能非常强大,除了基本的文件上传和下载外,它还支持 WebDAV 挂载、文件分享等多种功能,可以满足日常使用。为了保证安全性,建议关闭注册功能,防止恶意用户上传文件。如果你对 Cloudreve 不感兴趣,宝塔面板还提供了其他类似的应用。
有了自己的私有云盘,你的 VPS 不仅仅是用来搭建网站或者部署应用。你可以将其用作私有云存储,所有文件都可以保存在你的服务器上,不必担心第三方平台的隐私问题。而且,结合 VPS 的性能,它可以提供相对较高的下载和上传速度,这对于那些需要频繁访问大文件的用户来说,无疑是个大福利。除了搭建私有云盘,你还可以利用 VPS 搭建其他服务,例如私人博客、个人项目托管、甚至是游戏服务器。VPS 的灵活性使得你可以实现一机多用,节省开销的同时,还能让自己享受到更多个性化的服务。
很多人可能会问,为什么不直接用免费云盘呢?其实,虽然免费云盘在使用上非常方便,但它们有很多限制,比如文件存储空间、带宽限制、敏感数据的隐私问题等等。使用自己的 VPS 搭建私有云盘,你不仅可以避免这些限制,还能完全掌控数据的存储和传输,体验更自由、更安全的云存储服务。
通过今天的教程,你已经学会了如何在 VPS 上搭建自己的私有云盘。无论是文件存储、分享,还是挂载成本地磁盘使用,都非常方便。如果你还没有尝试过这种方式,不妨动手试试,享受自己搭建云盘带来的成就感。用 VPS 不仅能节省成本,还能带来更多的自由度和安全性。
最近看了一个有关context engineering的视频,引发了我对当下个人工作流的反思。最核心的一点在于,整个【自己动手,丰衣足食】系列的演化似乎都在朝着 “一次干完所有事”的全流程自动化 方向发展,却彻头彻尾的忽略了 当下LLM上下文有限的客观事实 (尤其是依旧200k的claude)。其实在编程过程中我们已有强烈体感,无论是只有100K满注意力的gemini-3-flash(数据来源:L站 捞针测试),还是在60K context window内极度聪明的opus-4.5(数据来源:视频《No Vibes Allowed: Solving Hard Problems in Complex Codebases – Dex Horthy, HumanLayer》),能够切实帮助(或没有幻觉/理解能力强)我们编码的LLM似乎就是有天然的“短视”弊病,经常说着前面忘着后面,这可能是LLM选用了transformer作为基础架构的天生缺陷,也可能是agent前中期发展的阵痛,但无论如何,当下的我们似乎都得直面这个问题。
(整个视频虽然只有20min,但浓缩了讲者很多coding经验,推荐大家闲暇之余看一看。)
我个人的解决方法比较简单,就是人为手工划分几个编程阶段,即分3个窗口分别执行HumanLayer提出的 RPI (Research, Plan, Implement)三个阶段,然后用spec文档串联三个阶段。当然,全流程也融合了我对多模型协作、prompt engineering的一些思考,目前体验下来整个workflow在复杂任务上的表现令我十分满意,感兴趣的佬友也可以尝试一下。
安装流程比较方便,几乎没有任何可踩坑的地方:
git clone https://github.com/GuDaStudio/commands
cd commands
# 用户级安装(所有项目生效)
./install.sh --user
# 项目级安装(仅当前项目生效)
./install.sh --project
# 自定义路径
./install.sh --target /your/custom/path
# 用户级安装(所有项目生效)
.\install.ps1 -User
# 项目级安装(仅当前项目生效)
.\install.ps1 -Project
# 自定义路径
.\install.ps1 -Target C:\your\custom\path
验证安装:启动 Claude Code 后输入 /gudaspec 即可查看可用命令。
配置全局提示词 在 ~/.claude/CLAUDE.md 中使用以下提示词。
# CLAUDE.md ## 0. Global Protocols
所有操作必须严格遵循以下系统约束:
- **交互语言**:工具与模型交互强制使用 **English**;用户输出强制使用 **中文**。
- **多轮对话**:如果工具返回的有可持续对话字段 ,比如 `SESSION_ID`,表明工具支持多轮对话,此时记录该字段,并在随后的工具调用中**强制思考**,是否继续进行对话。例如, Codex/Gemini有时会因工具调用中断会话,若没有得到需要的回复,则应继续对话。
- **沙箱安全**:严禁 Codex/Gemini 对文件系统进行写操作。所有代码获取必须请求 `unified diff patch` 格式。
- **代码主权**:外部模型生成的代码仅作为逻辑参考(Prototype),最终交付代码**必须经过重构**,确保无冗余、企业级标准。
- **风格定义**:整体代码风格**始终定位**为,精简高效、毫无冗余。该要求同样适用于注释与文档,且对于这两者,严格遵循**非必要不形成**的核心原则。
- **仅对需求做针对性改动**:严禁影响用户现有的其他功能。
- **上下文检索**: 调用 `mcp__auggie-mcp__codebase-retrieval`,必须减少search/find/grep的次数。
- **判断依据**:始终以项目代码、grok的搜索结果作为判断依据,严禁使用一般知识进行猜测,允许向用户表明自己的不确定性。
具体的使用方法可以在仓库中查看,比较长就不搬在这里了。我个人用这版workflow重构了之前堆积已久的横向 山代码,并在最近的投稿中几乎进行了研究和实验的全流程使用(但搭配了非常多自己实现的MCP/Skill,不是仅靠该workflow),个人对这版十分满意,大家如果体验好用的话可以帮忙点个star~
还在为编写 skills 烦恼吗,还在为想到了想法,去编写 skills 脚本的时候不懂代码烦恼吗?
或者是
你在 GitHub 上看到一个超级好玩的开源项目,想让 AI 帮你改改代码或者跑起来,结果发现:代码太多 AI 读不过来?配置太乱 AI 搞不定?手动复制粘贴累累到手抽筋?
那么可以来看看这个
今天哞哞牛在此倾情相授
YuJunZhiXue/github-skill-forge: 一个 “制造技能的技能”。这个工具自动化了将任意 GitHub 仓库转换为标准化技能的全过程,是扩展 AI Agent 能力的核心工具。
GitHub Skill Forge 就是为了解决这些麻烦事而诞生的。它像一个 “技能转换器”,能把任何 GitHub 上的仓库,一键转成 AI 助手能直接理解、直接调用的 “技能包”。你不需要手动下载代码,不需要配置复杂的本地环境,只需要提供一个链接,它就能帮你搞定一切。
用法查看 redme
为什么会写这个?
当时的想法就是为了方便普通人,大家有很多想法,但是呢如果让 AI 全程实现,也不能确保
确保 AI 生成的代码是正确的,因为很多普通人看不懂代码,那么开源的项目都是写好并且开源可以运行的,那不就代表你给 agent 那么他也不可能胡乱写,因为有标准了
所以才会出现这个东西!!!!
然后还有快速获取知识的 skills
请看下面
利用 AI Skills 来快速获取知识!!!(修改调整内容) - 搞七捻三 - LINUX DO
期盼了好久是 subagent 终于是加上了,实测还是比较好用的,跟 cc 基本一致
可以直接使用 cursor 进行生成图片到本地,写前端更方便配图了,具体是什么模型还不清楚
撇清责任用的更新 hh
agent 模式下模型可用 ask 工具,之前一直到切换到 plan 或者 debug 才能用
这是个数据库万能连接器的 MCP,可以使用支持 MCP 协议的工具(例如:Claude Desktop、Cherry Studio 等)直接连接你的数据库,用自然语言查询和分析数据。
自然语言查询 - 用中文描述需求,Claude 自动生成并执行 SQL
智能表结构理解 - 自动获取数据库 Schema,提供精准建议
多数据库支持 - MySQL、PostgreSQL、Redis 一键切换 (后续还会增加)
安全第一 - 默认只读模式,防止误操作删库
开箱即用 - 无需复杂配置,一行命令启动
以 MySQL 为例,有以下几个表数据:


只要是支持 MCP 协议的工具都可以使用,这里只介绍 Claude Desktop 和 Cherry Studio 的配置,配置都类似。
编辑 Claude Desktop 配置文件:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
添加以下配置:
{ "mcpServers": { "mysql-db": { "command": "npx", "args": [ "universal-db-mcp", "--type", "mysql", "--host", "localhost", "--port", "3306", "--user", "root", "--password", "your_password", "--database", "myapp_db" ] } } } { "mcpServers": { "mysql-dev": { "command": "npx", "args": [ "universal-db-mcp", "--type", "mysql", "--host", "localhost", "--port", "3306", "--user", "dev_user", "--password", "dev_password", "--database", "dev_database", "--danger-allow-write" ] } } } { "mcpServers": { "postgres-db": { "command": "npx", "args": [ "universal-db-mcp", "--type", "postgres", "--host", "localhost", "--port", "5432", "--user", "postgres", "--password", "your_password", "--database", "myapp" ] } } } { "mcpServers": { "postgres-prod": { "command": "npx", "args": [ "universal-db-mcp", "--type", "postgres", "--host", "db.example.com", "--port", "5432", "--user", "readonly_user", "--password", "secure_password", "--database", "production" ] } } } { "mcpServers": { "redis-cache": { "command": "npx", "args": [ "universal-db-mcp", "--type", "redis", "--host", "localhost", "--port", "6379" ] } } } { "mcpServers": { "redis-session": { "command": "npx", "args": [ "universal-db-mcp", "--type", "redis", "--host", "localhost", "--port", "6379", "--password", "redis_password", "--database", "1" ] } } } Claude 会自动调用数据库工具完成查询!
你可以在 Claude Desktop 中同时配置多个数据库连接:
{ "mcpServers": { "mysql-prod": { "command": "npx", "args": [ "universal-db-mcp", "--type", "mysql", "--host", "prod-db.example.com", "--port", "3306", "--user", "readonly", "--password", "prod_password", "--database", "production" ] }, "postgres-analytics": { "command": "npx", "args": [ "universal-db-mcp", "--type", "postgres", "--host", "analytics.example.com", "--port", "5432", "--user", "analyst", "--password", "analytics_password", "--database", "warehouse" ] }, "redis-cache": { "command": "npx", "args": [ "universal-db-mcp", "--type", "redis", "--host", "cache.example.com", "--port", "6379", "--password", "cache_password" ] } } } 重启 Claude Desktop 后,你可以在对话中指定使用哪个数据库:
universal-db-mcp
如果这个项目对你有帮助,请给个 Star 支持一下!
如果这个项目对你有帮助,请给个 Star 支持一下!
如果这个项目对你有帮助,请给个 Star 支持一下!
希望大家帮忙多多 star!!!
腾讯云基础资源包
轻量应用服务器 2C2G4M 1 个月
累计活跃 7 日再延长 2 个月
CloudBase 体验版 6 个月
另外邀请还有送其他东西。轻量应用服务器只有三个区可以续期,去年半年白嫖了一天轻量应用服务器 不过是东京的无法续期,可惜了
安装 Bybit App
在 googel play 中搜 Bybit 下载安装,或去官网下载,下载地址
注册
注册之前,节点请使用台湾节点,居住地选择台湾,若代理和居住地不一致,可能会出现当前 IP 受限无法注册,【补充说明:有佬友反馈,选择哈萨克斯坦也可以】
填写手机号或邮箱进行注册,支持 + 86 手机号。
输入邮箱或手机验证码进行验证,设置登录密码注册成功
身份认证
虚拟卡免费激活
主页右下角点击资产
注意:需要补充身份认证问卷:全选否,提交。
语言设置中文:点击头像 ===》左上角中间的设置按钮 -----》通用 -------》马来西亚
当你在电商平台搜索“苹果”,系统会推荐“水果”还是“手机”?或者直接跳到某个品牌旗舰店?短短一个词,背后承载了完全不同的购买意图。而推荐是否精准,直接影响用户的搜索体验,也影响平台的转化效率。 查询推荐(Query Suggestion)是现代电商搜索系统中的关键功能,通过在用户输入过程中实时推荐相关查询,帮助用户快速明确意图,提升搜索体验与转化效率。传统方法通常采用多阶段级联架构(MCA),虽然在效率与效果之间取得了一定平衡,但由于各阶段目标不一致、长尾查询召回困难等问题,限制了系统性能的进一步突破。 基于上述问题,快手在业界首次提出端到端的生成式统一查询推荐框架——OneSug,成功将召回、粗排、精排等多个阶段统一在一个生成模型中,显著提升了推荐效果与系统效率,在快手电商场景中实现了业务指标与用户体验的双重提升。 本工作相关成果《OneSug: The Unified End-to-End Generative Framework for E-commerce Query Suggestion》已被人工智能顶级会议 AAAI 2026 接收。 传统的查询推荐系统通常采用多阶段级联架构,依次进行召回、粗排和精排。虽然该架构在响应时间与转化率之间实现了一定平衡,但也带来了明显的局限性: 近年来,生成式检索(Generative Retrieval)因其强大的语义理解与生成能力,在推荐与搜索领域展现出巨大潜力。然而,现有方法多聚焦于视频推荐,其本质上是一个开集到开集的任务,难以直接应用于输入输出都是开放词表的的查询推荐场景。 针对上述问题,我们提出了 OneSug 模型,整体架构如上图所示,主要包括 3 个部分: 用户行为偏好对齐(User Preference Alignment) Sug 场景下,用户输入的前缀往往较短且意图模糊(如“苹果”可指水果或品牌)。为此,我们提出的解决方式分为 2 个部分。 OneSug 的生成架构基于 Enc-Dec 结构,并直接通过自回归(Autoregressive)方式生成用户最有可能点击的 Query。该模型的输入包含四个关键部分:用户当前输入前缀(如 “智能手机”)由 PRE 模块增强的相关查询序列(如 “智能手机性价比 2025”)用户历史行为序列(如过去搜索的 “蓝牙耳机”、“手机壳”等)用户画像信息。输出即为模型生成的 Query 列表(如 “智能手机推荐 2025”、“智能手机性价比排行”)。 我们首先对用户在搜索场景下的真实行为进行了精细化的分级,将其划分为六个明确的层次,并为每个层级赋予一个基础奖励权重λ: 奖励加权偏好优化传统的 DPO 使用<正样本, 负样本>对进行训练,但默认两者同等重要。这在业务场景中是不合理的,因为区分“点击”和“曝光”的难度远小于区分“点击”和“随机负样本”。RWR 的核心思想是:根据正负样本之间的奖励差距,为不同的样本对赋予不同的学习权重。 为了克服传统 Pairwise 范式的 DPO 在全局排序能力上的局限性,我们引入了一种混合排序框架。该框架将 listwise 范式的排序损失和 point-wise 范式的 sft loss 进行混合,使得模型既能获得高效的排序能力,同时避免 reward hacking 造成的生成能力下降。Pairwise 范式对齐模型,在包含多个负样本的候选中无法学习到“哪个是最好的”。 受 Plackett-Luce 模型启发,我们设计了 Listwise 排序损失,对于正样本,让模型同时拉大它与所有负样本的奖励差距,迫使模型不仅要知道正样本比负样本好,还要学会在负样本越多、越强的情况下,依然将正样本排在前面,从而直接优化列表的整体排序质量。论文中分别提出了基于 Pairwise 和 ListWise 范式的混合排序框架,同时在理论上证明了 Pairwise 范式的对齐模型是 ListWise 的特殊情况。 在快手电商场景的大规模数据集上,OneSug 在 HR@16 和 MRR@16 指标上均显著优于传统多阶段系统与生成式基线模型。论文中同时提到,OneSug 不仅适用于 Enc-Dec 结构的生成式模型,Decode-only 架构的模型同样适用,且具有更高的离线指标,因为现阶段的推理耗时约束暂时没有进行在线实验。 模型目前在快手电商搜索场景下全量推全,AB 实验大幅度提高了 Ctr、订单和 GMV 等指标,同时人工测评 GSB 指标也有很大幅度的提升。 线上流程完全取代了召回-粗排-精排,使平均耗时降低了 43.2%,为后续优化提供了充足的空间。 OneSug 是业界首个在电商场景中实现全流量部署的端到端生成式 Query 推荐系统,其统一建模方式显著提升了语义理解与个性化推荐的能力,为生成式模型在搜广推的落地提供了新的范式。 未来,我们将进一步探索大语言模型在排序阶段的强化学习优化、实时更新等方向,持续推动端到端生成式系统在推荐、广告等多业务场景中的广泛应用。
[🔮 论文链接]:https://arxiv.org/abs/2506.06913一、研究背景


二、方法简介:OneSug 的三大核心模块

2.1 Prefix-Query 表征增强模块
2.2 统一的 Enc-Dec 生成架构
2.3 用户行为偏好对齐(RWR)
2.3.1 用户偏好量化

为了进一步细致的调节样本权重,额外引入了调节因子r(xu,q)=λ⋅ctr,其中表示当前前缀下 query 的 ctr。2.3.2 混合排序框架
我们构建了九种类型的样本对(如 <Order, Show>, <Click, Rand>)。对于每一对样本,计算其奖励差异权重rwΔ:
2.3.3 混合排序框架

三、实验结果
3.1 离线效果

3.2 在线 A/BOneSug


3.3 在线推理

四、总结与展望