包含关键字 typecho 的文章

一、政务数据泄露的严峻形势与加密需求

近年来,政务数据泄露事件频发,其根源在于网络攻击手段的多样化、数据管理混乱以及技术依赖带来的系统漏洞。例如,某省级政务云平台因未部署SSL证书,在等保测评中被扣分,暴露出数据传输环节的明文传输风险;某市电子政务系统因长期未更新补丁,导致黑客利用漏洞窃取大量公民信息。这些案例表明,政务数据在传输和存储过程中面临多重威胁:

  • 传输环节:明文传输易被中间人攻击截获,黑客可通过Wireshark等工具直接获取数据内容;
  • 存储环节:未加密存储的敏感数据可能因设备丢失、内部人员越权访问或第三方机构违规使用而泄露。


在此背景下,国密SSL证书凭借其自主可控的密码算法体系,成为政务数据全链路加密的核心工具。其通过SM2非对称加密、SM3哈希算法和SM4对称加密的协同工作,实现了从数据生成到使用的全生命周期保护。

二、国密SSL证书的技术原理与核心优势

1. 自主可控的密码算法体系

国密SSL证书基于国家密码管理局发布的SM2/SM3/SM4算法标准:

  • SM2算法:采用椭圆曲线密码学,256位密钥强度等同于RSA 3072位,但计算效率提升40%,适合移动端和物联网设备;
  • SM3算法:抗碰撞性优于SHA-256,用于生成数据指纹,确保传输内容未被篡改;
  • SM4算法:分组加密速度优于AES-256,在移动端的性能损耗低于3%,支持实时加密大量数据。

2. 全链路加密的实现机制

国密SSL证书通过“非对称加密+对称加密”的混合模式,构建安全传输通道:

  • 传输阶段

    1. 证书验证:服务器向客户端发送国密SSL证书,客户端验证证书合法性(如是否由受信任CA机构签发);
    2. 密钥协商:客户端生成SM4对称密钥,用服务器SM2公钥加密后传输,双方使用该密钥加密后续通信;
    3. 数据加密:邮件正文、附件及元数据通过SM4算法加密,即使传输流量被截获,攻击者也无法解密。
  • 存储阶段

    1. 静态数据加密:采用SM4算法对存储在数据库或文件系统中的敏感数据进行加密,密钥由硬件安全模块(HSM)管理;
    2. 动态脱敏:在数据查询或展示时,通过SM3算法生成临时脱敏规则,防止内部人员直接接触原始数据。

3. 兼容性与性能优化

针对政务系统的复杂环境,国密SSL证书提供以下解决方案:

  • 双证书自适应:支持“国密+RSA”双证书部署,当用户使用360安全浏览器、奇安信可信浏览器等支持国密的浏览器时,自动启用SM2算法;使用Chrome、Firefox等国际浏览器时,回退至RSA算法,确保无缝兼容;
  • 轻量化设计:SM2算法的短密钥特性降低计算功耗,SM4的快速加密能力使移动政务APP的响应时间控制在200ms以内,用户无感知安全防护;
  • 国产化生态融合:与麒麟、统信UOS等国产操作系统,以及达梦、人大金仓等国产数据库深度整合,推动政务系统从“可用”到“好用”的国产化替代。

三、JoySSL在政务全链路加密中的实践与案例

1. 技术架构与部署方案

JoySSL作为国内自主品牌SSL证书提供商,其国密证书解决方案包含以下核心组件:

  • 证书签发系统:基于国内服务器验签,数据不出境,支持单域名、多域名、通配符及IP地址证书的快速签发;
  • 密钥管理系统:提供硬件安全模块(HSM)集成方案,支持SM2密钥的生成、存储和销毁全生命周期管理;
  • 监控预警平台:实时监测证书有效期、密钥使用情况及攻击尝试,提前30天预警证书到期风险。

2. 典型应用场景

场景1:省级政务云平台改造

某省级政务云平台将邮件系统改造为SM2+SM4组合加密,实现以下效果:

  • 传输安全:POP3协议切换至加密端口995,所有邮件数据以密文形式传输,攻击成本提升至少10万倍;
  • 存储安全:通过SM4算法加密存储的附件和元数据,即使数据库备份泄露,攻击者也无法解密内容;
  • 成本优化:年节省密码服务采购费用超千万元,同时满足等保三级测评要求。

场景2:市级电子政务外网安全升级

某市电子政务外网采用JoySSL国密SSL证书后,实现:

  • 身份认证强化:通过SM2算法验证服务器合法性,将钓鱼攻击拦截率提升至99.97%;
  • 数据完整性保护:SM3算法生成的哈希值用于标记操作日志来源,确保纠纷处理中提供不可篡改的证据链;
  • 合规性提升:通过商用密码应用安全性评估(密评),避免因不符合国密要求而导致的整改风险。

四、未来展望:国密SSL证书的生态化发展

随着《密码法》的深入实施和等保2.0的全面落地,国密SSL证书将成为政务系统的“标配安全组件”。其发展趋势包括:

  • 政策驱动与市场扩容:预计到2027年,国密SSL证书在政务领域的覆盖率将超过80%,市场规模突破50亿元;
  • 技术融合与创新:与量子加密、零信任架构结合,构建下一代安全通信体系。例如,SM2算法的抗量子计算能力优于RSA,是应对未来量子威胁的“战略选择”;
  • 国际标准化推进:我国正推动SM算法纳入ISO/IEC国际标准,未来国密SSL证书有望实现全球互认,为跨境政务服务提供安全保障。

五、结语

政务数据泄露风险已从技术问题升级为关乎国家安全、社会稳定和公民权益的战略问题。国密SSL证书通过自主可控的密码技术,为政务数据构建了“传输-存储”全链路加密体系,其技术先进性、合规强制性和场景适配性,使其成为政务系统安全改造的“刚需”。以JoySSL为代表的国内证书服务商,正通过持续创新和生态建设,推动国密技术从基础防护向业务创新延伸,为数字政务的高质量发展筑牢安全底座。

OpenAI 详细介绍了一种称为 Harness Engineering 的全新内部工程方法论,利用 AI 智能体来驱动软件开发生命周期的关键环节。该系统基于 Codex(一套 AI 智能体套件),根据工程师定义的声明式提示词执行编写代码、生成测试和管理可观测性等任务。Harness 实现了工作流程的标准化,降低了对人工编写脚本与定制化工具的依赖。

OpenAI 技术人员 Ryan Lopopolo 表示:

我们构建 Harness 的目的是为大规模 AI 任务提供统一、可靠的运行方式,让团队能够专注于研究与产品开发,而非基础设施编排。

在为期五个月的内部实验中,OpenAI 工程师构建并交付了一个包含约一百万行代码的测试版产品,且全程未手动编写任何源代码。一个小型工程师团队通过拉取请求与持续集成工作流引导智能体,工作内容涵盖应用逻辑、文档、CI 配置、可观测性配置及工具链。工程师仅提供提示词与反馈,由 Codex 智能体自主迭代完成各项任务,包括复现缺陷、给出修复方案并验证结果。

Codex 智能体驱动的应用测试与反馈(来源:OpenAI 博客文章

Harness Engineering 将人类工程师的工作重心从代码实现,转移到设计环境、明确意图与提供结构化反馈上。Codex 可直接与开发工具交互,创建拉取请求、评估变更,并持续迭代直至满足任务标准。智能体利用日志、指标、链路追踪等遥测数据监控应用性能,并在隔离的开发环境中复现缺陷。

Codex 智能体的可观测性与遥测工作流(来源:OpenAI 博客文章

内部文档以结构化形式组织在文档目录中,包含架构图谱、执行计划与设计规范,这些文档是智能体的唯一事实来源。交叉关联的设计与架构文档通过代码检查工具和 CI 验证进行强制校验,保证了一致性,同时减少了人工监督的需求。

OpenAI 通过机械规则与结构测试在跨领域场景中强制约束架构边界与依赖层级。依赖按照 Types → Config → Repo → Service → Runtime → UI 的顺序流转,智能体被限定在这些层级内运行。结构测试用于验证合规性,并防止模块化分层被破坏。

Thoughtworks 技术专家 Martin Fowler 在 LinkedIn 帖子 中提到:

Harness Engineering 是对 AI 赋能软件开发关键部分的一种有价值的框架性阐述。Harness 包含了上下文工程、架构约束和垃圾回收。

OpenAI 报告指出,Harness 将脚手架、反馈循环、文档与架构约束编码为机器可读产物,Codex 智能体借助这些产物,在代码生成、测试及可观测性等开发流程中执行任务。

原文链接:

https://www.infoq.com/news/2026/02/openai-harness-engineering-codex/

起因是之前刷推刷到一条打折消息,一番倒腾就把片子买了,发现虽然能在线播放

但是下载比较麻烦,也不是原视频文件

网上也没有搜索到新的解决方案,于是自己折腾了一下,终于把原片下载到电脑了😊顺便也把整个过程整合为了一个 Chrome 插件,地址:dmm-download-helper

里面包含详细的介绍和使用方式,特性如下:

  • 获取 & 复制 MPD 链接、ClearKey 信息、原解密信息
  • 一键复制 N_m3u8DL-RE 下载命令(需要自行安装对应软件)
  • 自动记录视频清晰度
  • 切换视频清晰度时,自动以新会话的形式,更新最新的 MPD 链接、ClearKey 信息和下载命令

演示视频如下:视频标题

过程中学习了下列项目,也是非常有趣:

最后,欢迎试用、留言反馈和 Github Star,如果刚好能帮到你,就再好不过🥰

image
谷歌插件商店 GitHub


功能

给任意网站(可指定域名)添加自定义的 css 层叠样式表

用法示例

叠甲:此行为不鼓励,只供学习探讨

  1. xx 网站去水印
    在逛某个设备参数网的时候发现有个全局的水印,看着很不舒服
    打开控制台,选中元素,发现是一张、<img>标签引入的图片,直接用选择器选中该图片display: none
    (别学,可能有点刑?我只为了看得舒服,不截取转发数据)
  2. 试着给 2Libra 移除“今日热议”列表的头像框
    心血来潮想让“今日热议”列表更简约一点,用 css 把头像去掉
    由于没有标志性的类名,只能这样定位
    复制
    div[data-right-sidebar="true"] > div:nth-child(2) {
        /*普通头像*/
        div:has(> img) {
            display: none
        }
        /*svg 头像*/
        div:has(> svg) {
            display: none
        }
        /*动图的头像,被加了一层 canvas*/
        div:has(> div > canvas) {
            display: none
        }
    }

    大致效果:
    image
    3. 临时修复一些网站的样式问题
    image
    4. 其他用法你可以发挥想像力,比如改变边框线条粗细,改变左右布局、固定用户信息卡片,简单屏蔽一些低级广告等等
    (Jimmy 会不会揍我,精心设计的排版被我改得面目全非)


话说,这个应该选前端节点还是浏览器扩展节点,好难受,都想要

飞机上的景色,连接青海与甘肃的大地

喀什随手拍

木吉乡火山与十八罗汉峰

慕士塔格峰与冰川

路边随手拍


总行程包含往返日一共 7 天,稍稍有点赶,但核心景色已经体验了 7788.都说北疆看风景,南疆看人文,但这次旅程下来南疆的景色也让我刮目相看

最近在主导重构团队的市场异动监控系统时,我反复在一个痛点上卡壳:业务逻辑跑得很完美,但偏偏总是因为数据接入端的脆弱而导致整条链路瘫痪。之前为了图快,项目里充斥着大量的网页端暴力抓取代码,或者是定时去拉取滞后的 CSV 静态表单。这种原始的交互方式,不仅响应速度根本跟不上高频的市场节奏,维护成本也极其高昂。在彻底推翻了旧架构并引入了专业的直连数据流之后,我才终于体会到了让数据如流水般稳定涌入系统的畅快感。

在后端架构设计的范畴里,“系统的高容错率与可用性”永远是一切业务展开的绝对先决条件。

曾几何时,我也在开发中陷入过误区,把大量的计算资源倾注于生成复杂的趋势分析图表和多维聚合大屏上。但实盘跑起来后,现实给了我沉重一击:一旦最底层的实时行情、买卖盘口或者资金流向数据出现了网络阻塞或部分字段丢包,建立在此基础上的任何高级告警策略都会瞬间失效,甚至发出完全相反的错误指令。
为了彻底根治这个顽疾,我在新版框架的中间件层强制注入了两项防御性规范:
第一,所有对外部数据源的拉取动作,必须包裹在最严格的异常捕获作用域内。网络抖动不可避免,但我们的核心守护进程绝不能因为一次 Timeout 就发生主线程崩溃。
第二,在反序列化阶段实施极其严苛的字段级完整性校验。无论是当前的搓合价、瞬时成交量还是振幅区间,但凡出现 None 值或类型不匹配,立刻触发降级策略直接丢弃该记录,坚决杜绝脏数据污染下游的业务池。这些处理看似增加了代码的冗余度,但在复杂的网络交互中,它们是保证数据链路长久存活的核心屏障。

落实到代码编排上,如何安全、高效地把外部的 JSON 数据流转化为系统内部的实例对象,是这套架构的重中之重。在这次重构中,我剥离出了这样一个极其精简的访问器逻辑:


import time
from alltick import AllTickAPI

client = AllTickAPI(api_key="你的API_KEY")

def get_stock_quotes(symbol):
    try:
        response = client.market.quotes(symbols=symbol)
        if response and response.get("data"):
            return response["data"]
        else:
            print(f"{symbol} 未返回行情数据")
            return None
    except Exception as e:
        print(f"获取行情异常: {e}")
        return None

quotes = get_stock_quotes("AAPL")
if quotes:
    print(f"AAPL 最新价: {quotes[0]['last_price']}")

这段逻辑的工程美学在于它的“边界感”。它专职负责将云端的最新快照安全拽回本地内存,并利用严密的 try-except 体系将所有潜在的 I/O 风险消化在了函数作用域内部,从而为整个异步监控体系奠定了一块坚如磐石的基石。

当干净的数据流蓄势待发,我们面临的下一个课题就是如何最大化地压榨这些数据的业务价值。在目前的微服务体系中,这些数据主要在两个核心处理器中流转:

首当其冲的是低延迟的事件触发机制。当关键标的的价格波动触及了我们写入配置中心的阈值红线时,系统必须做出无缝响应:

if quotes and quotes[0]["last_price"] >= 150:
    print("AAPL 价格突破 150 美元,需要关注")

这种完全解耦的推送机制,彻底取代了早期人工低效的网页轮询,确保了每一次关键波动都能被系统级捕捉。

其次,则是用于长周期维度下的技术因子提纯。我们会将拉取到的连续时间轴片段进行二次聚合,在内存中演算出均线等平滑指标,为后续的趋势判断提供参考系:

history_data = get_stock_quotes("AAPL")  # 假设返回多条历史报价
ma_10 = sum([item["last_price"] for item in history_data[-10:]]) / 10
print(f"10日均价: {ma_10}")

虽然算法层面并不复杂,但它能有效地过滤掉高频的杂讯,让原本晦涩难懂的原始报文变得具备统计学意义的“可读性”,这对系统投研模块的支撑是无可替代的。

在长期的重构与迭代中,我也逐渐沉淀了几条系统优化的最佳实践:比如必须引入漏桶或令牌桶机制来精确控制出网的请求频控,既保障了时效性又避免了被服务端主动熔断;要求将所有抓取失败的上下文详细记录至 ELK 堆栈中,方便后期针对性排查网络瓶颈;同时在工厂模式的设计下,确保底层的拉取逻辑拥有足够的柔性,以应对未来随时可能扩增的指数或行业板块等新维度的接入。

回首这次重构,我越来越意识到,能够找到一个诸如 AllTick 这样极其靠谱的数据服务提供商,并运用严谨的系统工程化思维将庞杂的市场动向转换为机器可以理解的语言,这才是任何一个金融开发项目中最具护城河价值的环节。

摘要:
混合检索通过融合向量检索、稀疏检索和全文检索三种模态,克服单一检索方式的语义或关键词盲区,提升召回率与精确度。OceanBase推出的AI原生搜索数据库seekdb支持单次查询同时调用三种模态,并提供内置加权融合机制及预设搜索模式。配合Agentic RAG动态选择策略,提升召回与精度。

  1. 从 Corrective RAG 到多模态检索

Corrective RAG(CRAG),通过文档评分和托底机制来提升 RAG 系统的可靠性,主要解决检索结果的质量验证问题。但在检索环节本身,传统 RAG 系统还存在一个根本性的问题:单一检索方式的盲区。

本章将解决这个问题:如何通过混合检索(Hybrid Search)结合多种检索方式,提升检索的召回率和精确度。

  1. 为什么需要混合检索?

2.1 什么是混合检索?

混合检索(Hybrid Search)是一种结合向量检索、稀疏检索、全文检索三种模态,通过加权分数融合来提升检索效果的技术。它通过让不同检索方式互补,克服单一检索方式的盲区,从而提高召回率和精确度。

2.2 单一检索方式的问题

我们先来看看单靠一种检索方式会遇到什么问题。

向量检索的盲区:

向量检索擅长理解语义和概念,但它会遗漏精确的关键词。比如你搜索 “GAAP” 或 “Q3 2023” 这样的专有名词,向量检索可能会返回一些概念相似但实际不相关的结果。还有一个问题是过度泛化——它可能返回概念上相似,但实际上答非所问的文档。

关键词检索的盲区:

关键词检索擅长匹配精确的术语,但它不理解语义。比如你搜索 “machine learning”,它找不到包含 “AI” 的文档;你搜索 “revenue”,它找不到包含 “earnings” 或 “income” 的内容。这就是语义盲区的问题。

问题的本质在于:向量检索会遗漏关键词,关键词检索会遗漏语义——每种方法都有自己的盲区。

2.3 混合检索:融合三种模态

混合检索的思路是:既然单一方法都有盲区,那就把它们组合起来。具体来说,混合检索结合了三种互补的检索方式:

三种检索方式各有侧重:

Vector Search (向量检索) → 理解语义相似度
Sparse Search (稀疏检索) → 匹配关键词和同义词
Full-text Search (全文检索) → 精确短语匹配

2.4 Hybrid RAG vs Corrective RAG

混合检索和纠错机制解决的是不同阶段的问题:

这两种技术可以完美配合:用混合检索提升检索质量,再用 Corrective RAG 进行质量验证。

  1. 三种检索模态详解

理解了混合检索的必要性后,我们来深入了解构成混合检索的三种核心模态。

3.1 向量检索(Vector Search)

向量检索通过将文本转换为稠密向量(Dense Embeddings,通常 768-1536 维),然后使用余弦相似度测量向量之间的角度,返回语义上最相似的文档。

它的优势在于理解概念和语义关系,能够处理释义和同义表达。但它无法精确匹配特定术语,比如 “GAAP” 或 “SKU-12345” 这样的专有名词。

适用场景:概念性查询,比如 “What causes inflation?”

3.2 稀疏检索(Sparse Search)

稀疏检索使用 TF-IDF(词频-逆文档频率)提取关键词,可以在词汇表内扩展同义词,基于关键词权重进行匹配(不是精确字符串匹配)。

TF-IDF 的原理是:Term Frequency × Inverse Document Frequency——在整个文档集中越罕见的词获得越高的权重。

稀疏检索的优势是能够匹配相关术语,比如 revenue、earnings、income 这些同义词,而且不需要嵌入模型。但它受词汇表维度限制,难以处理稀有专有名词。

典型应用场景:工具选择(Tool Selection)

稀疏检索在混合检索中发挥关键词匹配作用,特别在工具选择、术语敏感查询(如专有名词、技术缩写)中表现优异。

3.3 全文检索(Full-text Search)

全文检索通过构建带分词的倒排索引(Inverted Index),应用 BM25 评分算法(改进的 TF-IDF,加入了文档长度归一化),返回精确短语匹配的结果。

BM25 是 TF-IDF 的改进版本,它加入了文档长度归一化,避免长文档获得不公平的高分。

全文检索的优势是能够精确匹配短语(如 “Item 1A Risk Factors”),处理稀有专有名词,支持精确章节定位。但它无法处理拼写错误或变体,也不理解语义关系。

适用场景:精确章节查找,比如 “查找第 10-K 报告的风险因素章节”

3.4 三种模态的选择

没有单一模态是最好的,关键是根据查询模式组合使用:

  1. seekdb:AI 原生的搜索数据库

4.1 seekdb 是什么?

seekdb 是 OceanBase 推出的 AI 原生搜索数据库,它将向量存储、关系数据、全文搜索整合到一个统一的平台中。传统方案需要使用专门的向量数据库,会带来额外的运维成本和系统复杂度,seekdb 通过统一的多模型引擎解决了这个问题。

4.2 seekdb 的核心优势

4.3 为什么选择 seekdb 实现混合检索?

单次查询就能调用 3 种模态,无需调用外部服务
原生加权融合,内置 RRF 和线性组合算法
自动索引同步,向量、稀疏、BM25 索引自动维护
MySQL 协议,兼容现有工具和驱动
可以无缝迁移到 OceanBase 集群

  1. 实战:实现混合检索

5.1 准备环境:

加载 embedding 模型

配置 OceanBase 连接

5.2 加载文档

首先加载源文档演示混合搜索。

5.3 初始化混合存储

启用三种搜索模式:

1密集向量:通过嵌入实现语义相似性

2稀疏向量:通过 TF-IDF 加权计算关键词重要性

3全文检索:精确短语和关键词匹配

5.4 生成稀疏向量

稀疏向量使用 TF-IDF(词频-逆文档频率)来表示关键词的重要性。

词频(TF):一个词在文档中出现的频率逆文档频率(IDF):一个词在语料库中出现的稀有度或重要性

基于词汇:直接将词映射到索引(无哈希冲突)

我们将构建一个自定义的 TF-IDF 编码器,使其能够在 OceanBase 的 50 万维度限制内工作。

5.5 准备全文内容

全文搜索需要独立的索引内容。我们将通过元数据增强页面内容

5.6 添加包含三种模态的文档

将文档存储到向量数据库,并建立三种索引。

5.7 测试各个模态

分别测试三种检索方式,对比搜索结果。

每种模态返回不同的结果——向量检索找到语义相关的内容,稀疏检索找到关键词匹配,全文检索找到精确短语。

5.7.1 向量搜索

5.7.2 稀疏向量搜索(关键词匹配)

5.7.3 全文检索(精确匹配)

  1. 高级混合检索

在前面的步骤中,我们已经启用了三种检索模态并分别测试了它们的效果。现在的问题是:如何将这三种检索方式有效地组合起来?

这就是高级混合检索要解决的核心问题:通过加权分数融合,自动组合多种检索模态,获得比单一模态更好的检索效果。

6.1 内置分数融合机制

OceanBase 提供了 advanced_hybrid_search() 方法,可以自动组合三种模态的检索结果。

工作原理:

并行执行三种检索 - 同时运行向量检索、稀疏检索、全文检索
分数归一化 - 将每种模态的分数标准化到 0-1 范围
加权融合 - 应用权重公式:final_score = w₁×vector + w₂×sparse + w₃×fulltext
排序返回 - 按融合后的分数排序,返回 Top-K 结果
所有的分数归一化和融合逻辑都在 seekdb 内部自动完成,开发者只需要关注权重配置即可。搜索模式预设

6.1.1 搜索模式预设

不同类型的查询需要不同的权重配置。我们可以定义几种常用的搜索模式:

Balanced(平衡模式)

适合通用查询,比如 “Nike business in 2023”。权重配置:Vector 40%、Sparse 30%、Fulltext 30%。

Semantic(语义模式)

适合概念理解,比如 “What is Nike‘s strategy?”。权重配置:Vector 70%、Sparse 20%、Fulltext 10%。

Keyword(关键词模式)

适合特定术语、数字查询,比如 “Nike earnings2023”。权重配置:Vector 20%、Sparse 60%、Fulltext 20%。

Exact(精确模式)

适合法律文本、章节查找,比如 “Item 1A Risk Factors”。权重配置:Vector 10%、Sparse 20%、Fulltext 70%。

6.2 权重调优建议

从平衡模式开始 - 在不确定时使用 40/30/30 作为基准
根据业务场景调整 - 分析实际查询日志,找出主要查询类型
A/B 测试验证 - 对比不同权重配置的检索效果
允许动态调整 - 不同查询可以使用不同的权重配置

6.3 融合算法选择

除了线性加权组合,seekdb 还支持其他融合算法:

线性组合(Linear Combination) - 加权平均,适合大多数场景
RRF(Reciprocal Rank Fusion) - 基于排名融合,对分数尺度不敏感
最大值融合 - 取各模态的最高分,适合“或”逻辑
推荐做法:先使用线性组合,如果效果不理想再尝试 RRF。

💡 扩展知识:本节提到的 RRF 和最大值融合是常见的融合算法,seekdb 支持多种融合策略。具体 API 请参考官方文档。

  1. Agentic Hybrid RAG:让 Agent 选择最优策略

7.1 为什么结合 Agentic + Hybrid Search?

将智能决策和多模态检索结合,可以获得两者的最佳效果。

仅混合检索的特点:多模态(V+S+F)、更好的召回,但权重固定、总是执行检索。

Agentic + 混合检索的特点:动态搜索模式、多步推理、在不需要时跳过检索、多次搜索结果综合。

核心价值在于:Agentic RAG + Hybrid Search = 智能决策 + 多模态检索。

7.2 定义带动态搜索模式的工具

创建一个让 Agent 选择最佳搜索策略的工具。

可用的搜索模式:

balanced(通用场景 40/30/30)
semantic(概念和语义 70/20/10)
keyword(关键词查询 20/60/20)
exact(精确短语 10/20/70)
Agent 会分析查询并自动选择最佳模式。

7.3 使用 LangChain 创建 Agent

构建一个能够动态使用混合检索的智能 Agent。

Agent 能力:在搜索前分析查询类型、选择最优搜索模式、对复杂问题进行多步搜索、将结果综合为连贯的答案。系统提示词指导 Agent 何时使用每种搜索模式。

进阶提示:让 Agent 输出自定义权重(如 0.5/0.3/0.2),而不是预设名称,以获得更精细的控制。

7.4 Agent 实战示例

观察 Agent 如何动态选择搜索策略。

财务数据查询:

用户:“Nike revenue fiscal 2023?” → Agent 分析 → search_mode=“keyword”,理由:使用关键词模式查找特定数字。

战略问题:

用户:“What is Nike‘s innovation approach?” → Agent 分析 → search_mode=“semantic”,理由:使用语义模式理解概念。

章节查找:

用户:“Find Item 1A Risk Factors” → Agent 分析 → search_mode=“exact”,理由:使用精确模式进行精准匹配。

关键优势:Agent 根据查询分析智能选择搜索策略——无需手动调优。

  1. 核心要点总结

8.1 三种模态

Vector(向量检索)→ 语义理解
Sparse(稀疏检索)→ 关键词 + 同义词扩展
Fulltext(全文检索)→ 精确短语

8.2 加权融合

四种预设模式:balanced / semantic / keyword / exact
支持自定义权重组合模态
根据你的领域调优权重

8.3 Agentic 方法

让 Agent 选择搜索策略
每个查询的动态模式选择
复杂问答的多步搜索

8.4 seekdb by OceanBase

原生混合检索支持
单次查询 → 3 种模态
轻松迁移到 OceanBase 集群

8.5 实践建议

从平衡模式开始:在不确定查询类型时使用 40/30/30 权重
让 Agent 做决策:通过系统提示词指导 Agent 选择搜索模式
迭代调优:根据实际查询日志调整权重预设
组合使用技术:混合检索 + Corrective RAG = 更强大的系统

  1. 总结

在本章中,我们深入理解了混合检索(Hybrid Search)的多模态融合机制,学习了如何结合向量检索、稀疏检索和全文检索三种模态,并使用 seekdb 构建了完整的 Agentic Hybrid RAG 系统。让我们一起探索 Agentic RAG 和混合检索的更多可能性!

随着企业数据安全与自主可控需求持续提升,本地化部署已成为中大型组织选型项目管理软件的核心考量。本次测评聚焦2026年主流企业级产品,筛选10款支持私有化部署、性能稳定、适配多行业场景的工具,全程保持中立客观,为企业选型提供专业参考,文末有对比表格

一、测评核心维度说明

本次测评围绕企业真实使用场景,从部署与安全、功能完整性、易用性、扩展与集成四大维度展开,兼顾技术团队、传统行业、政企单位等不同需求,突出本地化部署的数据可控、内网可用、高并发稳定三大核心价值。

二、10大高性能本地化部署项目管理软件介绍

1. 禅道

核心定位:国产开源+商业双模式,研发项目全生命周期管理标杆

  • 部署与安全:支持Windows/Linux私有化部署,兼容鲲鹏、麒麟等信创环境,满足等保2.0要求。
  • 功能亮点:覆盖需求、任务、用例、缺陷、文档、统计全流程,敏捷与瀑布模式双支持,内置CMMI过程管理。
  • 易用性:中文原生界面,操作逻辑贴合国内团队习惯,开源版可免费使用。
  • 扩展集成:提供开放API,可对接Git、Jenkins、LDAP等系统,适合研发团队深度使用。

2. Jira Software(Data Center)

核心定位:全球领先的企业级敏捷研发管理平台

  • 部署与安全:数据中心版支持本地化部署,高可用集群架构,权限与审计体系完善。
  • 功能亮点:Scrum、Kanban、混合模式成熟,自定义工作流与字段能力极强。
  • 易用性:界面专业,学习成本中等,适合有一定规模的技术团队。
  • 扩展集成:生态插件丰富,无缝对接DevOps工具链,适配大型研发组织。

3. Microsoft Project Server

核心定位:经典项目组合管理(PPM)工具,微软生态深度集成

  • 部署与安全:Windows Server本地化部署,与AD域、Exchange、SharePoint无缝打通。
  • 功能亮点:甘特图、资源平衡、关键路径、项目组合分析能力行业领先。
  • 易用性:界面符合Office操作习惯,适合传统项目、工程、制造行业。
  • 扩展集成:微软全系生态适配,适合已采用微软技术栈的企业。

4. OpenProject

核心定位:开源免费、功能全面的国际化本地化项目管理系统

  • 部署与安全:开源内核,支持Docker一键本地部署,数据完全自主掌控。
  • 功能亮点:支持敏捷、瀑布、多项目管理,包含时间跟踪、预算、文档协同。
  • 易用性:界面简洁,社区版功能完整,无用户数限制。
  • 扩展集成:开放API,支持二次开发,适合预算有限、注重开源的团队。

5. Redmine

核心定位:轻量开源问题跟踪与项目管理经典工具

  • 部署与安全:Ruby环境搭建,支持Linux/Windows本地部署,插件化架构稳定。
  • 功能亮点:多项目、问题跟踪、甘特图、Wiki、自定义字段齐全。
  • 易用性:轻量化界面,响应速度快,适合中小团队。
  • 扩展集成:插件生态成熟,可通过插件扩展报表、工时、测试管理等能力。

6. 用友U8 Cloud项目管理

核心定位:业财一体本地化项目管理,适合制造与商贸企业

  • 部署与安全:支持私有部署与内网隔离,数据与财务、供应链统一管理。
  • 功能亮点:项目合同、成本、预算、物资、收款闭环管理,消除信息孤岛。
  • 易用性:流程贴合国内企业管理规范,实施成熟度高。
  • 扩展集成:深度对接用友ERP体系,适合以财务与成本管控为核心的组织。

7. 泛微项目管理

核心定位:协同办公+项目管理一体化,政企与服务行业优选

  • 部署与安全:本地化部署,支持流程审批、公文、项目一体化管控。
  • 功能亮点:项目流程可自定义,与OA、合同、费控无缝融合。
  • 易用性:界面轻量化,审批流友好,适合政企、咨询、服务行业。
  • 扩展集成:低代码平台支撑,可快速适配内部管理流程。

8. ONES(私有部署版)

核心定位:企业级研发项目管理,全流程效能管理

  • 部署与安全:支持私有化部署与集群扩容,满足高并发研发场景。
  • 功能亮点:需求规划、迭代管理、测试管理、效能分析一体化。
  • 易用性:现代UI设计,移动端完善,适合互联网与科技企业。
  • 扩展集成:CI/CD、代码库、知识库全面对接,支持大型研发团队管理。

9. 广联达项目管理

核心定位:工程建设行业垂直领域本地化项目管理

  • 部署与安全:支持企业内网部署,适配工程行业数据安全规范。
  • 功能亮点:进度、成本、质量、安全、资料、现场一体化管理。
  • 易用性:流程贴合建筑工程场景,行业模板丰富。
  • 扩展集成:对接BIM、造价、物资系统,工程建筑行业专用。

10. Zoho Projects(Enterprise)

核心定位:高性价比国际化企业级项目管理,轻量私有化

  • 部署与安全:支持私有服务器部署,数据加密存储,权限体系精细。
  • 功能亮点:任务、甘特图、文档、工时、报表齐全,轻量化无负担。
  • 易用性:界面简洁,上手快,适合跨区域中小团队。
  • 扩展集成:对接Zoho全系产品,API开放,支持轻量定制。

三、选型建议总结

  1. 研发团队优先:禅道、Jira、ONES,覆盖敏捷与DevOps全流程。
  2. 传统/工程行业:Microsoft Project、广联达、用友,贴合业务与成本管控。
  3. 预算有限/开源偏好:OpenProject、Redmine,免费可用、扩展灵活。
  4. 政企/协同需求:泛微,流程审批与项目一体化,适配内网环境。
  5. 轻量国际化:Zoho Projects,部署简单、性价比高。

四、结语

2026年本地化部署项目管理软件已形成国产成熟、国际稳定、行业垂直的多元格局。企业选型应优先匹配行业属性、团队规模、安全合规、集成需求四大关键点,在保证数据自主可控的前提下,提升项目交付效率与管理透明度。

五、本次表格基于前文测评内容整理,方便企业快速选型参考。

序号产品名称核心定位部署方式核心优势适用行业/团队核心功能亮点
1禅道国产开源+商业双模式,研发项目全生命周期管理标杆支持Windows/Linux私有化部署,兼容鲲鹏、麒麟等信创环境中文原生界面,贴合国内团队习惯;开源版免费,商业版功能完善;满足等保2.0要求研发团队、中大型企业、信创需求企业覆盖需求、任务、用例、缺陷全流程;敏捷与瀑布双模式;对接Git、Jenkins等工具
2Jira Software(Data Center)全球领先的企业级敏捷研发管理平台数据中心版本地化部署,支持高可用集群架构工作流与字段自定义能力极强;生态插件丰富;适配高并发研发场景中大型技术团队、互联网企业、跨国研发组织Scrum、Kanban、混合模式成熟;DevOps工具链无缝对接;权限与审计体系完善
3Microsoft Project Server经典项目组合管理(PPM)工具,微软生态深度集成Windows Server本地化部署,与微软全系产品无缝打通甘特图、资源平衡、项目组合分析能力领先;贴合Office操作习惯传统项目、工程、制造行业,已采用微软技术栈的企业关键路径管理、预算管控、资源调度;与AD域、SharePoint集成
4OpenProject开源免费、功能全面的国际化本地化项目管理系统开源内核,支持Docker一键本地部署,数据完全自主掌控开源免费,无用户数限制;功能全面,支持多项目管理;可二次开发预算有限团队、开源偏好企业、中小规模组织敏捷与瀑布模式支持;时间跟踪、预算管理、文档协同一体化
5Redmine轻量开源问题跟踪与项目管理经典工具Ruby环境搭建,支持Linux/Windows本地部署,插件化架构稳定轻量化,响应速度快;插件生态成熟;部署简单,维护成本低中小团队、初创企业、注重轻量化管理的组织多项目管理、问题跟踪、甘特图、Wiki、自定义字段齐全
6用友U8 Cloud项目管理业财一体本地化项目管理,适合制造与商贸企业支持私有部署与内网隔离,与用友ERP体系深度对接业财融合,消除信息孤岛;实施成熟度高,贴合国内企业管理规范制造、商贸企业,以财务与成本管控为核心的组织项目合同、成本、预算、物资、收款闭环管理;对接财务、供应链系统
7泛微项目管理协同办公+项目管理一体化,政企与服务行业优选本地化部署,支持流程审批、公文、项目一体化管控与OA、合同、费控无缝融合;低代码平台支撑,适配性强政企单位、咨询、服务行业,注重协同办公的组织项目流程可自定义;审批流友好;一体化协同管控能力突出
8ONES(私有部署版)企业级研发项目管理,全流程效能管理支持私有化部署与集群扩容,满足高并发研发场景全流程研发管理;现代UI设计,移动端完善;效能分析能力强互联网企业、科技公司、大型研发团队需求规划、迭代管理、测试管理、效能分析一体化;对接CI/CD工具链
9广联达项目管理工程建设行业垂直领域本地化项目管理支持企业内网部署,适配工程行业数据安全规范行业针对性强,模板丰富;贴合工程现场管理需求建筑、工程建设行业,工程施工企业进度、成本、质量、安全、资料、现场一体化管理;对接BIM、造价系统
10Zoho Projects(Enterprise)高性价比国际化企业级项目管理,轻量私有化支持私有服务器部署,数据加密存储轻量化无负担,上手快;性价比高;对接Zoho全系产品跨区域中小团队、国际化业务企业、轻量管理需求组织任务、甘特图、文档、工时、报表齐全;API开放,支持轻量定制

开工第一天,邮箱里堆满了各种"新年快乐+促销信息"的模板邮件。你扫了一眼,默默点了"标记为已读"——这大概是大多数人对开工季营销的真实反应。邮件营销不是发传单,而是递名片。尤其在春节后这个特殊节点,用户刚从假期模式切换回来,注意力稀缺,信任感脆弱。这时候硬推产品,就像在相亲局上直接谈彩礼,容易把天聊死。

图片

那开工季邮件营销到底该怎么做?分享几个实战思路
。一、先"拜年",再"谈事":
节奏比内容更重要很多人犯的错误是:把拜年当钩子,三句话不到就拐到"限时折扣"上。这种套路用户太熟悉了,熟悉到产生免疫。更自然的做法是把时间线拉长:
第一波(初七-初八):纯问候,零推销"新年好!我们开工了,您那边怎么样?"——就这一句话,配一张团队真实的开工合影(不是 stock photo),落款用创始人或具体负责人的名字。这封邮件的唯一目的是唤醒关系,让用户记得列表里还有你这么个人。
第二波(正月十二后):轻量价值输出等用户自己也进入工作状态了,再分享一些真正有用的东西:行业趋势简报、新年规划模板、或者你们团队整理的"节后复工效率工具包"。这时候用户有需求,你的出现就是及时雨。
第三波(正月十五后):软性转化有了前两轮的铺垫,这时候提产品或服务,用户不会觉得突兀。甚至可以设计成"老用户专属开工福利"的形式,把营销包装成关系维护。
二、把"群发"做出"私聊"感:
细节见真心邮件营销最大的敌人是"系统感"。一旦用户感觉到"这是机器发给一万个人的",阅读欲望就归零。几个提升温度的小技巧:

  1. 发件人不要用"市场部"用具体的人名,最好是用户曾经接触过的销售或客服。如果做不到一对一,至少做到"来自XX(你的客户经理)"。
  2. 主题行拒绝"标题党""开工大吉!全场5折起!!!"——这种邮件我直接删。"关于您去年咨询过的那件事"——这种我会点开。开工季的主题建议:克制、具体、带人名。比如"张总,节后第一件事想跟您同步"、"李经理,你们团队复工顺利吗?"
  3. 正文第一句话要"认人"不要用"尊敬的用户"。哪怕只是"听说您公司在上海,春节应该挺暖和吧"这种简单的地域关联,也能瞬间提升打开率。
    三、内容要有"余味":别在邮件里把话说完
    好的营销邮件像好的短篇小说,结尾要留一点想象空间。不要试图在一封邮件里把产品功能、价格优势、客户案例全部讲透。而是聚焦一个痛点场景,给出一点启发,然后邀请用户进行下一步互动:"如果您也在头疼这个问题,回复这封邮件,我发您一份我们内部的解决方案。""这周我在上海,方便的话可以喝杯咖啡?""附上我们整理的行业白皮书,看完如果有疑问,随时找我聊。"把邮件当成对话的开场白,而不是演讲的完整稿。
    四、邮件群发工具是杠杆,但别依赖自动化
    说到这里,必须聊聊工具。邮件营销做到一定规模,确实需要专业平台来支撑:送达率优化、A/B测试、用户分层、数据追踪……这些靠个人邮箱是玩不转的。市面上工具很多,如果你正在选型,可以看看U-Mail邮件营销平台。
    从实战角度看,U-Mail邮件营销平台更像是为“规模化发送场景”准备的基础设施,而不是简单发信工具。它有几个点,特别适合开工季冲量:
    ✔ 高信誉发送通道(海内外覆盖)对跨境、展会、外贸团队非常友好,进箱更稳定。
    ✔ 真正的1对1变量发送每封邮件都可以个性化,不是“看起来像群发”。
    ✔ 大批量稳定发送能力很多团队开工后要快速触达老名单,这一点非常关键。
    ✔ 可视化数据追踪谁打开、谁点击,一眼就能看清后续跟进重点。
    ✔ 支持API与系统对接如果你们已经有 CRM / ERP,新年做自动化触达会非常顺。当然,工具只是放大器。如果内容本身没有温度,再贵的平台也救不了打开率。开工季的邮件营销,本质上是一次关系重启的机会。
    过去一年积累的用户资产,值得用更有诚意的方式去激活。少想一点"怎么让他们买",多想一点"怎么让他们记得我"。这个心态转变,比任何技巧都重要。新年伊始,祝你的每一封邮件都能被温柔以待。

这里记录每周值得分享的科技内容,周五发布。

本杂志开源,欢迎投稿。另有《谁在招人》服务,发布程序员招聘信息。合作请邮件联系[email protected])。

封面图

上海黄浦江边的艺术装置《航舵》。此处是船厂遗址,有一堵防汛墙,为了吸引人们走上去,以及配合造船主题,就设计了这么一个装置。(via

当外卖员接入 AI

最近,美国有一条无人驾驶的新闻,引起很大反响。

Waymo 是一家无人驾驶公司,已经在多个美国城市开展出租车运营了。

它有一个最大的烦恼,就是乘客下车后,没关好车门或后备箱,导致车辆无法驶离。

奇怪的是,这样一家高科技公司,居然没有开发远程关车门功能,反而想出了一个另类的解决方案。

它给外卖小哥下单,付钱让他们赶到现场关车门。

有一个小哥看到了上面这张奇怪的订单,标价6.25美元,要求赶到1公里以外的一个地方,找到一辆 Waymo 出租车,把车门关上。完成后,还将额外收到5美元。

他觉得很稀奇,就截图发到了网上,这件事顿时就变成了新闻。

它的新闻点,其实不是接单关车门,而是程序在调动人力,完成自动化流程

一直以来,程序只能调动计算机,突然之间,它可以调动人力了,某个环节计算机完成不了,它就自动找人来完成。这才是新闻。

这样做之所以能够成功,完全因为外卖员是一个自带 API 的人群,已经接入了软件系统,成为了自动化人力,程序可以通过接口去调用他们。

你仔细思考这件事,就会意识到,在人工智能和机器人的时代,外卖员有特殊的价值,将是一个很有想象空间的职业。他们的作用绝不仅是送外卖,而是可以升级为远程操控、程序调用的人力,是"机器 + 人"自动化流程的一环。

一旦 AI 模型跟人力结合在一起,模型的作用将大大扩展,现在的 OpenClaw 只能操作计算机,将来的 AI 助手还将是劳动力的调配引擎

比如,我要装修一套房子,AI 做好了设计方案,然后就在网上分布细分任务,水电工接单做好水电,监理员接单上门确认后,AI 就自动结算费用,进入下一个环节,泥工、木工......直至装修完成。

到了那时,你在网上输入提示词"我要装修房子",真的可能一套房子就被 AI 装修好了。

AI 平台因此会变成一个劳务平台,你可以通过 AI 找工作,上面有各种劳务需求,你接单去做,完成后收到报酬。

总之,一旦人力接入 AI,被它调配,AI 就不止是计算机革命,而是整个社会经济都将围绕它重构了。

[本周软件] PinMe:去中心化托管服务

链接会删除,网站会关闭,域名会消失,内容怎样永久保存在互联网?

现在有一种解决方案 IPFS(星际文件系统),通过分布式协议,在所有节点之间分享内容,而网址就是内容的哈希值。

所以,内容一旦上传 IPFS,就无法修改,因为哈希值会变,也无法删除,因为其他节点会有留存。

今天介绍的 PinMe,就是这样一个 IPFS 托管工具。

你可以通过它,将任何文件上传到 IPFS。上传一个静态网站,理论上就是永久可访问,任何人(包括你)都无法删改和关闭,任何一个 IPFS 网关都能打开浏览。

PinMe 会分配一个 ENS 域名,指向上传内容,这个域名写入以太坊区块链,也是永不消失。

它提供的免费储存空间有 1GB,更大空间和自定义域名需要付费。

文件可以网页上传,也可以用它的开源命令行发布工具,一行命令发布到 IPFS,该工具已经有2800颗星。如果要永久保存内容,大家可以试试看

科技动态

1、音频线

材质越好的音频线,价格越贵,但真能听出差别吗?

一个美国音响爱好者做了一个实验,分别用专业音频铜线、香蕉和湿泥来传输音频。

他让不同的人来听,结果根本听不出差别。

这太令人惊讶了。一般认为,香蕉和湿泥土不是良好的导体,但是这个实验表明,它们只是电阻大一点,除了降低信号电平之外,不会对音频造成太大失真。

2、COBOL 代码的 AI 维护

COBOL 是上个世纪的编程语言,现在已经没人用了。

但是,美国很多大公司的关键系统是 COBOL 写的,始终没有下线,目前都由 IBM 公司维护,收费非常昂贵,因为除了他们就没人懂这门语言。

本周一(2月23日),Anthropic 公司突然在官网发布文章(上图),宣布他们的 Claude 模型可以自动分析 COBOL 代码,将其迁移到其他语言。

这篇文章立刻导致 IBM 股价大跌(下图)。

如果 AI 可以维护 COBOL 代码,是否意味着所有历史遗留软件的维护,都已经不成问题了?我们再也不必为接手老项目烦恼了?

3、AI 编程项目的版权

美国的司法规定,只有人类的智力成果才有版权,AI 的生成结果没有版权。

这意味着,AI 编程出来的代码,(在美国)是无版权的,任何人都可以自由使用。

除非项目明确披露哪些部分是 AI 生成的,哪些部分是人工编写的,这样可以对人工编写的部分主张版权。

4、僧侣机器人

日本京都大学发布了一款僧侣机器人,硬件为宇树机器人,软件为佛经训练过的 ChatGPT。

它步态缓慢,能做出双手合十、鞠躬等动作,能够跟你对话佛经,提供精神安慰,解答生活问题,还能主持祈福、洒净等简单法事。

当被问到"嗜酒困难"时,机器人回答:"远离损己伤身之物,持守不饮酒戒,勤修善行,方为安乐。"又被问道"性情急躁、难以专注"怎么办?它建议:"勿求速成,安住当下,逐一观照所遇之事,辨明本心所需,徐徐而理,自然澄明。"

京都大学在声明中表示,这款机器人将来可能协助或替代人类,完成一些宗教仪式,并且也能解决由于人口老龄化和劳动力减少,佛教僧侣不足的问题。

该机器人从3月起在京都青莲院门迹等寺庙进行为期6个月的实地测试,顺利的话,将于2027年推出商业版本,提供"寺庙机器人租赁服务",帮助小型寺庙维持运营。

文章

1、SWE-bench Verified 测试应该放弃(英文)

OpenAI 公司创建的 SWE-bench Verified 是目前最常用的测试基准,用来衡量模型的编码能力。

本周,OpenAI 公司提出应该放弃它,因为有难以克服的缺陷,已经不准确,可以改用 ScaleAI 创建的 SWE-Bench Pro。

2、.plan 文件(英文)

作者提出,文本文件 .plan 是最好的任务管理系统。放在云盘上,随时随地使用任何设备,都能查看和编辑。

3、鲸落(英文)

一鲸落,万物生。本文通过很多例子,说明一个大项目终止后,并不会真的死亡,而是化作许多小项目,四处生长。

4、40 行代码实现无服务器 OCR(英文)

本文是一篇教程,作者用云函数调用 DeepSeek OCR 模型,将 PDF 格式的数学论文转为 Markdown。

5、两台路由器实现局域网无缝漫游(中文)

作者家中的两台路由器无法组 Mesh,本文介绍如何将它们组成同一个局域网,让设备可以无缝漫游。(@popring 投稿)

6、视觉隐藏的最新实现(英文)

视觉隐藏指的是,网页上看不见这个元素,但是网页阅读器能读到这个元素。本文介绍它的最新 CSS 写法。

7、OpenClaw 背后的引擎 Pi(英文)

OpenClaw 的走红,也带火了它的底层引擎 Pi。Pi 是一个 Coding Agent,跟 Claude Code 作用类似,但更轻量级。

工具

1、Oat

轻量级的 HTML + CSS + 极简 JS 的语义化 UI 组件库。

2、jsonriver

一个 JS 库,用于解析 JSON 字符流,可以作用 JSON.parse() 的替代品,后者不支持流模式。

3、Arcmark

一款开源的 macOS 桌面应用,用来管理浏览器书签,可以自动吸附在浏览器窗口的侧边。

4、Systemd manager tui

一个通过终端界面管理 Systemd 服务的工具。

5、weathr

一个终端应用,用来查看指定地点的天气,以动画形式展示。

6、CursorLens

开源的录屏桌面应用,用于制作产品演示与讲解视频。(@blueberrycongee 投稿)

7、结印(Ketsuin)

一个 Web 应用,通过火影忍者的手势输入法,摄像头识别手势进行文字输入。(@huanglizhuo 投稿)

8、Puter

一个需要自搭建、通过浏览器使用的云操作系统,参见介绍文章。(@cosmicqbit 投稿)

9、Penio

跨平台的教学可视化桌面应用,让鼠标、键盘在屏幕可视化凸显出来。(@game1024 投稿)

10、openhare

基于 Flutter 的跨平台桌面 SQL 查询工具,支持多种数据库,可以 AI 生成 SQL 查询和数据分析。(@sjjian 投稿)

AI 相关

1、BitFun

开源的 AI 编程 IDE,类似于 Cursor。(@GCWing 投稿)

2、Xcode Proxy

一个本地的基于 Python 的服务,让 Xcode 可以调用各种第三方 AI 服务。(@tianrking 投稿)

3、openapi-to-skills

将大型的 OpenAPI 文档转为按需加载的 Skills 结构,用来精确执行某个接口,以及减少 Token 消耗和幻觉。(@Yuyz0112 投稿)

4、Trending AI

开源手机应用,AI 总结 GitHub Trending 项目。(@HarlonWang 投稿)

5、Horizon

一个 Python 项目,从自定义的多个信息源收集新闻,进行筛选和摘要,生成一份日报。(@Thysrael 投稿)

6、JadeAI

基于 Next.js 的智能简历生成器,支持拖拽编辑、实时 AI 优化、50 套专业模板打造简历。(@twwch 投稿)

资源

1、Flashpoint Database

这个网站收集各种网页游戏和动画,目前有18万个游戏和3万个动画。

2、Claude Code 中文教程

包含10个完整章节的 Claude Code 中文教程仓库。(@KimYx0207 投稿)

3、海平面上升模拟器

用户在网页上设定海平面的上升高度,查看地球卫星地图的变化,哪些地区被淹没。(@ObservedObserver 投稿)

4、diode

面包板在线模拟网站,在网页上用各种电子元件,可视化模拟面包板电路项目,可以查看运行效果。

图片

1、世界第一个浏览器

1990年,欧洲核子研究中心的研究员蒂姆·伯纳斯-李(Tim Berners-Lee),发明了 WWW(互联网的网页浏览服务)。

现在,欧洲核子研究中心的官网提供世界第一个浏览器(上图),作为历史体验,供用户在线体验。

同时提供的,还有世界第一个网站(下图)。

2、显示器布局

程序员的工作台,往往放着1到 n 台显示器。

有人总结了这些显示器的放置方法,你属于哪一种?

文摘

1、卡车的空气动力学

1973年,美国宇航局的一个工程师骑自行车上班,遇到一辆大卡车在身边飞驰而过,卡车的气流将他连人带车推向路边。

大多数骑车人一定会心惊胆战,但是这个工程师立刻想到,大卡车的空气阻力非常大,所以才有这么强的气流。

回到实验室后,他就召集了一些同事,借来一辆旧福特厢式货车做实验,怎样才能改善空气阻力,提高燃油效率。

他们先在卡车外面包了一层方方正正的铝板(上图),测量基准阻力。

然后,将车头前部的垂直角打磨成圆角(下图),再测试阻力有没有变化。

接着,密封了车辆底部,使气流更顺畅地流过车身。

经过测量,将前部四个边缘全部打磨成圆角后,阻力降低了52%;密封车底后,阻力又降低了7%。他们估计,这可以使高速公路行驶时的燃油消耗减少15%至25%。

最后,他们又在驾驶室上方和底盘前方加装了整流罩,在车尾加装了尾翼,阻力又降低了15%。

他们当时改装的样车,跟2017年特斯拉推出的 Semi 卡车很相像。

言论

1、

美国最大的创业孵化器 YC 如今几乎只投人工智能领域,最新一轮它的投资组合中,高达88%的公司都基于人工智能。

这与它曾经倡导的逆向思维背道而驰,转而倾向于稳妥的追随潮流。

-- 《YC 是收留懦夫吗?》

2、

我们应该帮助实体店生存下去。当一家实体店开业,它会让其他人受益,会帮助街区吸引居民和潜在顾客,最终让本地区变得有活力和适合生活。

-- 《零售业提升土地价值》

3、

如果 AI 主导一切,那些无法被 AI 量化的东西,不是会特立独行,而是最终会被淘汰。

-- Ben Thompson,美国著名科技 UP 主

4、

美国企业有一个方面做得很好,那就是他们不会把时间和精力浪费在自己不擅长的事情上,而是对自己擅长的领域加倍投入。

他们只关注收益最大化,不关注成本最小化。

-- Ben Thompson,美国著名科技 UP 主

5、

创造力需要你有勇气去放弃确定性。

-- 埃里希·弗罗姆,德国哲学家

往年回顾

代币是什么(#339)

宽容从何而来(#289)

未来两种人会增加(#239)

下一个内卷的行业(#189)

(完)

一、背景

一个项目中需要用到输入表情符号,全网找了半天都是国外那种样式的表情输入插件,而且又非常难看,不能自定义修改样式。于是乎自己直接上手干了。

image.png

二、支持功能

支持中文分类
支持中英文搜索
支持最近输入表情
支持自定义扩展更多的表情
支持输入框样式自定义

三、获取

源码可以来uniapp插件市场这里获取:https://ext.dcloud.net.cn/plugin?id=26914

四、使用方法

如果你是uniapp项目,下载后可以直接使用,代码会自动下载到你的uni_modules目录下并会自动加载组件,无需自己再引入组件;如果你是普通Vue项目,将下载下来的代码放到 components目录,然后手动引入下组件即可。

说明:没有做 npm 直接安装方式,主要考虑到开发者拿到代码后可以自行修改样式和功能。

Vue2 使用方法,Vue3兼容Vue2写法

<template>
    <div style="display: flex;align-items: center">
        <emoji-input v-model="inputVal" style="width: 500px"></emoji-input>
        <div style="margin-left: 10px">你的输入:{{inputVal}}</div>
    </div>
</template>
 
<script>
// 引入插件
import EmojiInput from "@/components/xv-emoji/emoji-input.vue";
 
export default {
    name: 'VueEmojiPicker',
    components: {EmojiInput},
    data() {
        return {
            inputVal:'',
        }
    },
}
</script>

如果对你有帮助,请动动你发财的小手指,给个小心心鼓励下我...

各位 V 友大家新年好!!!

一直想把 Github 上的 Star 内容管理起来,最近就 Vide Coding 写了这个小项目。

GitHub 的 Star 列表对我来说基本上就是个“冷宫”:收藏的时候觉得总有一天会用到,实际上想找的时候根本翻不着。虽然 GitHub 后来出了 tag 功能,但那搜索和筛选的体验……我只希望能 Ctrl+F 搜索名字、描述这些内容,所以搞了这个项目,产出一个 md 、一个检索网站。

大致功能如下:

  1. 让 AI 当“秘书”读 README:脚本每天定点去抓我的新 Star 。让它帮我把 README 读了并出一份中英文摘要、打上技术标签。
  2. 主要为了同步到 Obsidian:这是我写这个脚本的“初心”。生成的两份 Markdown 文件(中英文)会自动推送到我指定的 Git 仓库。配合 Obsidian Git 插件,我的本地笔记库每天都会自动拉取最新的 Star 摘要 Markdown 文件。
  3. 白嫖 GitHub Actions:配置好之后基本上就不用管了,每天它在那儿自个儿跑。而且做了增量处理,只总结新增的 Star ,省 Token 也不费事。
  4. 还顺手做了个 Web 搜索页:自动部署到 gh-pages 做个静态搜索站,搜索起来极快也不卡,而且支持多关键词搜索(空格分隔即可),适配移动端。

项目工作流程:

如果你也经常处于“收藏不看”或者“找不着 Star”的焦虑中,可以 Fork 过去试试看:
项目地址: https://github.com/iblogc/GithubStarsIndex
在线 Demo: https://iblogc.github.io/GithubStarsIndex

网站大概长这样:

希望能帮到有相同习惯的朋友,欢迎点个 Star 或者提 PR 交流。

它有很多名字,可哪一个也没能把它留住。

堂弟刚把大黄捡回来那年,它才巴掌大,一身的黄毛软得像秋天的茅草。堂弟那阵子正迷奥斯卡电影,管它叫奥斯卡,喊得响亮。后来堂弟一家去了城里,把它托付给我奶。老人叫不来这么洋气的名字,就喊它小灰——我们那边的话,狗的黄和灰不分,黄的也叫灰的,灰的也叫黄的。再后来我回来了,我叫它大黄。它都认。你喊奥斯卡,它耳朵动一动;喊小灰,它抬起头;喊大黄,尾巴就开始摇。大黄一只狗,替我们一家子守着这三个名字。

每次回家,大黄都等在门口。

不是那种扑上来的等,是趴着的等。老远看见人影,大黄先站起来,尾巴摇得快要甩到天上去,可大黄就是不过来扑你。大黄趴下来,把身子放得很低,一点一点匍匐到你脚边,然后把头仰起来,等你摸。你一伸手,大黄就势一翻,把肚皮亮出来,四只爪子蜷在胸前,眼睛眯着,喉咙里发出很轻很轻的哼哼声。

大黄那个肚皮,我摸过无数回。腿有一块地方毛长得稀,底下是一道疤——那是小时候受的伤。大黄被踩过,很重的一次踩踏,后腿好长时间不能走路。奶说那阵子大黄躲在柴房里不出来,疼得呜呜叫,可是只要有人从门口过,那声音就立刻止住了。大黄不想让人听见。大黄不想让人觉得它疼,不想让人觉得它没用。

大黄怕被丢下。

其实大黄不知道,从大黄趴在我们家门口那天起,就没有人会丢下大黄。

吃过晚饭,我出去散步,大黄总是跟着。村西头走到村东头,大黄一路跑在前面,到处嗅,电线杆子根、老墙根、草垛子边上——那是大黄探它的朋友圈呢,谁家狗来过了,谁家猫还醒着,大黄全知道。

有的时候大黄跑远了,跑出去几十米,在人家门口探头探脑。可大黄跑一会儿就要回头,回头看看我。只要看见我转身,看见我往回走的方向,大黄就什么都不管了——那边嗅到一半的气味不要了,那边刚认识的狗也不搭理了,大黄撒开腿就跑,四只蹄子把土路蹬得冒烟,跑到我身边,然后放慢步子,和我一起往回走。

那时候太阳正在落山,余晖把人和狗的影子拉得老长,一前一后,或者并排着,慢慢往家走。

走了四年。

第五年上,大黄走了。

那天大黄和黑背打了一架,肚子上被咬了一道口子,背上也伤了。我给大黄上药的时候,大黄趴在地上,下巴贴着地面,眼睛翻着看我,呜呜了两声——不是疼,是难为情。

过了几天,大黄就走了。

村里的老人说,狗要死的时候,都会找个没人的地方,不让人看见。大黄不想让你难过。

我不知道这话是不是真的。可我知道,那天以后,门口再也没有那个趴着等我的影子了。晚饭后出门,回头看一眼,土路上空空的,没有狗跑过来。

那天我奶收拾柴房,看见墙角的麦秸堆里有一个窝,凹下去的形状,刚好够一只狗蜷着睡。我奶站那儿看了半天,没动,又把门带上了。

那晚我上去了一趟,在那窝边上坐了一会儿。麦秸里还有一股子狗味,淡淡的,不仔细闻闻不出来。

我想起大黄小时候被踩伤那回,疼得呜呜叫,一有人来就忍住。大黄那时候那么小,就知道把疼藏起来。大黄怕我们觉得它没用,怕我们不要它。

大黄不知道,它趴在地上把肚皮亮出来让我摸的那些黄昏,它跑远了又回头看过来的那些眼神,它踏着夕阳和我一起回家的那些路——

早就不是大黄需要我们了。

是我们需要大黄。

临走那天傍晚我又去散步了。走到村东头的老槐树下,我站了一会儿。太阳正在落山,余晖把影子拉得很长。

我一个人往回走。

走到一半,我回头看了一眼。

183411772159840_.pic_hd

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、Anthropic 收购 AI 智能体初创企业 Vercept

2 月 25 日,人工智能初创公司 Anthropic 宣布收购 Computer Use 初创企业 Vercept。这是继去年 12 月收购代码智能体引擎 Bun 后,Anthropic 的又一动作。作为交易的一部分,Anthropic 将于 3 月 25 日正式关闭 Vercept 的云端产品 Vy(一款可远程操作苹果 MacBook 的智能体)。

Vercept 孵化于西雅图的 AI 孵化器 A12,其联合创始人多具备艾伦人工智能研究所的研究背景。据 Vercept 首席执行官 Kiana Ehsani 透露,公司总计融资金额达 5000 万美元,由 A12 的 Seth Bannon 领投。其天使投资人阵容包含前谷歌 CEO Eric Schmidt 与 DeepMind 首席科学家 Jeff Dean 等知名人士。

此次收购后,Vercept 的核心团队去向出现了明显的分化:

  • 加入 Anthropic 的成员:包括 CEO Ehsani、Luca Weihs 和 Ross Girshick 三位联合创始人。Ehsani 认为,与其两家公司各自独立探索,不如合并团队以加速实现共同愿景。
  • 未加入的联合创始人:此前被 Meta 以高达 2.5 亿美元薪酬挖角的 Matt Deitke,以及艾伦人工智能研究所创始领导者 Oren Etzioni 均未加入 Anthropic。

值得注意的是,这场收购在投资人之间引发了公开争论。Etzioni 在社交平台上对公司成立仅一年多便放弃独立发展、并要求客户在 30 天内撤离平台表示极度失望。他与领投人 Bannon 随后发生了激烈的言辞交锋,相互指责对方的决策失误甚至发出法律威胁。尽管交易细节未予公开,且 Etzioni 确认已获得资金回报,但他仍对团队未能继续独立运营感到遗憾。

( @TechCrunch)

2、开发者展示眼动追踪+语音+AI 融合交互,视线成为全新输入信号

近日,开发者 Yaku Zeg 展示了一项将眼动追踪、语音与人工智能相结合的交互演示。他提出一种前沿的交互理念:不论用户是进行触摸、指向、说话、注视,甚至是单纯地思考,未来的界面都应当能够妥善处理这些行为。

在具体的应用场景中,该技术将用户的视线不仅作为一种直接的输入方式,更主要的是将其定义为一种「微观意图(micro-intent)」信号,从而为系统提供额外的上下文背景信息。在技术栈方面,该演示内容是基于 SwiftUI 和 ARKit 框架开发完成的。

( @yakuzeg\@X)

02 有亮点的产品

1、MiniMax 上线 MaxClaw 功能

MiniMax Agent 的 Expert 2.0、MaxClaw 正式宣布上线。

据介绍,在 Expert 2.0 中,MiniMax 进一步优化了专家 Agent 的创建体验。用户不需要考虑 Skill、SubAgent、MCP 的配置,以及提示词的结构编排——只需用自然语言描述任务目标或能力需求,Agent 会根据目标完成 SOP 梳理、工具编排与能力配置。

官方还预告,下一代迭代中,Expert 2.0 将引入「创作者定价与分成机制」以及「团队内 Expert 共享」两项能力

MaxClaw 方面,官方介绍其基于 OpenClaw 构建,直接集成在 MiniMax Agent 网页端,无需自备服务器或 API Key。

并且相较于直接使用 OpenClaw,MaxClaw 拥有「预置精选专家级 Skill」「自带 50G 专属云储存空间」等优势。未来 MaxClaw 还将支持「用户自定义专家」「多端协同」的功能。

目前两项新功能均已开放使用。

相关链接:https://agent.minimaxi.com/

( @APPSO)

2、谷歌官方「豆包手机」来了:Pixel 10 和三星 Galaxy S26 系列迎来 AI 操控手机功能

谷歌在三星 Galaxy S26 系列发布会上推出了一批新的 Android 功能更新,包括更多基于 Gemini 的工具,以及诈骗检测功能改进。

Gemini 应用中的新功能将允许用户将多步骤任务(如预订网约车或添加购物车)移交给系统。该功能将首先以测试版形式推出,在用户执行其他任务时在后台运行。用户可以通过通知实时监控 Gemini 的进度,以便随时了解其正在做什么并随时介入。

谷歌表示,该功能最初将仅限于某些食品、杂货或网约车应用。它将首先在美国和韩国的某些设备上推出,包括 Galaxy S26 系列和 Pixel 10 系列

Android 的 Circle to Search 功能也获得了升级,使其能够同时搜索屏幕上看到的多个对象。其中一种实现方式是使用「find the look」进行全套服装搜索。一旦应用找到了被圈出的服装的所有单品,用户就可以进行虚拟试穿。这项功能将在 Galaxy S26 系列和 Pixel 10 系列设备上提供。增强后的功能还可以用于分析图像中的多个对象。

谷歌还利用 Gemini 为三星电话应用中的通话引入设备端诈骗检测。该工具在检测到通话中有人使用诈骗者常用的语音模式时提醒用户。谷歌表示,该功能在与联系人通话时从未被使用,默认关闭。

相同的技术和方法也将用于在 Google 消息中检测诈骗。目前,美国 Galaxy S26 上的电话诈骗检测仅支持英语。

所有这些新功能现已可在 Pixel 10 系列和 Galaxy S26 系列上使用,具体功能的市场可用性有所不同。

( @IT 之家)

3、YouTube 将 AI 语音助手引入智能电视与游戏主机

2 月 19 日消息,客厅场景下的对话式人工智能竞争正日益升温。YouTube 成为这一领域的最新发力者,正式将其对话式 AI 工具扩展至智能电视、游戏主机和流媒体设备。这项此前仅限于移动端和网页端的实验性功能,如今直接登陆了家庭中最大的屏幕。

根据 YouTube 官方支持页面的说明,符合条件的用户可直接点击电视屏幕上的「提问(Ask)」按钮唤出 AI 助手。用户不仅可以选择系统基于当前视频推荐的问题,还能使用遥控器上的麦克风询问任何相关的细节(例如食谱中的配料或某首歌词的创作背景),并在不暂停视频或退出应用的情况下获得即时解答。目前,该功能仅面向 18 岁以上的特定用户群体开放,支持英语、印地语、西班牙语、葡萄牙语和韩语。

此举正值越来越多美国观众将电视作为访问 YouTube 的主要渠道。尼尔森在 2025 年 4 月发布的一份报告显示,YouTube 占据了电视观众总时长的 12.4%,超越了迪士尼和 Netflix 等大型平台。与此同时,其他流媒体巨头也在积极推进客厅场景的 AI 交互:

  • 亚马逊:在 Fire TV 设备上推出 Alexa+,支持用户进行自然对话、获取定制化内容推荐,甚至搜索电影中的特定场景和演员信息。
  • Roku 与 Netflix:Roku 的 AI 语音助手已能处理诸如「这部电影有多恐怖」等开放式提问;Netflix 也正在测试其专属的 AI 搜索体验。

除了对话式 AI,YouTube 近期还推出了多项利用 AI 优化电视观看体验的举措,包括将低分辨率上传的视频自动增强至全高清画质。平台还在持续推出评论摘要、AI 驱动的搜索结果轮播等功能,并于今年 1 月宣布创作者即将能使用 AI 生成的个人分身来制作 Shorts 短视频。上周,YouTube 还为 Apple Vision Pro 推出了专属应用,提供剧院级巨幕的沉浸式观影环境。

( @TechCrunch)

03 有态度的观点

1、来自 2028 的文章:AI 让裁员陷入死循环

近期,投资研究机构 Citrini Research 发布题为《2028 年全球智能危机》的推演报告,预测 AI Agent(智能体)的大规模普及将引发白领失业潮并导致全球经济结构性崩盘。

有趣的是,报告通过构建「2028 年宏观假想模型」,详细拆解了这一死循环的传导路径。

模型显示,在第一阶段,企业引入 AI Agent 大量裁撤知识型与中介型白领员工,大幅削减人力成本,短期内实现利润率激增与财报繁荣。然而,被裁撤的中产阶级群体恰恰是支撑现代消费经济体系的核心基石。

而伴随美国失业率在模型中被推高至 10.2% 的警戒线,宏观总需求出现结构性坍塌。

由于终端消费断崖式下跌,企业营收随之暴跌;为了在收入萎缩的困境中维持此前的高利润率及向股东交差,企业被迫开启新一轮更激进的 AI 自动化裁员,从而正式确立了「裁员-需求萎缩-营收下降-再裁员」的恶性闭环

报告指出,在整个现代经济史中,人类智慧一直是稀缺的投入要素。一切都能复制或替代,但唯有能够分析、决策、创造、说服、协调的「智慧」,是没法大规模复制的。

人类智慧的稀缺性自带内在溢价,但机器智能正在广泛、甚至是合格且快速改进地替代着前者。 好在的是,我们是在 2026 年看到这篇报告。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

想象一下,你寄送的重要快递被退回了,快递员不会直接丢弃,而是根据你的要求间隔几小时后重新投递,直到成功或达到最大投递次数。Apache DolphinScheduler的任务重试机制就是这种“智能重投”的调度系统版。

DolphinScheduler提供了完善的任务失败重试机制,支持业务任务节点在执行失败后自动延迟重试,直到成功或达到最大重试次数。该机制通过状态机驱动、事件发布和延迟队列实现,确保任务执行的可靠性。

核心机制:三步重试法

1. 失败时自动触发重试

当任务(如Shell脚本)执行失败时,系统会立即检查两个关键配置:

  • failRetryTimes:最多重试几次(默认0次)
  • failRetryInterval:每次重试间隔几分钟

这些配置在任务创建时设定,前端表单会将其转换为JSON格式存储。

2. 智能延迟计算

系统不会立即重试,而是计算精确的延迟时间:

// 实际延迟 = 配置间隔 - (当前时间 - 任务结束时间)
long remainingTime = TimeUnit.MINUTES.toMillis(delayTime) 
    + System.currentTimeMillis() 
    - taskInstance.getEndTime().getTime();

这确保无论任务何时失败,都能保持固定的重试间隔。

3. 状态机驱动重试

重试过程由状态机精确控制:

  1. 失败状态:收到失败事件后,检查是否还能重试
  2. 重试状态:创建新的任务实例(保持首次提交时间不变)
  3. 重新执行:发布启动事件,任务重新进入调度队列

关键特性:哪些任务能重试?

✅ 支持重试的业务节点

  • Shell脚本任务
  • SQL查询任务
  • Spark计算任务
  • 所有实际执行代码的任务 5

❌ 不支持重试的逻辑节点

  • 条件分支节点
  • 子流程节点
  • 依赖检查节点
    这些节点只控制流程走向,不执行具体代码 5

实战验证:测试案例

集成测试展示了完整的重试过程:

  1. 任务A首次失败(retryTimes=0)
  2. 系统自动重试1次(retryTimes=1)
  3. 两次任务实例保持相同的firstSubmitTime
  4. 最终失败后工作流停止 6

特殊场景处理

依赖任务等待

如果任务B依赖任务A,当A失败但未达最大重试次数时,B会进入等待状态而非直接失败 7

手动干预能力

即使任务正在等待重试,你仍可以:

  • 暂停任务(取消后续重试)
  • 终止任务(强制停止)
    系统会优雅地处理这些中断请求 8

容错 vs 重试:重要区别

  • 任务重试:任务代码执行失败后的自动重试
  • Worker容错:当Worker服务器宕机时,Master接管并重新调度任务(包括Yarn任务) 9

运维建议

  1. 合理设置重试间隔:避免过于频繁的重试导致系统压力
  2. 区分任务类型:为关键任务设置更多重试次数
  3. 监控重试指标:关注retryTimes字段,识别不稳定任务
  4. 理解逻辑节点限制:不要期望条件分支会自动重试

总结

Apache DolphinScheduler的重试机制就像一个尽职的调度员,在任务失败时不会轻易放弃,而是按照你的要求智能地重新尝试。通过状态机精确控制、延迟计算和事件驱动架构,确保了分布式环境下任务执行的可靠性。记住:只有真正执行代码的业务节点才能享受这种“重投”服务,而逻辑节点则需要你手动处理异常情况。

Notes

  • 重试间隔以分钟为单位,实际延迟计算会扣除任务已结束的时间
  • 每次重试会创建新的TaskInstance记录,但保持firstSubmitTime不变
  • Worker宕机触发的容错重试与任务失败重试是两种不同的机制
  • 逻辑节点(如子流程)不支持自动重试,需要手动干预

我经常要开了多个 Coding Agent (Claude Code, OpenCode, Codex)在进行多项目开发,安排完任务就去摸鱼了,刷 B 站或者逛论坛,但是就需要经常切回各个终端查看这些 Agent 的运行状态,是正在运行?等待我操作?还是运行完成了?

尽管可以设置 Notification ,但是通知多了也经常忘,所以就 Vibe 了个 MacOS 原生菜单状态栏应用 Vibe Bar,向上扫一眼就能看到所有 Coding Agent 的运行情况。

效果图 Xnip2026-02-26_20-34-19.png

已经内置了几种样式 Xnip2026-02-26_20-37-41.png

工具开源地址: https://github.com/yelog/vibebar

智能客服新选择:访答网页版

在数字化服务日益普及的今天,访答智能客服网页版为企业提供了一种轻量高效的客服解决方案。

什么是访答智能客服网页版?

访答是一款专为企业官网设计的智能客服工具,通过一行代码即可嵌入网站,无需技术团队介入,5分钟内就能上线专属客服机器人。它基于深度优化的中文RAG技术,能够精准理解用户问题并给出可靠回答。

核心优势

  • 零开发成本:直接将生成的代码嵌入官网HTML即可
  • 智能问答:深度学习官网内容,构建专属知识库
  • 多模态识别:支持图片、图文混排等内容的解析
  • 溯源导航:自动提供参考链接,增强回答可信度

为何选择访答?

相比传统客服系统,访答最大的优势在于部署简单、响应精准。它不仅能7×24小时不间断服务,还能通过一键更新知识库保持内容同步,大幅降低企业客服成本。

对于寻求高效客服解决方案的企业来说,访答智能客服网页版无疑是值得尝试的选择。

在快速迭代的业务场景中,开发人员常常需要为各种数据模型(如用户、产品、订单)重复构建列表、新增、修改、详情等页面。这个过程既耗时,又容易出错。
低代码开发平台以高效便捷的开发方式,可以基于模型生成设计,能够将复杂的数据结构转化为用户界面元素的过程,旨在以直观和高效的方式展示和操作数据。
以国内成熟的JVS低代码平台为例,系统提供了根据模型生成设计,你只需要明确数据模型中包含哪些实体(如用户、产品、订单等),并对每个实体,列出其所有属性元素类型(如文本、图片、链接、时间等)。
最后直接通过界面化操作就可实现模型生成列表、表单设计,并可实现对数据的简单增、删、改、查操作。

创建模型

创建模型入口,如下图
目录上快捷创建模型,若有设计模型字段,会自动创建列表页以及相关的新增、修改、详情表单
图片
开始页面创建模型同目录上创建模型一样,创建成功后自动生成相关列表、表单
图片
数据模型列表创建模型,需要手动生成设计
图片
在系统应用后台,点击【数据模型】如下图,点击【新增】按钮
图片
弹框输入模型名称,并点击【新增】字段
图片
①名称:模型名称
②显示名称:显示中文名
③字段名:显示字段名,不能包含空格和特殊符号
④字段类型:组件类型,用于存业务数据
最后点击【提交】即可增加一个模型数据,在模型列表还可以点击【修改】【详情】【删除】按钮操作对应模型数据
图片
①修改:修改模型名称、字段信息
②详情:查看模型数据信息
③生成设计:生成对应列表、表单
④删除:删除该条模型数据
生成设计
在模型数据有字段信息的前提下,点击【生成设计】按钮,如下图
注意:同一个模型可以重复生成列表页、表单设计, 但不会覆盖已有的列表和表单设计
提交后在左侧应用目录下新增个对应模型名称的目录菜单
点击目录菜单即可进入生成的列表页面
图片
点击【新增】【修改】【详情】按钮分别打开生成的表单页面
图片
新增表单
图片
修改表单
图片
详情表单
图片
在线demo:https://app.bctools.cn
基础框架开源地址:https://gitee.com/software-minister/jvs

“AI+MES”正在从一种技术趋势,转变为制造企业生存和发展的核心驱动力。
根据最新的行业数据(2025-2026年),这一融合正在彻底重塑制造业的格局。以下是基于当前市场动态和技术落地的深度解析:
核心变革:从“记录系统”到“思考系统”
传统的MES(制造执行系统)主要功能是记录生产数据、追踪工单和执行流程,往往是“事后诸葛亮”。
而万界星空科技AI+MES正在将其升级为具备预测和决策能力的“工厂大脑”:
被动响应 → 主动预判:传统MES在设备故障后报警;AI+MES通过振动、温度等数据分析,提前预测故障(预测性维护),避免非计划停机。
经验驱动 → 数据驱动:传统排产依赖老师傅经验;AI算法结合订单、物料、设备状态,实现智能APS排产,动态调整生产计划以应对插单或急单。
人工质检 → 智能视觉检测:结合计算机视觉(CV),AI能实时识别微小缺陷,准确率远超人工,且能自我迭代学习新缺陷类型。

2026年的关键市场趋势
根据最新行业报告,2026年中国MES市场呈现以下显著特征:
市场规模爆发:预计2026年中国MES市场规模将突破200亿-400亿元人-民-币,年复合增长率保持在20%左右。
国产化替代加速:国产厂商凭借对本土场景的理解和AI大模型的快速落地,正在打破西门子、达索等外资品牌在高端市场的垄断。
渗透率提升:离散制造业(如汽车、电子)的MES渗透率已超35%,流程制造业(如化工、制药)也在快速跟进。
技术标配化:具备AI智能排产、边缘计算、数字孪生能力的MES系统已成为头部企业的标配。数据显示,这类系统能帮助企业缩短28%的订单交付周期,提升15%的设备综合效率(OEE)。
AI赋能的三大核心场景
A. 智能生产调度 (Intelligent Scheduling)
痛点:多品种小批量生产导致换线频繁,传统排程难以应对突发状况。
AI解法:利用强化学习算法,实时计算最优排产方案。当某台设备故障或物料延迟时,系统秒级重排,最小化对整体交付的影响。
B. 质量管控与根因分析 (Quality & Root Cause Analysis)
痛点:质量问题发现滞后,难以定位根本原因。
AI解法:AI关联人、机、料、法、环全维度数据。一旦发现不良品,系统自动回溯分析,指出是“某批次原料”、“某刀具磨损”还是“特定工艺参数”导致的问题,实现闭环改进。
C. 设备预测性维护 (Predictive Maintenance)
痛点:定期保养过度或不足,意外停机损失大。
AI解法:基于IoT传感器数据构建设备健康模型,精准预测剩余寿命,实现“视情维护”,大幅降低备件库存和停机时间。
面临的挑战与未来方向
尽管前景广阔,但企业在推进“AI+MES”时仍面临挑战:
数据孤岛与质量:AI的效果取决于数据质量。许多工厂底层设备协议不通,数据清洗难度大。
人才短缺:既懂制造工艺又懂AI算法的复合型人才极度稀缺。
落地成本:对于中小企业,高昂的定制化开发成本仍是门槛。因此,"云原生+SaaS化+行业套-件"的模式正在成为主流,以降低试错成本。
总结
AI与MES的集成不再是“锦上添花”,而是制造企业迈向“智能制造”的入场券。
2026年,成功的制造企业不再是那些拥有最多机器人的企业,而是那些能够利用AI+MES系统,让数据在生产全流程中自动流动、自动决策、自动优化的企业。对于管理者而言,现在的核心任务不是“要不要做”,而是“如何快速找到适合自身行业的AI+MES切入点”。

整理 | 华卫

 

临近春节,智谱 AI 发布了其最新旗舰大模型 GLM-5。自 1 月初在香港进行备受关注的 IPO 之后,这是该公司推出的首款重磅大模型。

 

据称,GLM-5 标志着人工智能开发从“Vibe Coding”变革为“Agentic Engineering”,即更大规模的 AI 自动化编程,其代码能力实现跨越式提升。该公司的内部测试显示,GLM-5 在代码能力、智能体表现等关键领域的开源模型评分中取得 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。

目前,这款新模型已在智谱官网上线,并在 GitHub 和 Hugging Face 平台开源,模型权重遵循 MIT License。

 

GitHub:https://github.com/zai-org/GLM-5

Hugging Face:https://huggingface.co/zai-org/GLM-5

OpenRouter:http://openrouter.ai/z-ai/glm-5

 

值得一提的是,智谱在官宣帖中特意注明“GLM-5 在 OpenRouter 上的前称是 Pony Alpha”。就在几天前,全球模型服务平台 OpenRouter 上一款代号为“Pony Alpha”的神秘模型,因卓越性能和一系列令人惊艳的实测表现走红。当时,该平台合作方 Kilo Code 透露,Pony Alpha 是“某个全球实验室最受欢迎的开源模型的专项进化版”。

 

之后,Pony Alpha 被众人猜测可能是 Anthropic 的 Claude Sonnet 5、DeepSeek-V4 或者 GLM-5 的提前试水。现在,答案终于被“正主”揭晓。

 

官宣 GLM-5 后,智谱的股价连续暴涨。截止发稿前,智谱的市值突破 1700 亿港元。

自封“系统架构师”,性能超过 Gemini 3 Pro

一个多月前,智谱才刚刚更新到 GLM‑4.7 。据介绍,GLM-5 的参数规模是上一代 GLM-4.7 的两倍,从 3550 亿提升至 7440 亿,训练数据量从 23 万亿增至 28.5 万亿 tokens,更大规模的预训练算力显著提升了模型的通用智能水平。

 

并且,该模型构建了全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。

 

此外,GLM-5 还采用了由 DeepSeek 率先提出的全新架构 DeepSeek 稀疏注意力机制,在维持长文本效果无损的同时,大幅降低模型部署成本,旨在最大化计算效率与成本效益。

 

在编程能力上,GLM-5 实现了对齐 Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型 SOTA。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型最高分数,性能超过 Gemini 3 Pro。

 

在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越上一代的 GLM-4.7(平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus 4.5。用智谱的话说,GLM-5 是一个“系统架构师”,不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。

 

在 Agent 能力上,GLM-5 实现开源 SOTA,在多个评测基准中取得开源第一,在 BrowseComp(联网检索与信息理解)、MCP-Atlas(大规模端到端工具调用)和 τ²-Bench(复杂场景下自动代理的工具规划和执行)均取得最高表现。在衡量模型经营能力的 Vending Bench 2 中,GLM-5 获得开源模型第一表现。Vending Bench 2 要求模型在一年期内经营一个模拟的自动售货机业务,GLM-5 最终账户余额达到 4432 美元,经营表现接近 Claude Opus 4.5。

 

不过,该公司自行公布的分数也显示,在各项代码基准测试中,这款模型仍全面落后于 Anthropic 的 Claude。

“价格简直离谱”,实测被评最优秀开源模型之一

此前,在 OpenRouter 匿名上线时,就有许多开发者使用 GLM-5 完成了真正能用、能玩、能上线的应用,例如横版解谜游戏、Agent 交互世界、论文版“抖音”等应用。如今公开推出后,又迎来一波开发者的积极试用。

 

“GLM-5 现在已经能和 Opus 4.6 同台竞技了。”一位开发者表示,“我一整个上午都在编程任务和游戏环境里折腾 GLM-5。整体来说,它在某些任务上执行得很快,表现不错,但碰到更复杂的场景,对我而言 Claude 依然是王者。”

 

另一位开发者则称,GLM-5 表现得很完美,绝对是目前发布的最优秀开源模型之一。“我在 Ollama 命令行和 Claude Code 里都跑了一遍。我发现 Claude Code 里有个缺陷,但找到了临时解决办法。我的 GLM-5 对话会话达到了和 Opus 4.6 同一水准的自我认知 / 理解深度。”

 

还有开发者评价道,“GLM-5 可能真的是我第一次在前端任务上更倾向于选择非 Gemini 模型。”

 

“价格简直离谱”,有开发者算完后表示,GLM5 的输入成本比 Opus 便宜 6 倍,输出成本便宜 10 倍。

 

依托国产芯片,“把每一块芯片用到极限”

值得注意的是,智谱在发布公告中表示,GLM-5 可基于一批中国半导体企业的国产芯片部署,包括华为、摩尔线程、寒武纪、百度昆仑芯、沐曦集成电路、燧原科技及海光信息。而本次 GLM-5 的上线,也是依托众多国产芯片有力保障了线上服务的稳定和高效。

 

去年年初,智谱被美国列入实体清单。近几个月来,智谱已宣布致力于在纯国产硬件体系上研发前沿大模型。不过,受限于算力资源,智谱也被迫限制其旗舰产品在国际市场的应用。这一情况在 GLM-5 上仍在延续。

 

“算力非常紧张。即便在 GLM‑5 发布前,我们为了支撑推理服务,已经把每一块芯片都用到极限。”智谱表示,因 “算力容量有限”,将逐步向代码订阅用户开放 GLM‑5,并提醒用户,使用新模型可能会更快耗尽使用额度。

 

智谱也宣布,基于实际使用情况与资源投入变化对 GLM Coding Plan 套餐价格体系进行结构性调整,包括:取消首购优惠,保留按季按年订阅优惠;套餐价格进行结构性调整,整体涨幅自 30%起;已订阅用户价格保持不变。

 

当前,中国几乎所有前沿大模型开发者都在农历新年前密集发布重磅产品,复刻了去年 DeepSeek 借此一举成名全球的打法。同样在香港上市的 MiniMax,也在昨天官宣了其重磅新模型 M2.5,并已在官网开放试用。

 

与此同时,DeepSeek 刚刚对其模型进行小幅升级,将对话上下文窗口扩展至 100 万 tokens 以上,其备受期待的全新旗舰模型尚未发布。让我们拭目以待。

 

参考链接:

https://z.ai/blog/glm-5

整理 | 华卫

 

近日,一款由独立开发者 gavrielc 制作的开源 AI 助手 NanoClaw 火了,它以极简的架构实现了 OpenClaw 的同等核心功能,核心代码只有约 500 行,只用 8 分钟就能看懂。

 

项目地址:https://github.com/qwibitai/nanoclaw

 

据了解,原版 Clawdbot 大概有 43 万行代码,令一些开发者对之望而却步。这种复杂程度,让他们联想到在老旧电脑上启动 Photoshop 的体验:即便在 M2 Mini 上,启动这样一款命令行工具也要耗费数十秒。相比之下,NanoClaw 的代码行数足足缩减了 99.9%。

 

同时,NanoClaw 的开发,正是为了回应 OpenClaw 的安全架构问题。尽管 OpenClaw 在 2026 年 1 月凭借其 “类贾维斯” 的能力爆红,但也因对主机拥有无限制访问权限的运行方式,遭到了思科 Talos 等安全研究团队的批评。而 NanoClaw 安全性由操作系统直接“硬隔离”,可谓是 OpenClaw 的安全替代方案。

和 OpenClaw 有什么区别?

“OpenClaw 是一个愿景宏大、令人印象深刻的项目。但我无法安心运行一款我不完全理解、却能触及我生活方方面面的软件。”这是该项目的开发者 gavrielc 做 NanoClaw 的初衷。

 

据称,OpenClaw 拥有 52 多个模块、8 个配置管理文件、45 多项依赖,还为 15 个渠道服务商做了抽象封装。它的安全机制停留在应用层面(白名单、配对码),而非操作系统级别的隔离。所有内容都在同一个 Node 进程中运行,内存共享。

 

而 NanoClaw 是单 Node.js 进程、少量文件,没有微服务、消息队列和抽象层。其通过 Apple 容器(macOS)或 Docker 实现容器隔离,并基于 Claude Code 完成 AI 原生部署。AI 智能体运行在真正的 Linux 容器中,拥有文件系统级隔离,而非仅靠权限校验来保障安全。

 

据介绍,NanoClaw 可通过 WhatsApp 收发消息、定时执行任务,同时保护隐私。

 

简单来说,这两款工具的选择,本质是生态便利性与安全隔离性之间的权衡。

 

OpenClaw 面向追求 “开箱即用” 体验的用户,可快速接入几乎所有主流聊天平台,并通过 ClawHub 提供海量社区开发的技能库。但这种便利伴随着巨大风险:由于 OpenClaw 直接运行在主机上,恶意技能或 AI 幻觉理论上可能删除用户主目录、上传 SSH 密钥。

 

NanoClaw 则面向优先看重安全的用户。它认为,给 AI 开放电脑最高权限本身就存在危险。通过强制让 AI 运行在 Linux 容器内,NanoClaw 可以确保:即便 AI 失控,也只能破坏沙箱环境,而不会影响真实主机。相应的代价是,它不再提供 “一键安装” 的插件生态,用户需要通过 Claude Code 自行构建所需功能。

 

参考链接:

https://ai-engineering-trend.medium.com/nanoclaw-a-slimmed-down-version-of-clawdbot-achieved-in-just-500-lines-of-code-c208dc16ee8f

 

2025 年,威胁攻击者将广泛使用的人工智能工具武器化,用于发起快速、精准的网络入侵。
CrowdStrike《2026 年全球威胁报告》显示,AI 辅助攻击同比激增 89%。攻击者利用自动化与机器生成脚本,将从初次入侵到完全控制域内权限的时间压缩至30 分钟以内
入侵速度成为 2025 年威胁态势最鲜明的特征。
网络犯罪的平均突破时间(从获得初始权限到横向渗透其他系统的间隔)降至29 分钟,较 2024 年提速 65%

有记录的最快突破仅用时27 秒。在一起典型案例中,攻击者在首次接入后4 分钟内就开始窃取数据,企业几乎没有任何响应时间。

CrowdStrike 分析师指出,这种攻击提速与滥用 AI深度相关。攻击者不仅利用 AI 定制恶意软件,还会向受害者环境中运行的合法 AI 工具注入恶意提示词

2025 年 8 月,攻击者将恶意 JavaScript 注入 npm 软件包,劫持受害者本地运行的 Claude、Gemini 等 AI 工具,窃取身份凭证与加密货币资产。
CrowdStrike 服务团队与 OverWatch 响应了超过 90 家受影响客户。
一起典型案例来自CHATTY SPIDER组织。该网络犯罪团伙通过语音钓鱼攻击一家美国律师事务所,诱骗员工通过微软 Quick Assist 授予远程访问权限。
4 分钟内,CHATTY SPIDER 就尝试使用 WinSCP 将窃取的文件发送到攻击者控制的服务器。
在被防火墙拦截后,攻击者转而使用 Google Drive。CrowdStrike OverWatch 在数据外泄前成功阻止了攻击。
除单次行动外,FAMOUS CHOLLIMA等组织已构建全流程 AI 辅助攻击流水线
他们利用 ChatGPT、Gemini、GitHub Copilot、VSCodium 等工具伪造身份、管理多账号,并以虚假身份执行技术性操作。
其 2025 年活动量较 2024 年翻倍,凸显 AI 大幅降低了大规模欺骗式攻击的实施门槛。

攻击者如何在攻击全链路中将 AI 武器化

PUNK SPIDER是 2025 年最活跃的勒索软件组织,已记录入侵事件 198 起。该组织使用 Gemini 生成脚本,从 Veeam 备份数据库中提取凭证,并很可能使用 DeepSeek 生成脚本停止服务、销毁取证痕迹。
与俄罗斯相关的FANCY BEAR组织部署了 LAMEHUG 恶意软件,通过硬编码提示词调用 Hugging Face 上的 Qwen2.5-Coder-32B-Instruct 大模型,执行侦察、收集文档并准备外泄。
这种方式用AI 动态生成内容替代了固定代码逻辑,可绕过静态安全工具。值得注意的是,2025 年82% 的检测事件无恶意软件,意味着大多数攻击通过合法通道实施,而非传统恶意程序。
机构应监控终端上的 AI 工具使用、及时修补 AI 平台、审计 npm 依赖,并在身份、云与 SaaS 环境间保持跨域可视性,以便在攻击者横向渗透前发现快速入侵。