2026年2月

本来要后天才放的,下午突然通知明天就开始放假

但是!

但是!

我因为近期在甲方,必须跟随甲方放假,
甲方要上完 14 号才会放假
你们说我心理阴影面积有几公顷?????

目前暂时考虑两个:小米手环 9Pro 和剃须刀

之前没有带手表和手环的习惯,想试试睡眠监测之类的,上年纪了开始关注健康了facepalm。然后不知道能不能手环刷地铁(杭州),看了 🍠 说杭州地铁不支持,没有累计优惠。

然后先用的剃须刀刮不干净,飞利浦的,买了有好几年了,换个刀头还是买个新的呢。大佬们有推荐好用的吗?挂的干净最重要,当然也不接受太贵的,三四百左右吧

还有什么好用的小东西推荐的吗? doge_flower

在 iOS 26.3 正式版推出的这个时间点,离 Apple 的 Q1 财报发布已经过去了一周多的时间。有意思的是,最近半年 Apple 的股价因为 AI 进展缓慢而一直承压,在「美股七姐妹」中显得格格不入,却在最近半个月因为资本市场开始对 AI 投入产出怀疑的背景下逆势上涨。可能连Apple 自己也想不到,Apple Intelligence 的落后竟然也能在某个时间点成为「优势」。

相比大版本更新,iOS 26.3 更像一次「合规与互操作性优先」的中小迭代:备受瞩目的 Apple Intelligence 暂无明显的新增能力,但在跨平台迁移、区域合规和隐私控制上出现了更明确的推进。

迁移至 Android 手机

iPhone 原先已经支持了迁移到 Android 手机的功能,不过在 iOS 26.3 中 Apple 让这个功能更进一步,实现了「无线传输」的效果。

iPhone 端的操作步骤是先在「设置」>「通用」中找到「传输或还原 iPhone」的入口,然后点进去找到「传输至安卓」的选项,点击并通过 Face ID 验证后即可进入扫描二维码的配对状态。

接着拿出 Pixel,直接在设置中搜索「Back up or copy data」,选择「Copy data using Android Switch」,接着依次点击 Start 和 iPhone or iPad 选项,开始进入配对流程。在经过一段时间的 Getting your phone ready 后,在配对界面点击左下角的「Cable doesn’t fit?」,在弹出的窗口中选择「Copy without cable」,过一会儿就能看到 Pixel 上的配对二维码了。

欧盟合规功能

为了向欧盟 DMA 数字市场法案进行合规推进,Apple 在 iOS 26.3 中继续加入了多项开放性的功能,但是具体可用性仍取决于地区、设备和版本等。

首先,iOS 26.3 中新增了一个通知转发的设置选项,也就是说Apple 将允许第三方可穿戴设备获得 iPhone 上的应用通知推送,而这之前是 Apple Watch 的专属特权。

其次,第三方蓝牙耳机在靠近 iPhone 时也可以直接配对,增加了类似 AirPods 的近距配对能力支持,大大提高了第三方蓝牙耳机在 iPhone 上的实用性。

其它更新

在新版本中,Apple 将锁屏壁纸中的「天气」模块单独剥离了出来,目前提供了 3 款预设壁纸主题。「天文」模块也因此成了一个单独的模块,包含了 6 款预设壁纸主题。另外,Black Unity 壁纸作为每年的保留节目,截至当前版本尚未看到对应壁纸上线,让人感到有点意外。

在 iOS 26.3 测试版中,相关的代码显示 RCS 端到端加密的迹象,这个功能可以让 iPhone 与 Android 手机之间通过端到端加密的 RCS 短信来进行交流,但是正式上线时间取决于运营商与标准推进。「限制精确位置」功能也在 iOS 26.3 的官方文档中得到了确认,在设备与运营商支持的情况下降低运营商可获得的位置精度(例如到「街区级」而非详细地址),但不影响紧急呼叫定位。

Apple Intelligence 新消息

显而易见,本次 iOS 26.3 更新与大多数人没有什么关系,更多的是 Apple 作为一家全球性科技巨头在面临地区法案时做出了一些抉择,如果你不处于这个地区,那几乎没有任何影响。当然从深远的方向来看,欧盟肯定不是唯一一个也不是最后一个,以后可能会有越来越多的地区出台强制性的地区法案,倒逼 Apple 这样的科技巨头来适应当地的法律。

随着前段时间外媒频繁报道 Apple 与 Google 就 AI 合作达成了重要协议,Gemini 将成为 Apple Siri 的官方 AI 合作伙伴,也有传闻表示在下一个版本 iOS 26.4 上我们就能见到 Siri powered by Gemini 的雏形了。

不过,距离去年 John Gruber 替 Apple 发声、确认由 Apple Intelligence 驱动的更智能新版 Siri 核心功能将「推迟至明年」,至今已经整整一年。近日彭博社又发布新的报道表示,由于在内部测试中受挫,新版 Siri 的部分功能会继续推迟,将不会在 3 月的 iOS 26.4 中亮相,某些功能可能会延至 5 月的 iOS 26.5 甚至是 9 月的 iOS 27 再与用户见面。

因此,不论是在 iOS 26 剩下的版本中还是在更受瞩目的 iOS 27 大版本中,Apple Intelligence 都将是 Apple 接下来要面对的重头戏,对于市场和用户来说也都需要 Apple 尽快端出这颗「定心丸」,也让我们拭目以待。

以上就是我整理的 iOS 26.3 中更新的相关特性,我们下次更新见。

    今日速览

    1. happycapy:浏览器变身原生电脑,开箱即用无门槛。
    2. Revo AI Email Assistant:智能邮箱助手,自动回复邮件省时省力。
    3. Tines:安全平台打造智能工作流,自动化你的日常工作。
    4. Migma AI:AI 邮件平台一键设计,提升邮件转化率。
    5. Subscription Day² for iOS:订阅管理工具全新升级,轻松追踪付费分析。
    6. Atyla:AI 搜索引擎 SEO 工具,跟踪品牌曝光抢占先机。
    7. Doraverse's All-in-One AI for Meetings:全能会议助手,实时翻译加自动记录。
    8. Oz by Warp:云代理编排平台,并行运行数百代理加速开发。
    9. Willow for Developers:开发者语音输入神器,三倍准确率写代码。
    10. JumprAI:YouTube AI 搜索工具,描述内容直达精彩时刻。


    1. happycapy

    这款神器能帮你把浏览器变成一台原生计算机,由 Claude Code 驱动,让编码、设计到日常任务一站式搞定。

    • 无需设置和学习曲线,打开即用
    • 提供友好的图形界面,适合所有用户
    • 安全可靠,无风险隐患
    • 支持浏览器和手机端,随时随地工作

    热度:🔺746

    happycapy

    访问官网 Product Hunt 详情


    2. Revo AI Email Assistant

    智能邮箱助手帮你自动处理邮件,连接会议、Slack 和 CRM,几秒钟搞定回复。

    • 专为 Gmail 和 Outlook 设计,快速集成
    • 自动回复邮件,减少手动搜索和打字
    • 连接外部工具,提升任务管理效率
    • 准确处理后续任务,省时省力

    热度:🔺347

    Revo AI Email Assistant

    访问官网 Product Hunt 详情


    3. Tines

    在你的工作空间里构建智能助手和自动化工具,打造安全可靠的工作流程。

    • 供应商无关平台,灵活适应不同环境
    • 构建、运行和监控智能工作流
    • 集成到工作空间,减少手动操作
    • 提供可信赖的自动化解决方案

    热度:🔺345

    Tines

    访问官网 Product Hunt 详情


    4. Migma AI

    让邮件重新变得吸引人,这个 AI 平台帮你设计和发送高转化率的邮件。

    • 一键连接域名,快速开始创建邮件
    • 通过 API 接口访问,灵活集成
    • 准确追踪点击率和打开率,优化效果
    • 专为邮件转化设计,提升营销效率

    热度:🔺327

    Migma AI

    访问官网 Product Hunt 详情


    5. Subscription Day² for iOS

    全新设计的订阅管理工具,帮你跟踪来自多个来源的付费订阅分析。

    • 支持 Mac 和 iOS,跨平台使用
    • 改进版界面,操作更流畅
    • 分析多来源数据,全面掌握订阅情况
    • 轻松管理付费订阅,避免遗漏

    热度:🔺291

    Subscription Day² for iOS

    访问官网 Product Hunt 详情


    6. Atyla

    随着 AI 搜索崛起,这款工具帮营销团队在 ChatGPT、Gemini 等引擎上跟踪和提升品牌曝光。

    • 跟踪品牌在 AI 回答中的提及频率
    • 分析竞争对手推荐,抢占市场先机
    • 专为生成引擎优化(GEO)设计
    • 将 AI 可见性转化为可量化增长渠道

    热度:🔺242

    Atyla

    访问官网 Product Hunt 详情


    7. Doraverse's All-in-One AI for Meetings

    全能会议助手支持 60 多种语言实时翻译,自动生成记录和待办事项。

    • 提供实时翻译,打破语言障碍
    • 自动生成会议记录、笔记和行动项
    • 内置 AI 助手,随时提问获取信息
    • 企业级安全,无论有无机器人都可靠

    热度:🔺237

    Doraverse's All-in-One AI for Meetings

    访问官网 Product Hunt 详情


    8. Oz by Warp

    云代理编排平台让你在几分钟内启动数百个代理,加速开发流程。

    • 通过 Warp、CLI 或手机快速启动代理
    • 并行运行数百个云代理,提升效率
    • 生成生产就绪的合并请求(PRs)
    • 简化云代理管理,减少手动配置

    热度:🔺175

    Oz by Warp

    访问官网 Product Hunt 详情


    9. Willow for Developers

    开发者语音输入工具,准确度是内置选项的三倍,让写代码更快捷。

    • 支持 Cursor、Antigravity 等 AI IDE 语音输入
    • 文件标记提供丰富上下文,提升准确性
    • 识别技术术语和缩略语,如 SQL、API
    • 在 Mac 和 Windows 上可用,跨平台兼容

    热度:🔺147

    Willow for Developers

    访问官网 Product Hunt 详情


    10. JumprAI

    在 YouTube 视频中用 AI 搜索直达任何时刻,告别拖动进度条的烦恼。

    • 语义搜索技术,理解内容含义而非仅关键词
    • 自动处理带字幕的视频,无缝集成 YouTube
    • 保护数据隐私,使用安全放心
    • 完全免费工具,轻松找到搞笑或教程时刻

    热度:🔺137

    JumprAI

    访问官网 Product Hunt 详情

    今天,我们上线并开源 GLM-5 。

    学界与业界正逐渐形成一种共识,大模型从写代码、写前端,进化到写工程、完成大任务,即从“Vibe Coding”变革为“Agentic Engineering”。

    GLM-5 正是这一变革的产物:在 Coding 与 Agent 能力上,取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5 ,擅长复杂系统工程与长程 Agent 任务。

    在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。

    更大基座,更强智能

    GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:

    • 参数规模扩展:从 355B (激活 32B )扩展至 744B (激活 40B ),预训练数据从 23T 提升至 28.5T ,更大规模的预训练算力显著提升了模型的通用智能水平。
    • 异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
    • 稀疏注意力机制:首次集成 DeepSeek Sparse Attention ,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency 。

    Coding 能力:对齐 Claude Opus 4.5

    GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.856.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro 。

    2026 年,大模型需要从“会写”走到“会完成”,尤其是端到端完成大型任务。GLM-5 是一个“系统架构师”,它不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。

    在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7 (平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus 4.5 。

    Agent 能力:SOTA 级长程任务执行

    GLM-5 在 Agent 能力上实现开源 SOTA ,在多个评测基准中取得开源第一:在 BrowseComp (联网检索与信息理解)、MCP-Atlas (工具调用和多步骤任务执行)和 τ²-Bench (复杂多工具场景下的规划和执行)均取得最佳表现。

    在衡量模型经营能力的 Vending Bench 2 中,GLM-5 获得开源模型第一的表现。Vending Bench 2 要求模型在一年期内经营一个模拟的自动售货机业务,GLM-5 最终账户余额达到 4432 美元,经营表现接近 Claude Opus 4.5 ,展现了出色的长期规划和资源管理能力。

    这些能力是 Agentic Engineering 的核心:模型不仅要能写代码、完成工程,还要能在长程任务中保持目标一致性、进行资源管理、处理多步骤依赖关系,成为真正的 Agentic Ready 基座模型。

    国产芯片支持线上推理集群

    GLM 系列模型受到全球开发者喜爱,在 GLM Coding Plan 全球爆量后,我们不得不启动限售活动。本次 GLM-5 的上线依托众多国产芯片有力保障了线上服务的稳定和高效。

    目前,GLM-5 已完成与华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原、海光等国产算力平台的深度推理适配。通过底层算子优化与硬件加速,GLM-5 在国产芯片集群上已经实现高吞吐、低延迟的稳定运行。

    Agentic Engineering 典型场景

    点击或在浏览器输入:showcase.z.ai,即可查看所有案例。

    开源与使用方式

    即日起,GLM-5 在 Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License 。

    GLM-5 已经纳入 Max 用户套餐,Pro 将尽快在 5 天内支持,接下来我们将逐步扩大范围,尽力让更多用户体验并使用 GLM-5 。GLM Coding Plan 支持 Claude Code 、OpenCode 等主流开发工具。

    GLM Coding Plan 同步升级 Agentic Engineering 体验:

    • 官方适配 OpenClaw:仅需简单几步即可完成配置,快速开启 Agent 工作流;
    • Pro / Max 用户限量赠送 AutoGLM-OpenClaw:支持将云端个人 AI 助手接入飞书,实现办公场景的长任务执行;
    • 新增 GLM in Excel 权益:原生适配 Excel 环境的 AI 插件,支持在侧边栏以自然语言交互,深度赋能数据处理与表格工作流( Beta 期仅 Max 用户可享套餐抵扣)。


    1. 官方 API 接入

    2. 在线体验

    3. 开源链接

    4. Agent

    5. Blog

    点赞 + 关注 + 收藏 = 学会了

    整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

    JSNES 是一款怀旧游戏模拟器,无需安装任何客户端,仅通过浏览器即可运行,支持超级马里奥、魂斗罗等海量经典游戏。可部署到 NAS、服务器等设备打造本地怀旧游戏中心,完全免费无广告,轻松重温童年游戏乐趣。

    本次使用飞牛 NAS 部署 JSNES,其他品牌的 NAS 部署流程也是差不多的。

    在“文件管理”找到“docker”文件夹,在里面创建一个“jsnes”文件夹。

    打开“Docker”,切换到「Compose」面板,创建一个项目。

    项目名称填 jsnes

    路径选择刚刚在“文件管理”里创建的 /docker/jsnes,具体目录根据你的 NAS 情况来填。

    来源选择“创建docker-compose.yml”。

    输入以下代码:

    services:
      jsnes:
        image: docker.1ms.run/wangz2019/jsnes:1.0.0
        container_name: jsnes
        ports:
          - 3456:80
        restart: always

    我给它配置了 3456 端口,你可以自定义。

    等 jsnes 下载并构建完成后,切换到「容器」面板,找到 jsnes 点击这个“链接”按钮就可以在浏览器打开 jsnes 了。

    支持键盘按键操作。

    在手机也可以玩的。

    除了马里奥和魂斗罗之外,还有淘金者、功夫、坦克大战等众多经典游戏。


    以上就是本文的全部内容啦,有疑问可以在评论区讨论~

    想了解更多NAS玩法可以关注《NAS邪修》👏

    点赞 + 关注 + 收藏 = 学会了

    24 年就离婚了,今年年底实在瞒不住了,才爆出来
    有个读幼儿园的女儿
    去年老婆没回家过年原来就是已经离了,今年过年又没回家,丈母娘问多了憋不住了才摊牌,现在的小年轻真是牛逼(哦,也不年轻了,98 年的今年都 28 了,马上奔三了)

    前面一直以为他们两个只是闹矛盾。


    汉得鲲苍基础架构管理平台的核心目标是为企业的异构系统提供简单高效的一站式统一闭环管理能力,包括统一资源(集群、主机、存储等)管理、统一应用及部署管理、统一监控管理、统一服务治理,帮助企业实现更快、更好、更全面的异构系统管理。

    接下来我们将会提供一系列推文,介绍鲲苍平台的使用,帮助您快速了解本平台,给您更好的使用体验。

    本文为系列推文的第三十一讲,将介绍如何通过鲲苍监控应用性能,在分布式系统中快速定位性能问题,大大缩短故障排查时间,高效解决性能问题!

    本篇概述

    在分布式架构时代,一次用户请求的背后,可能历经数十个服务的流转,如何快速洞察系统性能、精准定位性能瓶颈?鲲苍平台「应用性能监控(APM)」能力,为您提供从全局拓扑到代码堆栈的全链路可观测方案,让应用性能问题无处遁形。

    功能亮点:应用性能监控接入

    1. 新建数据源

    服务可观测性/监控数据源配置:新增Skywalking类型数据源。

    2. 新建应用性能监控集群

    应用性能监控/应用性能监控集群配置:关联数据源。

    3. 应用性能监控接入

    查看 接入指南 ,按步骤操作:
    部署前端应用时,开启 isTrace ,例如:

    `ClientMonitor.register({
      accessTokenUrl: http://1.2.3.4:8080/oauth/oauth/token,
      collector:${HOPS_CLUSTER_URL}/v3/segments,
      isAjax: true,
      isTrace: true,
      namespace: '',
      clientId: '';
      clientSecret: '';
    })`

    部署后端应用时,通过 javaagent 接入应用性能监控,例如:

    ## 应用启动需要添加以下启动参数
    -Xms1024m -Xmx1536m -javaagent:agent_path/skywalking-agent.jar -Dskywalking.agent.namespace=hops-dev -Dskywalking.agent.service_name=hops-dev:hzero-product -Dskywalking.collector.backend_service=127.0.0.1:11800

    应用性能监控分析

    1. 全景拓扑,一眼看懂服务关系

    基于真实的调用链路数据,自动绘制实时服务依赖关系图。节点颜色动态反映服务健康状态,直观呈现系统架构全貌,依赖关系一目了然。

    • 边上可查看服务间平均响应延迟,点击可查看详细的平均响应时间、平均吞吐量、平均SLA、响应时间分布等指标
    • 服务实例上点击可查看服务应用性能指数(APDEX)、响应时间、吞吐量、SLA、响应时间分布等指标

      2. 链路追踪,穿透每一个调用环节

      从入口到数据库,完整记录请求在分布式系统中的流转路径。支持查看每个环节的耗时、状态、异常详情、SQL语句,支持多种视图灵活切换,轻松定位慢调用与异常节点。

      3. 多维监控,关键指标实时掌控

      全局概览:掌握集群整体响应延迟分布、吞吐量排行、慢服务/慢端点排行等。

    服务维度:深入查看单服务响应时间、吞吐量、SLA、Apdex满意度指数等。

    服务端点及数据库分析:分析接口性能与数据库慢查询,全面覆盖应用层到数据层。

    4. 深度剖析,直击性能根源

    JVM&实例级深度分析

    针对 Java 服务,鲲苍提供实例级 JVM 健康洞察,从“现象”到“根因”,不再依赖经验猜测:

    • CPU 使用率、GC 耗时与次数、线程状态、线程堆栈
    • 堆内存使用情况与对象分布
    • MBean 详情、系统属性与运行环境信息等

    服务链路性能剖析
    通过采样跟踪与性能剖析任务,鲲苍可对指定 API 在一段时间内进行方法级堆栈分析,并以火焰图形式呈现调用链。宽而平的“平顶”函数,往往就是性能瓶颈所在,问题定位更直接、更高效。

    5. 应用性能告警,防患于未然

    基于响应时间、成功率、吞吐量等核心指标,灵活配置告警规则与生效范围,实现应用性能的主动感知与提前预警,助您提前发现风险,保障系统持续稳定运行。

    联系我们:

    • 如果您想了解鲲苍更详细的功能介绍和产品信息,请登录开放平台查阅我们的产品文档
    • 如果您有疑问,可以通过开放平台进行工单反馈,问题分类请选择【产品/汉得基础架构管理平台】
    • 相关产品咨询或更多信息了解,欢迎联系我们。
      邮箱:openhand@vip.hand-china.com

    我觉得未来不仅是视频,个人软件也会进入到 self feed self 的模式

    之前的模式,个人负担不起软件的开发成本,所以要用自己的需求匹配开发者的需求,选一个“最能接受的”

    而现在 Vibe coding 的发展现状,大部分人可以自己给自己定制软件,使它 100%贴合自己的需求,尤其是开发者这一群体

    反过来说,现在产出的速成“产品”,但这部分产品大部分都是依据开发者想法速成的,一方面质量参差、生命周期短,另一方面软件依据开发者自己的需求,不像传统产品经过需求分析、详细设计,能匹配上自己的概率也降低了

    (正在畅想自己给自己写个游戏玩

    最近遇到的两个糟心事

    1. 偶然间发现这些年备份的 live photo 全部丢失视频无法播放了,还好有多重备份,有一份在 google photo

    2. 官方强制内置了一个 docker 加速器,速度慢的像是蜗牛还无法禁用,导致自己挂的 openclash 代理无法生效,反馈到论坛也只会复读让你用官方加速器。

    macos:26.2
    iphone15pro 26.3
    使用 mac 进行 iphone 镜像时,刷几分钟就会花屏,且无法恢复。只能叉掉重进
    有一样的 v 友吗

    在AI应用开发的浪潮中,向量数据库已经成为构建智能检索、推荐系统和RAG(检索增强生成)应用的基础设施。当你的应用需要处理嵌入向量、进行语义搜索时,选择合适的向量数据库就显得至关重要。今天我们就来深入对比三款主流向量数据库:Pinecone、Weaviate和Chroma,帮助你做出明智的技术选型。

    什么是向量数据库?为什么需要它?

    在传统数据库中,我们通过精确匹配来查询数据——比如查找"张三"的订单记录。但在AI时代,我们面临的是另一个挑战:如何找到"语义相似"的内容?当用户问"如何提升工作效率"时,系统需要找到所有关于时间管理、任务规划、工具使用的相关文档,即便这些文档中并没有出现"工作效率"这四个字。

    这就是向量数据库的用武之地。它将文本、图像等数据转换为高维向量(通常由嵌入模型生成),然后通过计算向量之间的距离(相似度)来实现语义搜索。想象一下,每个概念都是空间中的一个点,相似的概念会聚集在一起,向量数据库就是帮你在这个高维空间中快速找到最近邻居的工具。

    三款数据库的基因与定位

    Pinecone:云原生的性能之选

    Pinecone诞生于2019年,是一个完全托管的云服务,它的核心理念是"让开发者专注于应用,而不是基础设施"。Pinecone团队在设计之初就瞄准了企业级性能和规模化需求,它采用了专有的优化算法,在处理数十亿级别的向量检索时依然能保持毫秒级的响应速度。

    如果你正在构建一个需要处理海量数据的生产系统,比如全网商品的相似推荐、大规模文档库的智能检索,Pinecone的稳定性和性能表现会让你印象深刻。不过,这种高性能是有代价的——它是一个纯云服务,你无法在本地部署,而且定价相对较高。

    Weaviate:开源的全能战士

    Weaviate从2019年开始开源,它的野心更大——不仅仅是一个向量数据库,而是一个完整的AI原生数据库。除了向量搜索,Weaviate还支持传统的CRUD操作、复杂的过滤条件、多模态数据(文本、图像等)的混合查询。

    这款数据库的架构非常灵活,你可以选择云托管,也可以在自己的服务器上部署。它内置了多种向量化模型,甚至支持在查询时实时生成嵌入向量,这对于快速原型开发非常友好。如果你的应用场景复杂,需要结合传统数据库功能和向量搜索,Weaviate会是一个理想的选择。

    Chroma:轻量级的开发者最爱

    Chroma是三者中最年轻的,2022年才推出,但它迅速在开发者社区中走红。原因很简单:它足够轻量、足够简单。Chroma的设计哲学是"嵌入即数据库"——你可以用几行Python代码就启动一个向量数据库,无需复杂的配置和部署。

    对于AI应用的原型开发、小规模项目或者本地实验,Chroma简直是完美的工具。它默认使用本地持久化,也支持客户端-服务器模式。虽然在企业级功能和性能上不如前两者,但它的简洁性和易用性让初学者和独立开发者爱不释手。

    核心能力对比:谁更适合你的场景?

    性能与规模

    在处理亿级向量的场景下,Pinecone展现出了明显的优势。它采用的近似最近邻(ANN)算法经过深度优化,查询延迟可以控制在10-50毫秒之间。Weaviate的性能也相当不错,特别是在合理配置HNSW索引参数后,可以达到相近的水平。Chroma在小规模数据(百万级)下表现良好,但当数据量突破千万级别时,性能会有明显下降。

    一个典型的例子:如果你在构建一个服务百万用户的推荐系统,每天处理上亿次查询,Pinecone的稳定性和性能会给你更多信心。但如果是一个企业内部的知识库检索系统,用户基数有限,Weaviate或Chroma都能胜任。

    功能丰富度

    Weaviate在功能上是最全面的。它支持混合搜索(结合关键词和向量)、多租户隔离、复杂的GraphQL查询、自动向量化等。这意味着你可以在一个系统中同时满足传统数据库和向量数据库的需求。

    Pinecone则专注于向量搜索这一核心功能,提供了元数据过滤、命名空间隔离等实用特性,但不会有传统数据库的CRUD操作。Chroma介于两者之间,提供了基础的元数据过滤和简单的查询接口,足够日常使用但不够企业级。

    部署与运维

    这是三者差异最大的地方。Pinecone是纯云服务,你无需关心任何基础设施,一个API密钥就能开始使用。这既是优势也是限制——优势在于零运维成本,限制在于你必须依赖外部服务,数据存储在第三方云上。

    Weaviate提供了最大的灵活性:你可以使用官方云服务Weaviate Cloud Services(WCS),也可以通过Docker、Kubernetes自行部署。对于有数据主权要求或需要定制化配置的企业,这种灵活性至关重要。

    Chroma默认是一个嵌入式数据库,可以直接在应用中启动,也支持独立的服务器模式。它的部署极其简单,甚至不需要Docker,一个Python环境就够了。

    成本考量

    成本不仅是金钱,还包括学习成本和维护成本。Pinecone按照向量存储量和查询次数计费,对于中大型应用,月度费用可能从数百到数千美元不等。但你节省了运维时间和基础设施成本。

    Weaviate和Chroma都是开源的,如果自行部署,只需要承担服务器成本。Weaviate的云服务定价比Pinecone略低,而且有免费额度。Chroma完全免费,但你需要自己处理扩展性和高可用问题。

    实际应用场景建议

    选择Pinecone,如果你:

    • 需要处理数千万甚至数亿级别的向量数据
    • 对查询延迟有严格要求(如实时推荐系统)
    • 希望最小化运维工作,专注于业务逻辑
    • 有充足的预算,愿意为性能和稳定性付费

    选择Weaviate,如果你:

    • 需要结合传统数据库功能和向量搜索
    • 有数据隐私或本地化部署的要求
    • 应用场景复杂,需要灵活的查询能力
    • 希望在开源生态和企业支持之间取得平衡

    选择Chroma,如果你:

    • 正在进行原型开发或概念验证
    • 数据规模在百万级别以内
    • 团队规模较小,需要快速上手
    • 预算有限,或者偏好简单的技术栈

    技术演进与未来趋势

    向量数据库领域还很年轻,技术演进非常迅速。Pinecone最近推出了Serverless架构,进一步降低了使用门槛。Weaviate在多模态搜索和AI集成方面持续发力,最新版本已经支持了生成式AI模块。Chroma则在不断优化性能,缩小与成熟产品的差距。

    值得注意的是,传统数据库巨头也在入场。PostgreSQL的pgvector插件、Elasticsearch的向量搜索功能都在快速成熟。选型时也可以考虑这些"混合型"方案,特别是当你已经在使用这些数据库时。

    结语

    向量数据库的选型没有绝对的对错,关键是匹配你的实际需求。如果你追求极致性能且预算充足,Pinecone是最省心的选择;如果需要功能全面且部署灵活,Weaviate值得深入研究;如果想要快速启动或控制成本,Chroma会是理想的起点。

    技术选型永远是一个权衡的过程——性能、成本、灵活性、易用性,你需要在这些维度之间找到最适合自己的平衡点。建议在做最终决定前,针对你的真实数据和查询模式做一些基准测试,数据会给你最直观的答案。

    记住,最好的数据库不是功能最多的,也不是性能最强的,而是最适合你的业务场景、团队能力和发展阶段的那一个。


    快速对比表格

    特性PineconeWeaviateChroma
    类型托管云服务开源(可托管)开源嵌入式
    推出时间201920192022
    适用规模亿级+千万-亿级百万-千万级
    部署方式仅云端云端/自托管嵌入式/服务器
    查询延迟10-50ms20-100ms50-200ms
    功能丰富度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
    易用性⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
    成本低/免费
    企业支持社区

    作者注: 本文基于2026年2月的技术现状撰写,向量数据库技术发展迅速,建议查阅各产品官方文档获取最新信息。

    相关资源:

    随着生成式人工智能(AIGC)等技术不断演进,海量镜像与大模型的分发成为 AI 领域的一项关键挑战。这些挑战包括:海量分片(数百万个)、高并发拉取需求、严格的延迟要求,以及动态的网络环境等。如何在兼容 OCI 等主流格式,并且无需侵入性的实现动态、高效、可扩展的大规模镜像与模型文件分发系统,已是云原生应用与 AI 服务的迫切需求。

    为了解决这些问题,蚂蚁集团与大连理工大学合作设计了一套动态、高效、可扩展的大规模镜像与模型文件分发系统。近日,由蚂蚁集团与大连理工大学共同撰写关于该系统的论文被 IEEE Transactions on Networking (TON) 期刊录用。TON 是由 IEEE 认可的高影响力学术期刊,在网络与系统领域具有重要影响力。本论文的录用标志着研究成果对行业发展具有前瞻性和创新性。 

    论文简介

    论文设计构建了一个高效、可扩展的 P2P 模型分发系统,该系统是对 CNCF 孵化项目 Dragonfly 的增强,通过多层次设计实现了资源优化与数据同步的有机结合,旨在解决传统 P2P 文件分发系统在面对 AI 大模型(如千亿参数模型)分发的特定挑战时表现不佳的问题。
    图片
    论文链接:https://ieeexplore.ieee.org/document/11152005
    项目官网:https://d7y.io

    技术方案与创新方法

    传统的集中式镜像/模型中心(Container/Model Registry)在并发下载高峰期常遭遇单点带宽瓶颈,导致拉取速度下降、任务延迟增加。另一方面,单纯依赖内容分发网络(CDN)或私有链路虽能缓解部分热点问题,却无法充分利用集群内部节点的空闲带宽资源,同时引入额外的成本开销。
    图片
     图 1: 文件分发系统架构图

    应对这些问题,本方案引入了该方案引入了三个关键设计:首先,引入轻量级的网络测量机制,通过主动探测网络延迟和推断带宽,实时预测网络信息。其次,设计了可扩展的调度框架,通过将推理与调度解耦,提升了调度系统的资源利用率和响应速度。最后,Trainer 模块采用异步模型训练与推理方法,结合图学习算法,实现了基于突发性任务的增量学习。
    图片
    图 2: 三个关键设计的调度算法

    如图 2 所示,轻量级的网络测量机制确保在有限的可用网络资源下对集群中的每个节点进行高效探测。可扩展的调度框架确保足够的可用资源执行调度任务。异步模型训练和推理方法让算法结合节点特性参数进行聚合,以捕捉集群内的相似性,从而提升带宽预测效果。

    性能成果

    性能评估表明,相较于主流系统和算法,本系统在总加载完成时间上实现了至少 10% 的缩减,同时将节点平均带宽利用率提升约 20%。此外,所提出的轻量级探测机制通过减少探测频率和计算复杂度,相比现有网络探测方法有效降低了资源开销。该系统不仅能满足 AI 对大规模模型分发的高并发、低延迟需求,还能更高效地利用集群资源,希望可以为行业提供参考。

    关于我们

    蚂蚁集团容器镜像与存储团队,主要参与
    Dragonfly(https://github.com/dragonflyoss/dragonfly)、
    Nydus(https://github.com/dragonflyoss/nydus)、
    Harbor(https://github.com/goharbor/harbor)和
    ModelPack(https://github.com/modelpack/model-spec) 等开源项目在内部的开发落地和上游项目的维护。我们致力于打造业内顶尖的容器镜像服务,并推动云原生场景下 AI 模型和镜像分发的社区标准化。

    上班摸个鱼,来分享一下我最近的小工具。

    之前搞过 windows 上的 AirPlay 的 投屏接收器,最近下班闲的没事干,再来继续造造轮子。

    UI 框架继续用 UWP+WinUI2.X, UWP 完全沙箱,商店管理,不在电脑上乱拉东西

    支持图片,音乐,视频这三种媒体类型,解码直接调用 windows 自带的能力。

    这次高频率试用 GPT Codex 3.5 生成代码,感觉有这玩意儿写代码真的轻松很多,聊者天喝着茶就把软件搞定了。

    传送门 DLNA Receiver - Media Player

    兑换码我放下面

    点赞 + 关注 + 收藏 = 学会了

    整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

    tldraw 是一款开源免费的轻量级协作白板工具,NAS 可以通过 Docker 就能一键部署,群晖、绿联、极空间等主流 NAS 全适配,无需复杂配置。它拥有无限手绘画布,支持画笔、形状、连线、文本便签等实用功能。

    这次我用绿联 NAS 部署,其他品牌的 NAS 操作步骤也是差不多的。

    打开“Docker”应用,在“镜像”页面搜索“tldraw”,下载红框选中的那个 ratneo/tldraw

    下载完成后,切换到“本地镜像”页面,点击 ratneo/tldraw 旁边的加号,创建容器。

    在创建容器这页,容器名称可以自定义,我就不改了。

    自动重启可以勾选上。

    往下滑,”NAS端口“这项可以自定义,我这里选的是 39445 这个端口。

    部署完成后,浏览器输入 NAS的IP:39445 就能使用 tldraw 了。

    它支持将画布内容导出为 SVGPNGJSON 这几种格式。


    以上就是本文的全部内容啦,有疑问可以在评论区讨论~

    想了解更多NAS玩法可以关注《NAS邪修》👏

    点赞 + 关注 + 收藏 = 学会了

    在大语言模型的技术版图中,自回归(AR)架构长期占据主导地位,而扩散模型则被视作一条充满挑战的“非共识”路线。LLaDA2.0 已经成功证明了扩散语言模型(dLLM)规模化至 100B 参数的可行性,但生成速度与生成质量的平衡始终是横亘在扩散模型面前的核心难题。

    2月11日,我们正式发布 LLaDA2.1,通过可纠错编辑机制,首次让扩散语言模型在保持高质量的同时,将推理速度推至 892 TPS的新高度,让扩散语言模型从“研究探索”向“真正可用”迈进了一大步。

    创新“可纠错编辑”机制 Error-Correcting Editable, ECE

    作为实现飞跃的最核心创新,它赋予了扩散模型一种前所未有的“智慧”——像人类专家一样“起草-编辑”。

    传统自回归模型像是一个不允许带草稿纸、不允许带提纲的考生,它下笔无悔,不允许修改自己写好的答案。LLaDA2.1 从根本上重构了这一范式。我们提出了 Token-to-Token(T2T)编辑机制,让模型具备「起草-编辑」的双重能力,在毫秒级的闪电采样中完成“草稿”到“正卷”的转身:

    • 起草阶段:模型以较低的置信度阈值快速并行生成初始草稿;
    • 编辑阶段:模型启动自我纠错,对已生成的 Token 进行回溯检查和迭代修正。
      图片
      图 1:传统吸收态范式 vs LLaDA2.1 可纠错编辑机制

    这种设计让扩散模型首次拥有了类似人类的「修改草稿」能力,解决了并行生成的误差累积问题,为高速解码奠定了理论基础。

    灵活“双模式”设计 Speedy Mode vs Quality Mode

    基于可纠错编辑机制,LLaDA2.1 提供了两种截然不同的运行模式,将速度与生成的选择权交还给用户:
    | Speedy Mode(极速模式)
    采用激进的低阈值策略进行 M2T 解码,以最大化并行度生成初始草稿,随后依赖 T2T 编辑机制进行精炼修正。这一模式实现了快速的推理速度,在代码生成等结构化任务中,仅带来可接受的性能折损。

    | Quality Mode(质量模式)
    采用保守的高阈值策略,优先保证解码的精确性。在这一模式下,LLaDA2.1 在 33 项基准测试上全面超越 LLaDA2.0,并超越同类型扩散语言模型:
    代码能力:HumanEval+ 89.63%,CRUXEval-O 87.50%
    数学推理:AIME 2025 63.33%,GSM-Plus 89.69%
    智能体任务:BFCL v3 75.61%,IFEval 83.55%

    双模式设计让用户真正成为速度与质量的决策者 —— 需要实时响应时选择 Speedy Mode,需要精确输出时则可以切换 Quality Mode,满足不同场景下的真实需求。

    业界首个 dLLM 大规模 RL 框架

    如果说“可纠错编辑”让模型变得“可用”,那么强化学习则让模型变得更“聪明”、更“可靠”,体感更强。LLaDA2.1 实现了首个专为 dLLM 设计的大规模强化学习框架。
    图片
    图 2:LLaDA2.1 训练与推理框架概览

    扩散模型的策略优化面临一个根本性障碍:序列级对数似然无法直接计算。在 100B 规模的扩散模型上跑通 RL 绝非易事。它不仅需要极强的工程底层支撑,要求我们从块状扩散(Block-diffusion)的条件概率转移视角,提出稳定的梯度估计算法,即 EBPO(ELBO-based Block-level Policy Optimization):

    • 使用 Evidence Lower Bound (ELBO) 作为似然的合理代理;
    • 结合 Vectorized Likelihood Estimation,实现边界估计的并行计算;

    EBPO 不仅提升了训练效率,更为 dLLM 的后训练优化提供了稳定、可扩展的解决方案。这一突破让强化学习首次能够稳定地扩展到扩散语言模型的后训练阶段,显著提升了模型的指令遵循能力和人类意图对齐度。

    性能表现
    LLaDA2.1 开源两个版本:
    图片

    LLaDA2.1 在保持高质量生成的同时,实现了突破性的推理速度 —— 892 TPS,是传统自回归模型的数倍。在多个生成场景中,它都能以闪电般的速度完成;尤其是在代码领域,平均达到了 600-700 的 TPS,让用户体验如丝般流畅。

    图片
    图 3:LLaDA2.1 在 Mini 和 Flash 系列上的吞吐量对比

    图片
    表 1:在不同场景上,LLaDA2.1 在 Mini 和 Flash 系列上的吞吐量

    892 TPS 意味着什么?相当于每秒生成近 900 个 token,足以支撑实时交互、大规模部署等工业级应用场景。
    这一速度飞跃的背后,正是可纠错编辑机制的支撑 —— 正因为模型具备自我修正的能力,才敢在初始阶段采用激进的低阈值策略快速生成,而不必担心错误累积导致质量崩塌。

    结语

    LLaDA2.1 的意义不仅在于 892 TPS 的速度数字,更在于它证明了:通过技术创新,扩散语言模型完全可以在保持并行生成优势的同时,克服质量与速度的传统权衡。

    可纠错编辑机制的引入,让 dLLM 第一次拥有了“自我修正”的智慧;双模式设计让用户真正成为速度与质量的决策者;强化学习框架则为扩散模型的后训练开辟了新的可能性。

    我们诚挚邀请社区开发者体验 LLaDA2.1,也欢迎有志于探索 LLaDA 模型的同学加入我们,共同探索扩散语言模型的边界。蚂蚁技术研究院招聘火热进行中!多个研究课题,等你挑战!