我是 美版 iPhone16Pro+美区 Apple ID
这样就可以使用 Apple Intelligence
但是我现在在国内,也必须使用一些国内特供的 App 。所以我也有一个国区的 Apple ID 去下载这些软件。。

这就出现一个很逆天的判定,就是 Apple Intelligence 判定的是你设备里的所有账户都为环大陆的,才能启用。。。

以至于我每次切国行 appleid 的时候,他都会自己删除模型(是的,是删除,不是禁用。。。)。然后每次切回来的时候,他又重新再下载一遍。。。

真挺无语的,虽然下载模型似乎走的是国内的 CDN ,走的不是代理。。。要不流量就真的撑不住

今天办的商宽突然被强行踢下线,然后就是限速到上行 10M ,开始各种丢包网络基本不可用,询问客户经理得知最近湖南联通对出省上行多的全部判定 pcdn 做限速(大约出省几百 G 就可能触发),且不得解除,基本就是逼着清退用户

主要通勤路上用,目前两个需求,价格 1k 以下应该没问题吧

  • 近视戴眼镜,希望舒服
  • 希望被动隔音效果好(我试过同事降噪耳机,会头晕)
  • 无线,苹果手机没有音频口

  1. Vibe Coding 了一个 App ,主要功能是,搜索数据库中的字幕,返回字幕结果,点击结果可以从字幕所在的地方开始播放视频。
  2. 我的学习流程是:下载影视资源 → 下载字幕 → 找 Gemini 翻译成双语字幕(机翻偏向直译容易理解) → 找 Gemini 分析并找出短语搭配和中文翻译然后导出到 Excel (已经有翻译的情况下,这一步不会脱离语境翻译污染数据) → 扫一下哪些不会或不熟悉的短语,并在这个 App 中搜索观看(常见搭配还会有很多其它视频的结果) → 逐个观看,加深记忆。
  3. 这些影视作品之前最好看过,这样可以快速进入语境,增强代入感。
  4. 使用了一个多星期,直观感觉是听力水平大幅度提升,对于比较熟悉的视频,可以不依赖字幕观看。
  5. 另外我还下载了不少 game movie ,就是那种只剪辑包含语音部分的游戏录像,然后手动分 p ,本地 AI 识别字幕,再走第 2 步的流程,体验也挺好的,尤其是自己玩过的游戏。
  6. 相比于古法看美剧学英语,我觉得主要好处是让 AI 帮你找出了短语搭配,避免自己去一点一点摸索。而且古早时期汉化组其实会有一些翻译错误,现在交给 AI 翻译,这方面问题会少一些。
  7. 除此之外,可以定制自己喜欢的内容,你完全可以边打游戏边录像,然后 AI 识别语音,剪辑出只包含语音的部分和生成字幕(语音是英语就行了,字幕其实关系没那么大)。实在懒得录像也可以去哔哩哔哩下载别人的。

大家觉得这个方法怎么样?
无推广内容,大家可以随意讨论。

现在介绍LangGraph 和 LangChain 的文章。每一篇的结论都差不多:简单流程用 LangChain,复杂的用 LangGraph。

但是简单和复杂都是相对的,如果是具体问题呢,比如说一个做代码分析、三个 Agent 串起来的流水线,到底该拿哪一个上线?

所以本文用同一个需求分别用两个框架实现,Agent、逻辑、Gemini 2.5 Flash 调用全部一致,一遍 LangChain,一遍 LangGraph。

两个框架到底在做什么

LangChain 是一个模块化工具包,提供 prompt 模板、文档加载器、retriever、输出解析器、memory 抽象这些零件,再把它们按线性顺序 A → B → C 串起来。像一条传送带:定义步骤,数据往前流,结束。

LangGraph 是一层编排。它把工作流建模成状态机 —— 节点是函数,边是转换 —— 而边可以是条件的。流水线可以循环、分支、重试,也能暂停等待人工输入。就是一张流程图。

不过从 LangChain v1.0(2025)开始,LangChain 自己的 Agent 抽象就是建在 LangGraph 之上的。所以这两个不是两个互相竞争的框架,而是同一个系统不同的抽象层级。

实验:同一条流水线,两个框架

测试用例是一条三阶段的代码审查流水线:

  1. Context agent —— 抓 PR diff 和仓库历史
  2. Analysis agent —— 在改动代码中定位问题
  3. Review agent —— 输出带严重程度评分的结构化反馈

BugLens 线上的 analysis agent 有时需要回头再去拉一轮 context 才能给出有把握的判断。正是这个条件回跳把我逼到了决策点。

LangChain 版本

 from langchain_core.prompts import ChatPromptTemplate  
from langchain_google_genai import ChatGoogleGenerativeAI  
from langchain_core.output_parsers import StrOutputParser  

llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash")  
context_chain = (  
    ChatPromptTemplate.from_template("Analyze this PR diff: {diff}")  
    | llm  
    | StrOutputParser()  
)  
analysis_chain = (  
    ChatPromptTemplate.from_template("Find issues in: {context}")  
    | llm  
    | StrOutputParser()  
)  
review_chain = (  
    ChatPromptTemplate.from_template("Write review for: {analysis}")  
    | llm  
    | StrOutputParser()  
)  
# 线性执行  
def run_pipeline(diff: str):  
    context = context_chain.invoke({"diff": diff})  
    analysis = analysis_chain.invoke({"context": context})  
    review = review_chain.invoke({"analysis": analysis})  
     return review

干净、可读,五分钟能写完。问题在于:analysis 返回的置信度一旦偏低,整条链就会有问题 —— 得在链外面加 if/else,手动 re-invoke,再自己把状态拼回去。

LangGraph 版本

 from langgraph.graph import StateGraph, END  
from typing import TypedDict  

class ReviewState(TypedDict):  
    diff: str  
    context: str  
    analysis: str  
    review: str  
    confidence: float  
    iterations: int  
def context_node(state: ReviewState) -> ReviewState:  
    # 根据 diff 和仓库历史获取 context  
    context = fetch_context(state["diff"])  
    return {**state, "context": context}  
def analysis_node(state: ReviewState) -> ReviewState:  
    result = run_analysis(state["context"])  
    return {  
        **state,  
        "analysis": result["content"],  
        "confidence": result["confidence"],  
        "iterations": state.get("iterations", 0) + 1  
    }  
def review_node(state: ReviewState) -> ReviewState:  
    review = write_review(state["analysis"])  
    return {**state, "review": review}  
def should_loop(state: ReviewState) -> str:  
    # 置信度低则回头再取一轮 context  
    if state["confidence"] < 0.75 and state["iterations"] < 3:  
        return "fetch_more_context"  
    return "write_review"  
graph = StateGraph(ReviewState)  
graph.add_node("get_context", context_node)  
graph.add_node("analyze", analysis_node)  
graph.add_node("review", review_node)  
graph.set_entry_point("get_context")  
graph.add_edge("get_context", "analyze")  
graph.add_conditional_edges("analyze", should_loop, {  
    "fetch_more_context": "get_context",  
    "write_review": "review"  
})  
graph.add_edge("review", END)  
 pipeline = graph.compile()

前置代码多了不少,但是置信度阈值触发自动回跳;状态在节点之间自动流转,不用人工维护;后续要加 human-in-the-loop 审核时,一行

interrupt()

就够了 —— LangGraph 原生支持。

LangChain 依然占优的场景


LangChain 的 pipe 语法

chain1 | chain2 | chain3

用在线性流程上是真的漂亮。BugLens 里不需要分支的那些环节我还是用它:总结单个文件、从 diff 里抽结构化数据、给最终输出做格式化。不该分支的地方没必要背上 LangGraph 的开销。

更现实的一点是生态:LangChain 有 600+ 开箱即用的集成。要快速接一个向量库、PDF 加载器、外部 API,这套生态目前没有对手。LangGraph 并不是要替代它们,而是叠在上面。

反转:LangChain 1.0 内部跑的就是 LangGraph

大多数对比文章漏掉了这一条:从 LangChain v1.0 起,

AgentExecutor

事实上已经废弃,LangChain 新的 Agent 抽象在底层直接构建在 LangGraph 上。

现在调用

create_react_agent()

,跑的就是 LangGraph 状态机。真正的问题不是 LangChain 还是 LangGraph,而是想要 LangChain 那层更高的封装,还是想直接控制这张图。

先用 LangChain 的高层 API;撞到墙(循环、重试、条件分支、持久化)再往下落到 LangGraph。二者可以共存,不少生产系统同时用两套。

决策框架


其实可以两个都用。外层编排 —— GitHub webhook 事件路由、决定调用哪条 Agent 流水线、API 失败后的重试管理 —— 全部走 LangGraph;内层链 —— 格式化 diff、总结文件、解析结构化输出 —— 交给 LangChain LCEL。

总结

构建一条简单的 RAG 流水线或单步 LLM 工作流,LangChain 更快也更干净,没必要让 LangGraph 把复杂度压上去。

一旦涉及到多 Agent、条件逻辑、重试行为或需要持久化的状态,LangGraph 就不只是“更好”而已,它是唯一的选项;想在纯 LangChain 里复刻这套控制流,最后拼出来的正是 LangGraph 被造出来要替掉的那种缝合式状态管理。

https://avoid.overfit.cn/post/ecb8b4a277b0443ea312fe4c100aead6

by Satyabrata Mohanty

JMP Pro 18 是探索性数据分析与统计建模的强大工具,它提供了数据可视化、‌质量管理、‌产品研发、‌分析自动化等功能,‌旨在帮助用户从数据中获取价值,‌优化决策,‌驱动创新,‌成就未来。‌

一、安装准备

二、主程序安装

1. 解压安装包

右键点击【JMP Pro 18】压缩包 → 选择【解压到 JMP Pro 18】。

2. 运行安装程序

打开解压后的文件夹 → 右键【jmppro__1800__win】→ 选择【以管理员身份运行】。

3~5. 接受协议与路径设置

  • 点击【下一步】。
  • 勾选【我接受...】→ 点击【下一步】。
  • 点击【浏览】→ 修改路径地址中的首字符“C”可更改安装位置(例如将 C 改为 D)→ 点击【下一步】。

6~8. 完成安装

点击【安装】→ 等待进度条完成 → 勾选【创建快捷方式】→ 点击【完成】。

    • *

三、激活步骤(DLL 补丁)

9~11. 复制补丁文件

  • 进入解压包中的【Crack】文件夹 → 右键【jmp】→ 选择【复制】。
  • 右键桌面【JMP Pro 18】图标 → 选择【打开文件所在的位置】。
  • 在空白处右键 → 选择【粘贴】。

12. 替换文件

点击【替换目标中的文件】。

    • *

四、验证安装

13. 启动软件

双击桌面【JMP Pro 18】图标。

14~16. 完成配置

点击【不...】(不发送匿名数据)→ 点击【关闭】欢迎界面。

17. 安装成功

成功进入 JMP Pro 18 主界面,表示安装与激活完成。

  • 比如我下载了一个模型。
  • 然后再把我所有文档交给它,二次训练。
  • 那么,是不是就没必要 RAG 了。
  • 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。

今天,Google Cloud Next 2026 进入第二天,最重磅的消息不是某个模型参数的提升,而是一套完整的企业智能体治理平台——Gemini Enterprise Agent Platform

如果说去年我们还在讨论“如何让 AI Agent 完成一个简单的订餐任务”,那么今天 Google 给出的答案是:如何让上百个 AI Agent 在一个公司里像员工一样被管理、授权、监控和协作

我仔细看了 Google 发布的技术文档和 Demis Hassabis 的主题演讲,发现这五把“钥匙”正在打开一扇新的大门。


一、从“单个智能体”到“智能体组织”

先看一个数字:Google 内部已经跑通了 超过 2000 个不同类型的智能体 同时在 Google 云平台内部协同工作的测试环境。这些智能体有的负责日志分析,有的负责自动扩缩容,有的负责安全审计,还有的负责成本优化。它们之间不是孤立工作的,而是通过一个统一的管理平面进行通信和任务分发。

这就是 Gemini Enterprise Agent Platform 要解决的核心问题:规模化治理

平台包含五个核心组件,我画了一个简单的逻辑关系图:

智能体治理平台五大组件关系

  • Agent Studio:用自然语言定义智能体的行为、权限和触发条件。不需要写复杂的代码,产品经理也能配置一个智能体。
  • Agent Registry:类似企业员工花名册,所有智能体在这里注册、分类、版本管理。
  • Agent Gateway:统一的入口网关,负责鉴权、限流、审计日志。每个智能体的每次外部调用都会被记录。
  • Agent Identity:给每个智能体分配一个加密身份,类似“数字工牌”。智能体之间互相调用需要出示身份并验证权限。
  • Agent Observability:可视化每个智能体的执行轨迹,支持追踪一条任务在多个智能体之间的流转路径。

这本质上是把 微服务架构的服务治理思想 迁移到了 AI Agent 领域。做过大规模微服务的人都知道,没有治理框架,几十个服务就会变成一团乱麻。同理,没有 Agent Platform,几十个智能体很快就会互相踩踏。


二、Demis Hassabis 的新比喻:智能体时代的“企业操作系统”

在这次大会上,DeepMind 负责人 Demis Hassabis 做了一个很有意思的类比。他说:

“我们正在从‘移动优先’进入‘智能体优先’的时代。Gemini Enterprise Agent Platform 之于智能体,就像 Windows 之于 PC 应用——它是一个操作系统,定义了智能体如何启动、如何通信、如何获取资源、如何安全退出。”

这个比喻很贴切。回顾 PC 时代,Windows 提供了文件系统、进程管理、图形界面、网络栈,应用开发者不需要自己实现这些底层能力。同样的,Agent Platform 提供了身份认证、任务队列、状态持久化、跨智能体通信、可观测性,智能体开发者只需要关注自己的业务逻辑。

他还在现场演示了一个令人印象深刻的例子:

一个大型零售企业的“供应链优化智能体”需要调用“库存预测智能体”的数据,同时需要请求“物流调度智能体”的运力确认。整个过程涉及三个不同的智能体、跨部门的权限校验、以及长达数分钟的异步任务。在 Agent Platform 上,整个过程被自动编排、自动鉴权、自动重试失败步骤,最终输出一份可追溯的报告。

而实现这一切,企业只需要在 Agent Studio 里用自然语言描述:“每周一上午 9 点,分析上周的销售数据,预测未来 7 天的库存缺口,如果缺口超过 10%,自动生成补货单并发送给采购组审批。”

这就是“企业操作系统”的威力。


三、与去年相比,到底进步了什么?

为了让你更直观地感受这个变化,我做一个对比表格:

维度2025 年的 AI Agent2026 年的 Agent Platform
开发方式手写 Prompt + 函数调用 + 状态管理自然语言定义,平台自动编排
安全性依赖调用方的 API Key加密身份 + 细粒度权限 + 审计日志
可观测性打日志,人工查自动追踪执行路径,可视化调用链
多 Agent 协作硬编码互相调用,容易死锁平台统一调度,支持异步任务
部署成本需要自己维护向量库、记忆、队列平台提供内置持久化与工作流引擎

这张表格里的每一行,对应的是企业落地 AI 时最头疼的问题。

过去一年,我见过太多的“试点成功、规模化失败”的案例:3 个智能体跑得很好,加到 20 个就乱套了;单个任务没问题,并发 100 个就超时了;开发环境完美,生产环境权限乱掉了。

Agent Platform 的本质,就是把“规模化智能体”这件事从“艺术”变成“工程”。


四、这件事对普通开发者和企业的启发

读到这里你可能会想:“Google 的这个平台听起来很厉害,但跟我有什么关系?”

我的看法是:关系非常大,而且是未来 12 个月就会波及到一线开发者的那种关系。

  • 如果你在一家科技公司工作:公司大概率会在未来一年内引入类似的智能体治理平台(无论是 Google 的还是开源自研的)。你需要学习的不是如何“写一个智能体的代码”,而是如何“配置一个智能体”——就像今天你学 Kubernetes 不是为了写容器运行时,而是为了写 Deployment 和 Service。
  • 如果你是一个独立开发者或小团队:你可能暂时不需要这么重的治理平台,但你可以从中借鉴最佳实践——给每个智能体分配独立 API Key、记录每次调用的 trace ID、设置限流和重试策略。这些习惯会帮你避开很多坑。
  • 如果你关注 AI 的商业化趋势:注意一个信号——企业软件市场的下一波大机会是“智能体治理平台”。现在没有谁能一统天下,类似“Kubernetes for Agents”的开源项目很可能在未来一年出现。

五、另一个值得提的小新闻

除了 Google 的重磅发布,今天还有一条值得关注的动态:Anthropic 公布了 Claude 质量下降事件的技术原因

之前我写过这件事的初步分析,今天 Anthropic 给出了更详细的说明:问题出在三个因素的叠加——① 模型量化压缩的一个边界条件 bug;② 推理服务中引入的新型 KV cache 策略在长上下文中发生了溢出;③ 监控告警阈值设置过宽,导致未能及时触发人工介入。

这三个原因其实都很“工程”,没有一个是模型本身能力倒退。但它再次提醒我们:AI 服务是一个复杂的系统工程,模型权重只是其中一环。部署、量化、缓存、监控,任何一个环节出问题,用户感受到的就是“模型变蠢了”。

Anthropic 表示已经修复了问题,并且会调整告警策略,同时计划在未来开放“模型版本快照”功能,让用户可以锁定一个稳定的模型版本。

AI 服务质量波动示意图


写在今天最后

回看今天的两条新闻——Google 的智能体治理平台和 Anthropic 的质量事故复盘——它们指向同一个方向:AI 正在从“模型竞赛”进入“工程竞赛”

谁能在保证性能的前提下,把成本降下来、把稳定性提上去、把规模化治理做好,谁才能真正赢得企业市场。

对于我们这些每天写代码、调 API、做产品的人来说,这意味着以后不能只关注“这个模型 benchmark 多少分”,还要关注“这个模型服务 SLA 怎么样”、“这个平台支不支持智能体治理”。工程的深度,正在成为新的护城河。


📌 今天的关键词

AI Agent 企业治理 Google Cloud Next 2026 工程化 技术趋势

前段时间想用TG纸飞机收一些技术资讯,结果卡在注册登录环节。

+86手机号登录,提示smsfee,需要购买一周的会员,缴费购买了以后,短信验证码迟迟不来,反复试了好几次都没登上。网上搜了一圈,说是运营商屏蔽了,网上的各种方法也都试了,还是没有登录,挺无奈的。

后来找到一款基于官方12.5.1版本编译的客户端,用了几天,体验不错。

直接登录

下载后按照步骤操作,2分钟登录上,没有smsfee问题,省了不少事。

中文完整

界面内容都是中文,看着舒服,没有乱码。

连接稳定

网络层做了优化,打开后自动连上,不用手动配置参数,不用魔法梯。

功能正常

聊天、看频道、收消息、多账号切换,和官方版一样顺手。消息推送及时,后台也比较稳。

适合什么人

适合不想折腾注册环节的人,适合急需使用但卡在登录步骤的,适合需要稳定中文环境的日常使用者。

总结

作为一款基于官方代码的本地化方案,它在易用性上做了不错的补充。对于想登录使用TG纸飞机的人来说,确实省心很多。

有同样需求的可以试试,操作简单一键登录。

前段时间想用TG纸飞机收一些技术资讯,结果卡在注册登录环节。

+86手机号登录,提示smsfee,需要购买一周的会员,缴费购买了以后,短信验证码迟迟不来,反复试了好几次都没登上。网上搜了一圈,说是运营商屏蔽了,网上的各种方法也都试了,还是没有登录,挺无奈的。

后来找到一款基于官方12.5.1版本编译的客户端,用了几天,体验不错。

直接登录

下载后按照步骤操作,2分钟登录上,没有smsfee问题,省了不少事。

中文完整

界面内容都是中文,看着舒服,没有乱码。

连接稳定

网络层做了优化,打开后自动连上,不用手动配置参数,不用魔法梯。

功能正常

聊天、看频道、收消息、多账号切换,和官方版一样顺手。消息推送及时,后台也比较稳。

适合什么人

适合不想折腾注册环节的人,适合急需使用但卡在登录步骤的,适合需要稳定中文环境的日常使用者。

总结

作为一款基于官方代码的本地化方案,它在易用性上做了不错的补充。对于想登录使用TG纸飞机的人来说,确实省心很多。

有同样需求的可以试试,操作简单一键登录。

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@koki、@鲍勃

01 有话题的技术

1、小米 MiMo-V2.5 系列开启公测:旗舰版对标 Claude Opus 4.6

小米昨天正式宣布 Xiaomi MiMo-V2.5 系列大模型开启公测,涵盖 MiMo-V2.5、MiMo-V2.5-Pro、MiMo-V2.5-TTS Series 及 MiMo-V2.5-ASR 四款产品,并宣布两款主力模型即将全球开源。

MiMo-V2.5-Pro(旗舰,长程 AI 智能体):

  • 对标 Claude Opus 4.6、GPT-5.4,可稳定完成单次近千轮工具调用的长程任务;
  • 4.3 小时完成北大《编译原理》课程 SysY 编译器项目,隐藏测试集取得 233/233 满分;
  • 11.5 小时独立构建含多轨道时间线、音频混合等功能的视频编辑器 Web 应用(8192 行代码);
  • 相比 Kimi K2.6,在同等 ClawEval 基准下节省 42% Token。

MiMo-V2.5(通用,原生全模态 AI 智能体):

  • 原生支持图像、音频、视频多模态输入,Agent 能力全面超越上一代 MiMo-V2-Pro;
  • API 成本较上一代降低约 50%,在 VideoMME、CharXiv、MMMU-Pro 等评测中逼近顶级闭源模型;
  • 相比 Muse Spark,在同等 ClawEval 基准下节省 50% Token

(@APPSO)

2、李飞飞团队最新研究揭示多模态 AI 致命缺陷:没给图片,它照样「看」得头头是道

斯坦福大学李飞飞团队近日发表论文,揭示了当前主流多模态 AI 存在一种系统性缺陷——即便没有收到任何图片,GPT-5、Gemini 3 Pro、Claude Opus 4.5 等前沿模型依然会「自信地」描述图像细节并给出诊断结论。

研究者将这一现象命名为「海市蜃楼式推理」(Mirage Reasoning)。

团队构建了一个名为 Phantom-0 的测试集,将 200 道需要看图才能作答的问题的图片全部拿掉,同时不告知模型。结果显示,所有被测模型在超过 60% 的情况下会「描述」一张根本不存在的图片

若加入常见的评测提示语,这一比率甚至飙升至 90%-100%。在六大主流多模态基准测试上,模型在「无图模式」下平均仍能保留原始得分的 70%-80%,意味着图片本身对最终得分的真实贡献可能只有 20%-30%

更具冲击力的是,团队用 Qwen-2.5 训练了一个仅有 30 亿参数、从未看过任何图片的纯文本小模型,在胸部 X 光问答基准上不仅击败了所有多模态大模型,还将人类放射科医生的平均水平甩开了 10 个百分点以上。

这一缺陷在医疗场景中尤为危险:图片上传失败时,模型不会报错,而是直接输出措辞专业的诊断报告,且内容系统性地偏向心肌梗死、黑色素瘤等需要紧急处置的重症。

针对这一漏洞,团队提出了 B-Clean 清洗框架,将三份权威基准中 74%~77% 的题目判定为「不看图也能答对」并予以剔除,清洗后各模型得分大幅下滑,三分之二的基准出现排名逆转。

论文全文:arxiv.org/abs/2603.21687

(@APPSO)


02 有亮点的产品

1、安防巨头下场做拍学机,萤石 Pika 要做儿童的外挂大脑

视觉安防厂商萤石(EZVIZ)推出首款儿童 AI 相机 EZVIZ Pika。该设备采用自研蓝海大模型并接入豆包、DeepSeek API,将安防级视觉识别技术转化为移动端实时科普工具,实现了从被动监控到主动交互的场景迁移。

  • AI 双引擎架构:内置萤石自研「蓝海大模型」,并集成豆包、DeepSeek 第三方 LLM 接口,支持通过后置摄像头实时识别物体(花卉、昆虫等)并进行自然语言科普讲解
  • 影像硬件规格:搭载前后双 4K 摄像头,支持语音操控拍摄及最高 2x 焦距调节;机身重量 80g,采用圆润化工业设计以适配儿童操作。
  • 边缘计算演进:后续将上线本地版万物识别算法,无需完全依赖云端即可实现特定目标的运动跟踪与记录。
  • 通信与定位模组:集成 GPS + 北斗双模定位系统,支持电信/联通双 4G 网络,并采取「终身免费流量」策略以确保设备始终在线。

放眼整个赛道,伴随着玩家逐渐涌入,拍学机市场正处于大爆发前夜。过去,这个领域缺乏具备硬核底层技术的大厂坐镇;如今,萤石的入局,不仅提升了整个品类的供应链与算法水位,更释放出一个其实已经被反复证明的确切信号:

AI 硬件的下一波红利,将产生在那些能够把大模型能力与特定生活方式进行深度缝合的垂直工具上。


(@深圳湾)

2、Gyges Labs 发布 Vocci 智能戒指:3g 钛合金机身集成多智能体架构,主点位 AI 记忆增强

Gyges Labs 推出 Vocci 智能戒指。该产品取消了健康监测功能,定位为 AI Agent 的物理入口,通过指尖按键实现一键录音、实时「干货」标记及跨平台任务执行(如将语音指令转化为 PPT 并发送邮件),旨在消除手机端 AI 交互的摩擦力。

  • 高密度硬件工程堆叠:在 2.8mm 壁厚、约 3g(12 号戒圈)的钛合金空间内,集成了高保真 MEMS 麦克风、定制低功耗电池及高密度柔性电路板(FPC),壁厚较 Oura 减薄 0.1mm。
  • Anytime-ready 交互逻辑:采用物理按键配合震动马达反馈,支持「盲操作」指令。用户通过短按(标记重点)、长按(触发 AI 指令)、双击(开启录音)控制云端智能体,规避了全时监听带来的隐私风险。
  • 多智能体(Multi-agent)架构:后端集成至少三家主流 LLM,支持将长篇音频自动提纯为「原子化干货」,并可直接调用外部接口执行复杂任务(如自动生成 PPT 并发送至指定邮箱)。
  • 音频性能指标:支持 5 米范围精准收音及连续 8 小时高清录音,录音性能指标对标主流 PC 与智能手机。
  • 主动社交语义设计:侧面设置录音指示灯,在录音状态下常亮。通过视觉信号明确隐私边界,以符合社交礼仪的方式完成信息捕捉。

(@深圳湾)

3、SpeakON 发布 MagSafe AI 实体按钮:集成独立麦克风,支持格式化文本直接注入活跃 App

新加坡初创公司 SpeakON 推出一款 MagSafe 物理 AI 按钮及配套 iOS 应用 该产品通过 硬件端一键唤起语音采集,利用 AI 实时滤除杂音与口语冗余,并将 优化后的结构化文本直接注入当前活动的第三方应用文本框,旨在消除移动端 AI 交互的跨应用摩擦。

  • 免切换文本注入技术:AI 处理后的文本无需通过剪贴板中转,可直接进入 Slack、Gmail、WhatsApp 等当前活跃应用的输入框,实现从语音到目标应用文本的零跳转交付。
  • Attune 功能:上下文语调引擎:内置四种预设模式(Casual、Cordial、Formal、Off),支持根据目标应用场景自动调整输出,具备自动过滤填充词、修正中途转折及语法润色能力。
  • 硬件级独立采集架构:设备重量低于 26.5g,采用专用麦克风(非 iPhone 系统麦克风)进行音频捕捉,支持 USB-C 快充,兼容 iPhone 12 及以上 MagSafe 机型。
  • 语义结构化:具备意图识别功能,可将非结构化的口述内容自动转化为标准的 To-do List、行动项或 Markdown 列表格式。
  • 企业级合规与隐私方案:已通过 SOC-2 Type 2 认证,符合 HIPAA 和 GDPR 标准,核心机制确保音频数据不被存储。

(@prnewswire,@producthunt)

4、Prego 推出 Connection Keeper:无屏幕 IoT 录音设备,支持云同步与美国国会图书馆存档


意面酱品牌 Prego 联合非营利组织 StoryCorps 推出「Connection Keeper」限量版音频采集硬件。该设备旨在通过低摩擦的交互方式捕捉家庭用餐对话,并实现云端备份与国家级数字档案馆的长效保存。


这款限量版「Connection Keeper」是一款简单、无屏幕的对话录音设备,它是圆盘状的,类似于 Prego 意面酱的盖子。把它放置在餐桌中央,用于录制家庭的对话。


它可以录下用餐时自然流露的笑声、故事和珍贵时刻,并将这些录音保存下来,供未来多年重温。全程无需手机、屏幕或其他干扰。

用餐开始时,只需轻敲小盒子,使用可选的对话提示卡,设备便会开始工作。


原始录音会自动保存到内存中,然后同步到 StoryCorps 门户网站的云端,家庭成员可以在那里保存、整理、重新分享和稍后回顾他们的晚餐记录。

它使用 16GB 的 microSD 卡进行录制,最多可存储 8 小时的对话。

StoryCorps 声称,其门户网站(以及所有上传的家庭录音)都受到全面加密和用户隐私控制(尽管具体细节尚未公布)。该门户网站将于 5 月 4 日上线。据该公司称,文件默认设置为私密,但用户可以选择将任何文件上传到 StoryCorps 公共档案馆。更令人兴奋的是,这些录音将被保存在美国国会图书馆,供后代查阅。

(@多知)

03 有态度的观点

1、爱奇艺推 AI 艺人库遭演员集体辟谣,CEO 连发三文:科技永远不是为了取代人

昨天,爱奇艺 CEO 龚宇在微博连发三条帖文,就旗下 AI 艺人库引发的争议公开澄清:

艺人入库仅代表接洽意愿,具体项目与角色仍需单独授权,「跟现在的商业模式没有任何变化」;此前「非遗」一说也并非定论,而是对未来影视形态的开放性探讨。

他同时强调:「科技以人为本,科技永远是为人服务的,科技永远不是为了取代人。」

此前,爱奇艺宣布旗下 AI 创作平台「纳逗 Pro」正式上线 AI 艺人库,已有超过 100 位演艺人士入驻

随后,张若昀、于和伟等多位艺人相继发文辟谣,否认已签署 AI 相关授权,张若昀工作室更表示「法务正在紧急处理」,引起广泛争议。

爱奇艺 CEO 龚宇还在发布会现场提出,未来完全由人类创作的真人实拍影视作品,可能会被命名为「非物质文化遗产」;并表示,演员授权 AI 后可将年接项目数从 2 部提升至 4 部,同时降低工作强度。

这一表述被广泛解读为平台有意以 AI 取代真人演员,引发从业人员和观众集体反弹。

( @APPSO)


04 社区黑板报

招聘、项目分享、求助……任何你想和社区分享的信息,请联系我们投稿。(加微信 creators2022,备注「社区黑板报」)

1、Fun-ASR1.5 全民公测,重金悬赏「各种不服」

你的方言,AI 听得懂吗?那些只有业内人才懂的黑话和专业术语,语音识别能扛住吗?Fun-ASR1.5 模型开放全民挑战!无需部署,扫码打开小程序,点击即测。找到的错误越多,离千元大奖越近。来试试看,你能难倒 AI 几次?

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。

于是做了个工具自动找最优配置,过程中踩了不少坑,记录一下。


核心发现

1. MoE 模型的 offload 策略决定了一切

Qwen3-30B-A3B 是 MoE 架构,在 8GB 显卡上:

  • LM Studio 默认把所有层塞进显存 → 7549MB ( 93%),3 tok/s
  • 只把 attention 层放 GPU ,MoE expert 层走 CPU → 2603MB ( 32%),21 tok/s

快了 7 倍,显存反而省了 65%。关键是 llama.cpp 支持这个,但你得自己识别哪些 tensor 是 MoE expert (.ffn_.*_exps. 这类命名),然后手动配。

2. KV cache 类型影响比大多数人想的大

同一张 8GB 显卡跑 Llama 3.1 8B ,不同 KV cache 配置速度差异:

配置 ctx 速度
iso3+iso3 ,4 slot 8K 19.4 tok/s
q8_0+q4_0 ,1 slot 8K 38.2 tok/s
f16+f16 ,1 slot 8K 51.7 tok/s
f16+f16 ,1 slot (自动) 64K 26.2 tok/s

f16 比 iso3 快将近 3 倍。但 f16 显存占用更大,所以正确策略是:先算 f16 KV cache 占多少显存,装得下就用 f16 ,装不下再降级。

公式:KV_MB = 2 × layers × kv_heads × head_dim × ctx × bytes / 1024²

3. oobabooga 公式用来预测 ctx 上限

社区里流传的 oobabooga 显存估算公式,原本用来预测装载模型后剩余显存能支持多大 ctx 。但这个公式是基于 q8_0/f16 拟合的,用 iso3 的时候会严重高估显存需求,导致 ctx 只算出 4K 。

最后放弃公式预测,改成二分探测:从 min(nativeCtx, 65536) 开始,OOM 就减半,最多探 5 次,让 llama-server 自己告诉我能跑多少。Llama 3.1 8B 的 ctx 从 4K 直接到 64K 。

4. parallel slot 数量对单用户场景影响巨大

llama.cpp 默认开 4 个并行 slot (为了多用户并发),但单用户场景下这会把 VRAM 分成 4 份。

关掉多余 slot (--parallel 1)之后:18.5 → 38.2 tok/s ,直接翻倍。

5. ubatch 实测比理论更可靠

ubatch 128 vs 512 的性能差异跟模型和显卡都有关系,没有通用最优值。实测结论:

  • 8K ctx:ubatch 512 比 128 快 7.6%
  • 64K ctx:ubatch 512 比 128 快 21.6%

直接 benchmark 两个值取快的,比查文档猜靠谱。

6. 对话压缩不要用模型生成摘要

最初方案是上下文满了之后调本地模型生成摘要——结果单 slot 阻塞,直接超时。

改成纯算法提取:保留头部( system prompt + 首轮对话)和尾部(最近 8K tokens ),中间部分提取代码路径、函数名、文件名、TODO 等关键信息。压缩率 73%,耗时 <1ms 。


用了哪些技术,实现了什么功能

llama.cpp — 推理引擎核心

直接调用 llama.cpp 的 llama-server ,所有参数( ctx 、KV cache 类型、线程数、ubatch 、mlock 、tensor split )都通过启动参数注入。Kaiwu 本质上是一个参数决策层,不改推理引擎本身。

IsoQuant / TurboQuant — 3-bit KV cache 压缩

集成了 johndpope 的 turboquant fork (feature/planarquant-kv-cache),支持 -ctk iso3 -ctv iso3 参数。iso3 的压缩系数实测 0.73 ,理论值 0.75 ,在 VRAM 紧张的设备( 8GB )上可以把 KV cache 占用压缩到 q8_0 的一半。但有约 600MB 固定解码 buffer 开销,VRAM 充裕时反而比 f16 慢 8%,所以策略是 VRAM > 16GB 才默认开 iso3 。

oobabooga 显存估算公式 — ctx 上限预测(已放弃)

社区流传的公式用来预测剩余显存能支持多大 ctx ,基于 q8_0/f16 拟合。iso3 场景下高估显存需求,导致 ctx 只算出 4K 。最终改成二分探测代替公式,让 llama-server 自己决定能跑多少。

GQA 架构识别 — KV cache 精准估算

Qwen3 等新模型用 GQA ( Grouped Query Attention ),kv_heads 远小于 attention_heads 。KV cache 大小公式里用的是 kv_heads 而不是 heads ,不识别这一点会高估 3-4 倍。通过读 GGUF metadata 拿到准确的 kv_heads 值再做计算。

MoE tensor 识别 — 自动 expert offload

读取模型的 tensor 名称列表,匹配 .ffn_.*_exps. 模式识别出 MoE expert 层,自动决定把这部分路由到 CPU 。不需要用户手动指定,也不需要提前知道模型架构。

Extractive Summary — 零延迟对话压缩

上下文到 75% 时触发,纯算法提取:保留 system prompt 、首轮对话、最近 8K tokens ,中间部分按关键词权重保留(代码路径、函数名、文件名、TODO 、命令行等)。不调用任何模型,压缩耗时 <1ms ,73% 压缩率。最初试过调本地模型生成摘要,单 slot 阻塞直接超时,这条路走不通。

GitHub Actions CI — 跨平台自动编译

turboquant fork 需要自己编译带 iso3 支持的 llama-server 。用 GitHub Actions 同时编译 Windows ( MSVC )和 Linux ( GCC )版本,CUDA 12.4 ,覆盖 sm_75/80/86/89 架构,RTX 50 系列通过 PTX JIT 运行时支持。踩了三个 MSVC 编译坑( extern "C" 声明改定义、M_PI 未定义、全局符号缺失),记录在 PROGRESS.md 里。


工具

把上面这些逻辑都自动化了,叫开物( Kaiwu )。一行命令启动,参数全部自动找,结果缓存起来,第二次 2 秒启动。

GitHub: https://github.com/val1813/kaiwu

OpenAI 兼容 API ,Continue / Cursor / Claude Code 直接接。


有遇到类似问题的欢迎交流,尤其是 MoE offload 和 KV cache 这块踩坑挺深的。

procexp64.exe是 Process Explorer​ 的主程序文件,它是微软出的“加强版任务管理器”,能查进程、看句柄、分析程序卡死原因,做运维、开发的经常用。

    • *

一、准备工作

  1. 下载程序

  2. 确认系统版本

    • 只适合 64 位 Windows(Win7/Win10/Win11),32 位系统请用 procexp.exe
  3. 解压到固定位置

    • 建议解压到 D:\Tools\ProcessExplorer这种目录,别放在桌面临时用。
    • *

二、使用方法(无需安装)

  1. 进入解压后的目录,找到 procexp64.exe
  2. 右键 → 以管理员身份运行(非常重要,否则很多功能用不了)。
  3. 第一次打开会问你是否同意授权 → 点  “Agree”
  4. 主界面就出来了:

    • 上半部分是进程列表(类似任务管理器)。
    • 下半部分默认显示该进程的 句柄(Handle) ​ 和 DLL 模块
    • *

三、常用操作

  1. 查看进程详细信息

    • 双击某个进程,会弹出属性窗口,能看到线程、内存、安全、环境变量等信息。
  2. 查找哪个进程占用了文件

    • 点菜单 Find → Find Handle or DLL…(或按 Ctrl+F)。
    • 输入文件名(比如 test.txt),回车,就能看到是哪个进程占着它。
  3. 强制结束顽固进程

    • 右键进程 → Kill Process(结束进程)。
    • 还不行就右键 → Kill Process Tree(结束进程树)。
  4. 替换系统任务管理器

    • 菜单 Options → Replace Task Manager,勾选后按 Ctrl+Shift+Esc就会打开 Process Explorer

最近一段时间,我一直在琢磨一件事:AI 助手到底什么时候才能真正“用起来”,而不是只停留在聊天框里。能写文案、能回答问题当然已经很强了,但如果它只能等你打开网页、输入问题、复制结果,那它更像一个高级工具,而不是一个真正能长期协作的助手。

直到我折腾了一下 Hermes Agent,我才第一次有了点“这玩意儿开始像助手了”的感觉。

先说结论:它最打动我的,不是模型多强,也不是界面多炫,而是它终于把“部署、接入、持续使用”这三件事,尽量拉到了普通人也能接受的门槛。无论是放在腾讯云上,还是直接本地跑起来,都比我预想中顺手。尤其是接入微信之后,那种感觉会特别明显——AI 不再是一个你得专门打开的网站,而是变成了一个你随时能在熟悉入口里喊一声就出现的存在。

这件事为什么重要?因为过去很多 AI 产品,最大的问题不是“能力不够”,而是“离生活太远”。你要记得去打开它,记得切到那个窗口,记得把问题重新组织一遍。时间久了,人还是会回到最熟悉的工作流:微信、文档、浏览器、群聊。工具一旦不能自然嵌进去,使用频率就会迅速下降。

而 Hermes Agent 给我的第一感受,就是它在尽量缩短这段距离。

比如部署这件事,以前一提到“自己搭一个 AI 助手”,大多数人的第一反应就是:麻烦、配置多、容易踩坑、维护成本高。尤其是涉及到服务器、接口、消息通道、权限这些东西,听着就让人头大。但 Hermes Agent 至少把“一键部署”这个事情做得更像一件能完成的任务,而不是一个只适合技术玩家的周末项目。腾讯云上跑,适合希望稳定在线、随时可用的人;本地部署,则更适合想自己掌控数据、灵活折腾的人。两种路径都给了,不会把人逼到某一种选择里。

这种设计思路我挺认可。因为真正想长期使用 AI 的人,需求差异其实很大。有人要省心,有人要隐私,有人要稳定,有人要低成本。一个产品如果只能服务其中一类人,最后很容易变成小圈子自嗨。Hermes Agent 至少在入口上没有把门关死。

但如果只是“能部署”,那还不够。让我觉得它有意思的,是接入微信之后带来的变化。

微信本身就是很多人的信息中枢。工作沟通、个人交流、文件传递、群消息、提醒,几乎都在那里发生。AI 一旦能进入这个环境,它的角色就变了。你不再需要刻意“去用 AI”,而是在原本的沟通流里,顺手就能让它帮你做事。比如整理一段想法、润色一条消息、总结一篇文章、提炼会议重点,甚至帮你把零散信息变成一份可执行清单。这个体验非常关键,因为它让 AI 从“偶尔使用的能力”变成“高频协作的接口”。

更重要的是,它让我第一次认真意识到一个方向:AI 助手的价值,不在于它回答得多像人,而在于它能不能随着使用越来越懂你。

我理解很多人说的“自我进化”,并不是那种玄乎其玄的概念,也不是什么自动觉醒。更实际一点,它应该包括几层意思:

第一,它能逐渐记住上下文。你之前说过什么,你的表达习惯是什么,你更偏好什么样的输出风格,它不是每次都从零开始。

第二,它能积累任务经验。什么事情你经常让它做,什么格式你更喜欢,什么信息对你来说是重要的,它能在反复协作中慢慢变准。

第三,它能融入你的真实工作流。不是你去迁就它,而是它进入你的消息、文档、日程、提醒这些日常场景里,真正成为一个长期陪跑的角色。

如果从这个角度看,Hermes Agent 的意义就不只是“又一个 AI 应用”,而更像是把 AI 助手往“可部署、可接入、可长期协作”的方向推了一步。

当然,我也不想把话说得太满。现在市面上很多产品都喜欢讲“智能体”“自主执行”“持续进化”,听起来很热闹,但真实体验往往还在早期阶段。Hermes Agent 也一样,它不可能一下子就变成一个无所不能的数字分身。你还是需要给它边界、给它规则、给它明确的目标。它的能力上限,很大程度上仍然取决于模型、配置和使用方式。

但我觉得,方向对了,比一开始就完美更重要。

因为 AI 助手这个东西,真正难的从来不是做一个演示版,而是做成一个你愿意天天用、能不断积累价值的系统。部署简单,意味着更多人愿意开始;接入微信,意味着它真正进入生活;而“越用越懂你”,则意味着它不再只是一次性工具,而可能慢慢变成你的数字搭子。

这也是为什么 Hermes Agent 最近会火。不是因为大家突然又被某个新名词点燃了热情,而是因为越来越多人开始意识到:AI 的下一阶段,不只是比谁更会答题,而是比谁更像一个真正能落地的助手。

如果说前两年的 AI 更像“你去体验它”,那现在大家想要的,其实是“它来协助你”。这个差别看起来不大,但背后对应的是完全不同的产品逻辑。

所以在我看来,Hermes Agent 值得关注的地方,不是它喊了多大的口号,而是它确实把几个关键环节连起来了:部署、接入、使用、积累。它还远没到终局,但已经让人看见了 AI 助手该往哪里走。

而一旦这种形态跑通,未来我们跟 AI 的关系,可能真的会从“临时问答”,慢慢变成“长期协作”。

这件事,本身就已经很值得期待了。

4 月 22 日,继 Qwen3.6-35B-A3B 开源后,Qwen 团队带来了该系列模型中社区呼声更高的版本——Qwen3.6-27B 。这个拥有 270 亿参数的稠密多模态模型,支持多模态思考与非思考模式,在智能体编程方面达到了「旗舰级」表现。
具体而言,Qwen3.6-27B 在 WE-bench Verified(77.2 vs. 76.2)、 SWE-bench Pro(53.5 vs. 50.9)、 Terminal-Bench 2.0(59.3 vs. 52.5)以及 SkillsBench(48.2 vs. 30.0)等主要编程基准测试中,均全面超越前代开源旗舰 Qwen3.5-397B-A17B 。同时,其也大幅领先于同规模的稠密模型。在推理任务上,Qwen3.6-27B 在 GPQA Diamond 上取得了 87.8 的成绩,可与数倍于其规模的模型相媲美。
图片
此外,Qwen3.6-27B 原生支持多模态,支持视觉语言思考与非思考模式——与 Qwen3.6-35B-A3B 相同。它能够处理图像、视频与文本的多模态理解,支持视觉推理、文档理解和视觉问答等任务。

目前,HyperAI 官网(hyper.ai)的教程板块已经上线了「一键部署 Qwen3.6-27B」,完成环境配置,助力快速验证热门开源模型!

在线运行:https://go.hyper.ai/pYbes
图片
demo 效果示例,基于 prompt 生成可交互的重力模拟沙盒更多

在线教程:https://hyper.ai/notebooks

欢迎登录官网查看更多内容:https://hyper.ai

Demo 运行

  1. 进入 hyper.ai 首页后,选择「教程」页面,或点击「查看更多教程」,选择「一键部署 Qwen3.6-27B」,点击「运行此教程」。
    图片

图片

  1. 页面跳转后,点击右上角「Clone」,将该教程克隆至自己的容器中。
    注:页面右上角支持切换语言,目前提供中文及英文两种语言,本教程文章以英文为例进行步骤展示。
    图片
  2. 选择「NVIDIA RTX 5090 -4」以及「vLLM」镜像,点击「Continue job execution(继续执行)」。
    HyperAI 为新用户准备了注册福利,仅需 $1,即可获得 20 小时 RTX 5090 算力(原价 $7),资源永久有效。
    图片

图片

  1. 等待分配资源,当状态变为「Running(运行中)」后,点击「Open Workspace」进入 Jupyter Workspace 。
    图片

    效果展示

    1.页面跳转后,点击左侧 README 文件,进入后点击上方 Run(运行)。
    图片

图片
2.待运行完成,根据 README 提示启动 Open WebUI 后,即可点击右侧 API 地址跳转至 demo 页面。
图片

图片

​Avantage是一款XPS数据分析软件,拥有数据采集、定量分析、元素鉴别、分峰拟合等功能,并且可以将数据导出成各种格式

一、准备工作

安装包下载:https://pan.xunlei.com/s/VOqzDdOquUW96dtxkAONsPqNA1?pwd=tsst#,先下载好【Avantage6.9.0】压缩包,保存到电脑本地(内含安装程序和注册脚本)。

二、安装 Avantage 6.9.0

  1. 解压安装包

    找到下载的【Avantage6.9.0】压缩包,右键点击 → 选择【解压到Avantage6.9.0】。

  2. 运行安装程序

    打开解压后的文件夹,右键【Setup】→【以管理员身份运行】。

  3. 按向导安装

    • 点击【Install】进入准备阶段;
    • 连续点击【Next】→ 勾选【I accept...】→【Next】;
    • 保持默认设置,连续点击【Next】;
    • 选择【No, I will...】(暂不关联设备)→【Next】;
    • 点击【Finish】开始安装组件。

三、注册激活(30天有效期)

  1. 执行注册脚本

    • 打开解压后的【Avantage6.9.0】文件夹,双击【注册】批处理文件;
    • 弹出用户账户控制提示时点击【是】;
    • 看到“注册成功”提示后点击【确定】。
  2. 启动软件

    • 双击桌面【Avantage】图标打开软件;
    • 若界面正常加载无激活提示,则安装成功。

AriaX Screenshot 1


AriaX:Apple 用户的终极下载管理器

AriaX 是一款专为 Apple 生态( macOS 与 iOS )打造的现代化、高性能下载管理器。我们使用 SwiftUI 从零开始构建,旨在将 aria2 强大的全协议下载能力与原生 App 的极致优雅完美结合。

AriaX Screenshot 2

下载地址

为什么选择 AriaX ?

  • 原生与现代: 完全基于 SwiftUI 开发,拥有丝滑的交互体验和完美的系统集成感,适配最新的 macOS 与 iOS 特性。
  • 零配置上手(完整版): 内置预配置的 aria2 核心引擎。无需打开终端,无需研究配置文件,安装即用。
  • 双重管理模式: 既可以作为本地下载器,也可以通过 JSON-RPC 远程管理您的 NAS 或服务器上的下载任务。
  • 深度系统集成:
    • Safari 浏览器扩展: 官方提供的 Safari 插件,支持一键推送任务。
    • 智能 URL Scheme: 支持 ariax:// 协议,方便与其他自动化工具联动。
  • 全球化支持: 完整支持中(简/繁)、英、日、德、法等 10 多种主流语言。
  • 双版本策略:
    • AriaX (完整版): 内置下载引擎,通过官网 DMG 分发,性能最强。
    • AriaX Lite: 纯远程管理客户端,可通过 Mac App Store 安全下载。

安装指南

  1. AriaX (完整版): 从官方渠道下载 .dmg 安装包。该版本内置了完整的下载引擎,开箱即用。
  2. AriaX Lite: 在 Mac App Store 搜索 "AriaX" 下载。适合已有远程 aria2 服务的老用户。

浏览器集成

通过以下步骤开启 Safari 插件,提升下载效率:

  1. 打开 AriaX -> 设置 -> 浏览器集成
  2. 点击 启用 Safari 扩展 按钮。
  3. 在弹出的 Safari 设置中勾选 AriaX Extension
  4. 之后在 Safari 中右键点击任何链接,即可看到“通过 AriaX 下载”选项。

隐私与安全

AriaX 始终将用户隐私放在首位。我们不会收集您的下载历史、敏感配置或服务器凭据。所有数据均存储在您的本地设备上,或在您开启同步后存储于您的私有 iCloud 容器中。


以一个业余观影者的角度来看,画面、运镜都很好,有些系列故事延续性也很棒。
但是音效真的恼人,耳测,音效音量和影片任务正常对话的音量至少差了一倍以上。约等于旁边一个八十岁老太跟你贴耳说话的时候,民乐团的喇叭在你耳旁响起的感受。很离谱。

作者  | 文朋

项目管理始终是企业提升生产效率的重要抓手。

但长期以来,大多数项目管理工具解决的,更多只是记录、同步与协同层面的表层问题:把需求记下来,把任务挂上去,把流程放进系统里。

一旦进入真实业务深水区,排期是否合理、依赖是否清晰、风险能否提前暴露,仍然高度依赖人的经验去判断、协调和补位。这也带来一个尴尬的现实:尽管工具迭代多年,企业项目交付效率始终没有实现质变。

随着 AI 浪潮到来,越来越多企业开始尝试把 AI 引入项目管理,用于写总结、做分析、辅助排期等单点提效。但如果 AI 与项目工具之间仍只是“外部协作”关系,停留在流程之外,就很难触及项目管理最核心的执行链路。

正如飞书项目负责人洪涛在飞书项目生态日上所说,未来的工作场景中,很大一部分操作可能不再由人一步步点击完成,而是由 Agent 去操作软件。

image

这意味着,项目管理工具若想真正实现提效,就不能只负责“记录”,更要负责“连接”。只有当 AI 能够连接业务流程中的数据与上下文,读懂任务之间的关系、流程状态以及背后的业务语境,AI 才有可能深度参与风险识别与动作承接。

4 月 23 日,在飞书项目“生态日”上,飞书项目发布了一系列新能力,包括 MCP(模型上下文协议)、CLI(命令行工具)等底层开放接口,以及 AI 节点、AI 字段、原生 AI 助手等场景化能力。

这些变化释放出一个明确信号:飞书项目正在进一步结构化流程、数据与协作关系,让 AI 真正进入项目流程,使其成为一个能够承接 AI 落地的项目底座。

一、项目管理平台的需求,正被 AI 改写

如今,客户对项目管理平台中 AI 的期待已经非常明确:他们要的不是一个“会聊天”的助手,而是一个能够接入流程、参与执行、真正推动项目向前的能力。

“去年,很多客户在采购研发项目管理软件时,对 AI 的关注还没有这么强;但到了今年,AI 已经成为决策前必须评估的一项能力。”飞书项目商业化负责人杨波在接受采访时表示,如今在售前阶段,客户已经会主动了解 AI 能力、产品路线图,甚至直接做能力测试。

这背后反映出,企业对 AI 的需求正在从“会生成”转向“会执行”。在项目管理场景里,客户当然希望 AI 能写总结、做分析,但更核心的期待,是它能真正进入流程,更早识别风险,承接文档撰写、数据录入、状态维护等高频重复工作,帮助团队持续推进项目。

而在这方面,飞书项目已经做了较为充分的准备。

过去几年,飞书项目持续帮助客户把需求、缺陷、流程、节点、状态等信息结构化沉淀下来。对 AI 来说,真正关键的从来不只是模型能力,而是是否具备高质量、可读写、可治理的数据基础。

与此同时,由于飞书项目并不是一套写死的标准数据模型,而是允许客户根据自身业务去定义和配置工作项、流程、字段和表单等。这意味着,AI 在飞书项目面对的是更贴近真实业务现场的结构化、语义化信息,也更容易理解上下文并准确执行动作。

这也是飞书项目能够承接 AI 落地的重要原因。根据 2026 年赛迪报告,在 2025 年销量前十的新能源乘用车品牌中,已有 7 家选用飞书项目;在软件研发管理 SaaS 和 IPD 管理 SaaS 领域,飞书项目也分别以 46.8% 和 68.6% 的市场份额位居第一。

值得注意的是,飞书项目此次在生态日上推出的一系列新能力,正是在进一步释放这种“执行力”。

二、飞书项目将平台重构为更“AI 友好”的基础设施

这次发布中,一个值得关注的信号是,飞书项目正在围绕“AI 友好”推动平台演进。从产品视角看,其底层架构已呈现出明显的“面向 AI 重构”的方向。

例如,为了让 AI 更深入地进入真实业务流程,飞书正式开源了“飞书项目 CLI”。

图片

它是一款命令行工具,能够帮助个人或 AI 工具更高效地访问和操作飞书项目中的各类数据。基于这项能力,AI 可以在授权范围内完成与飞书项目相关的读取、查询、创建与更新操作。

例如,AI 可以查询待办、需求、任务、评论、工作流和排期等信息;查看工作项详情、当前状态及流程节点;创建需求、任务和子任务;更新标题、优先级、状态、评论等字段;还可以在关键修改前先生成预览,确认后再执行。

一旦 AI 进入真实项目流程,它面对的就不再是单轮问答,而是大量高频、低成本、可自动化的操作需求。CLI 的价值,恰恰在于提供了更强的批量处理能力、更稳定的调用链路,以及更低的 token 消耗。

尤其是“渐进式披露更省 token”这一设计,很能说明飞书项目对 AI 真实使用场景的理解:它考虑的并不是 demo 能不能跑,而是当调用规模放大后,成本和稳定性是否依然可控。

如果说 CLI 是 AI 的“手”,那么 MCP(Model Context Protocol)的优化,就是在为 AI 提供一套更适合调用项目系统的“语义标准”。

它的意义并不只是把 OpenAPI 再包装一层,而是围绕 AI 的调用方式,重新设计了一套更适合智能体使用的接口体系。

image

一方面,它支持更安全的授权方式,让 AI 能在可控权限下完成数据读写;另一方面,它的数据传导方式也更自然,不再过度依赖 ID、Key 这类 AI 容易出错的参数;同时,查询语言更接近 SQL,从而降低了 AI 理解和生成查询的门槛。

更重要的是,它并不是简单地“把数据交给 AI”,而是更贴近任务场景地告诉 AI:哪些是待办,哪些是已办,哪些与个人相关,哪些与团队相关。目前,飞书项目 MCP 已提供 40 多个工具,并仍在持续扩展。

至于开源通信协议 AAMP,它解决的则是平台应用、本地 Agent 与不同运行环境之间的通信协同问题。

这意味着,在 Agent 连接这件事上,飞书已经开始从技术底层打通链路,让 Agent 不只是停留在平台内部,而是能够与企业现有的 AI 工具、本地环境和工程系统实现真实联动。

三、在开放能力之上,飞书项目把 AI 接入了流程骨架

如果说 CLI 和 MCP 解决的是“连接”问题,那么 AI 节点、AI 字段与 AI 助手强化的,就是 AI 如何真正深入项目流程并承担具体执行任务。

其中,AI 节点的意义尤其突出。它让 AI 从流程外走进流程内,成为流程中的一个行动单元,帮助团队厘清复杂项目中的流程关系与环节职责,并承担预审、分析、测试用例生成等明确工作。

更关键的是,飞书首次取消了“要想使用开放能力,必须由管理员先安装”的限制。节点负责人可以直接把自己负责的节点转化为 AI 节点,让 AI 协助任务完成;如果效果不理想,还可以重新运行并持续优化。

AI 字段功能也迎来了更适配项目管理的更新。

过去,很多 AI 的使用方式本质上仍停留在个人 prompt 技巧层面,经验散落在个体手中,既难复制,也难规模化。

这一次,AI 字段则把这件事往前推进了一步:它把一次性指令升级为一种带模板、带应用市场、带快速创建能力的开放形态。企业既可以把有效经验沉淀下来,也可以先在视图中临时使用,而不必一开始就贸然写回正式字段。

至于原生 AI 助手,作为开箱即用的通用 Agent,则被打造为飞书项目 AI 能力的统一入口。

它可以直接围绕项目管理的核心场景提供官方能力:无论是快速生成报告、洞察项目风险、创建需求、完成节点流转,还是了解产品功能用法,都可以通过这一入口完成。

image

更重要的是,在整个分析过程中,它始终只会在授权范围内、基于用户可读取的数据进行分析与生成。用户也可以把任务交给它处理,即便关闭页面,它仍然能够继续执行。

从这些能力可以看到,飞书项目正在构建一种更贴近真实业务、也更具 “AI 原生”特征的应用模式。

在真实项目环境里,传统平台通常是“少数人配置、其他人使用”;但 AI 应用的扩散路径并不是这样。AI 落地往往会经历一个更现实的过程:试点、调整、小闭环、扩展、标准化。

真正困难、也真正有价值的,正是把一次次局部提效沉淀为组织级能力。

飞书项目的独特之处在于,它正在把这一过程完整接住:个人和小团队可以低门槛试点;试点过程中可以按项目、按角色灵活调整;经验成熟后,可以进一步沉淀为模板、流程和 SOP;再往后,还能推广到团队、部门乃至整个公司。

四、开放能力开始转化为真实成果

一个平台是否真正跑通,不能只看它发布了多少能力,更要看这些能力是否已经长出真实成果。

一个很强的信号是,去年飞书项目开放平台上已经出现了 100 多款 AI 相关应用,而且其中很多并非官方开发,而是客户自行构建的。

这说明飞书项目的开放底座已经足够成熟,足以让一线团队先跑起来。这也解释了为什么 MCP 和 CLI 的推广会比较快:并不是平台单向推动,而是那些最有 AI 意识、最有动手能力的人,已经开始主动把它们用起来。

飞书在生态日大会上披露的数据显示,已有接近 500 家租户在高频使用相关能力,月活用户数超过 6000,对飞书项目的操作次数累计超过百万次。

从客户案例来看,当 AI 真正进入流程后,项目交付方式和效率也在发生明显变化。

例如,词元无限让 Agent 沿着需求理解、方案生成、任务拆解、代码执行、测试生成一路推进,最终把原本需要 7 到 10 人天的工作压缩到 1 到 2 人天。

雅迪的实践,则把周报月报自动生成、历史经验检索、会议质检和预评审等高频工作串联起来。这也说明,AI 在项目管理中最先接管的,往往不是最终决策,而是那些高频、重复、规则相对清晰的环节。

轻舟智航的案例则展示了另一种更符合企业现实的落地方式:测试问题的记录、分诊、分派与闭环,被做成了一条更顺滑的流程链路。AI 先帮助缩小问题范围、给出候选建议,再由人工验收关键链路。

Zadig 的价值则更进一步。它不只是简单打通项目管理系统,而是把“管理域”和“工程域”真正连成了一条链:开发变更即记录,测试执行即同步,发布审批即发布,并叠加 AI 发布风险检测。

最终结果是,发布效率提升 3 倍,交付周期缩短 35%,故障恢复时间下降 50%。

这些案例说明,飞书项目的价值已经不再只是看板管理,而是真正开始承接并提效企业的项目执行。

当然,飞书开放能力更重要的地方,不只是让客户“使用”,更是让更多角色开始“建造”。

例如,爪印基于飞书项目轻应用能力自研 FlowStack "流程资产仓库",已沉淀 200 多个标准节点、50 余项流程模板,再结合 AI coding 等能力,可以快速开发高频小工具。这说明,项目经理和业务角色已经不再只是提需求的人,他们也可以直接把自己的业务理解转化为可复用资产。

高远则基于飞书项目开发了 ASPICE 插件,并已进入 15 家大型智能汽车企业,在国内智能驾驶 Top20 企业中覆盖过半。这也说明飞书项目的开放能力并不只是支撑 demo,而是已经能承接行业级、专业级的复杂场景。

再结合客户成功、实施体系、专家认证以及 AI 咨询伙伴等配套能力的推进,显然,飞书项目想做的已经不只是“卖一个项目管理功能”,而是在形成一整套可交付、可复制、可持续增长的 AI 落地机制。

这也是飞书项目在 AI 时代真正的分量所在:它正通过项目管理,为企业搭建一个真正让 AI 开始工作的项目底座。