2026年3月

大家好,我是R哥。

新年快乐啊,话说昨天开工第一天,我和一个大学同学闲聊,有一件事觉得特有意思,拿出来和大家分享下。

我那同学说他们公司招了个 5 年 Java 程序员,入职第一天让他先配置好本地开发环境,没想到弄了大半天,连数据库都没连上,把他给整懵了……

5 年 Java 程序员连不上数据库?听完我就震惊了……

他说面试还挺正常的,基本的面试问题也都能答上来,看得出来有一定的基础,但没想到动手能力却如此之差。

然后我那同学当天下班前就找他简单聊了下,他就说他不会弄,也说不出具体原因,看来是个行业小白,面试估计也是刷了不少题来的。。

我那同学基于新人快进快出的道理,不想耽误他的时间,也不想他给自己的后续的工作带来麻烦,发现他并不合适,然后及时给劝退了。。

我那同学和我说,本来招 5 年 Java 程序员就想让他直接上手干活的,不想像新人一样带,没想到太水了,是他面试不过关的问题,年底招人招的急,没有深入过细的问,差点成为了他们公司技术部门的笑柄。

连数据库很难吗?

连数据库不是简单的不能再简单的操作吗?

别说都已经工作 5 年了,入行 5 天的基本都会了吧。。

据我那同学说,他们用的 MySQL,快下班时他还在捣腾用命令行连接,就算是命令行也不能再简单了啊:

$ mysql -h 111.111.111.111 -u root -p

虽然用命令行连接数据库肯定不是最有效率的方式,但他要是能连上也不至于说劝退吧!

另外,命令行简单的操作还行,有效率的工作还得靠工具,市面上有各种各样的数据库客户端连接工具,而且这些工具都是支持主流的数据库连接的。

不推荐别的了,IDEA 自带的「数据库工具」就很牛逼,支持各种主流数据库,输入对应的数据库服务器主机 IP 地址、端口、用户名、密码信息,就能连上,不能再简单了。

所以,我那同学始终弄不明白,为什么工作 5 年的程序员连数据库都不会连?百思不得其解!

无独有偶

无独有偶,R哥也遇到过一次类似的经历,那是一次出差的经历,那次更加离谱……

我和另外一个分公司出差过来的程序员同在一个项目组,我们两个要共同完成一个模块的需求,他看样子不像是新人,但在开发过程中问了我好多简单的问题,最离谱的一个竟然是:他居然还问我 if/ else 什么意思,我简直崩溃了……

我怀疑他是敌方公司派过来的间谍,if/ else 都不会,他都会什么啊?

不敢相信!这是一个 Java 程序员。。

后来从侧面了解了下,他是通过一个项目经理带过来的,他俩很熟,他们什么之间应该有一种什么关系,亲戚?我那同学的亲戚?

具体我也没问,反正我感觉就是带进来混工资的,把我给坑惨了。。

结语

5 年 Java 程序员连不上数据库确实太水了,简历经验极有可能是包装的吧,但是能通过面试,至少说明理论基础还可以,八股文可还行,但不管怎样,不会连数据库真说不过去。

所以说,作为一个程序员,要时刻提升自己的项目实战能力,不能只是会背面试八股文(当然这也很重要),就算是通过面试混进去了,如果不能适应公司的技术,不能迅速上手工作,也可能转不了正或者被提前劝退。

就算是我们的「面试辅导」,我们也会考虑大家的动手能力,如果好久没有接触代码的,都会让大家在学习之前先敲几个项目,这样也不至于入职第一天就被刷掉了。

最后,5 年程序员不会连数据库,你觉得可能还有什么原因?欢迎留言讨论……

好了,今天的分享就到这里了,后面我也会分享更多好玩的 Java 技术和最新的技术资讯,关注Java技术栈第一时间推送。

版权声明: 本文系公众号 "Java技术栈" 原创,转载、引用本文内容请注明出处,抄袭、洗稿一律投诉侵权,后果自负,并保留追究其法律责任的权利。

3 月 6 日,GPT-5.4 发布,那个熟悉的 OpenAI 又回来了。

 

GPT-5.4 是一款新的前沿模型,把 OpenAI 过去一段时间在推理能力(GPT-5.2)、顶级编程能力(GPT-5.3-Codex)以及原生计算机使用能力上的进展,整合到了同一个版本里。

 

这次发布的分量很重,光是“原生电脑操作”这一点,就已经足够吸引眼球,而当它再叠加顶级的专业知识工作能力、100 万 token 的上下文窗口,以及明显提升的工具使用效率时,对所有希望用 AI 工作、与 AI 协作,或者基于 AI 搭建系统的人来说,这都意味着一次真正意义上的能力跃升。

 

OpenAI 开始抢 OpenClaw 的地盘?

 

在这个新模型上,最大的变化就是原生电脑操作能力的到来。OpenAI 的原话是,GPT-5.4 是其“首个原生具备电脑操作能力的通用模型”。

 

OSWorld Verified 的 computer use 基准测试上从 47.3%提升到了 75%,而 BrowseComp 的准确率从 65.8% 提升至 82.7%。

 

这不只是“跑几个 shell 命令”那么简单,真正的意义在于:它可以进入你的桌面、访问网页,基本上能够在你的电脑上完成很多原本只有人来操作的事情,而这些事通常是我们平时通过网页端 ChatGPT 做不到的。

 

尤其是像 OpenClaw 这样的产品,在最近几个月,甚至可以说最近几周,突然变得非常火,核心原因就在于,它已经改变了我们使用 AI 模型的方式。过去,我们更多只是停留在网页端,通过 web app 和模型对话,电脑本地几乎没有真正参与进来。但现在,这种局面已经从根本上发生了变化。

 

从 OpenAI 给出的示例中,我们可以看到 GPT-5.4 可以熟练使用计算机,包括查看浏览器用户界面截图、点击界面、发送电子邮件以及安排日历。

 

另一个新的实验功能 “Playwright (Interactive)”,允许 Codex 实时进行 Web 和 Electron 应用的可视化调试,甚至能在构建应用的同时直接测试——这正是借助它的原生电脑操作能力实现的。

 

OpenAI 研究员 SQ Mah 表示,这背后主要有两项关键能力支撑:一是 CUA(computer use,计算机操作能力),二是通过图像输入生成高质量网站的能力。

 

与 GPT-5.3 Codex 相比,GPT-5.4 在使用 CUA 时,不再需要额外拉起一个全新的环境来执行操作。在 3D 游戏中,CUA 会自己点击游戏界面,移动象棋位置,甚至通过实际操作来验证规则是否正确生效。

 

在网站生成场景中,模型会调用 image gen 工具,生成图片,然后通过 CUA 来检查自己的工作:打开生成的图片、检查图片内容、打开网站页面也看一遍,然后把它们并排对比,确保生成的网站尽可能接近输入的那张图。

 

SQ Mah 还强调说,通过持久化的 CUA,他们发现,在一些让模型测试自己工作的场景中,token 使用量实际上下降了三分之二。

 

其实,OpenAI 早在去年 1 月就推出了 CUA,但出于安全性和准确性的考量,这个项目并没有真正被重视起来。

 

甚至一度让人怀疑,OpenAI 是否已经放弃了这条路线。特别是在 GPT-4o 等项目吸引了几乎全部关注的那段时间里,CUA 基本处于一种“销声匿迹”的状态。

他们是不是放弃这个项目了?现在一点消息都没有了。我其实一直在用 Azure/OpenAI,它已经预览好几个月了。虽然我申请了,但一直没能获得批准。

 

与 GPT-4o 等项目铺天盖地的宣传相比,CUA 基本上销声匿迹了。而且它目前仍处于预览阶段,这意味着访问权限受到严格限制,许多人甚至都无法尝试......不过我不认为这条路线已经失败。一旦“浏览器优先”的方案在稳定性、隐蔽性以及内置安全机制上真正成熟,它很可能会成为 agent 工作流的一次重大跃迁。

 

但从今天 GPT-5.4 的发布来看,情况显然变了。OpenAI 不仅重新把这项能力带回到台前,还在 GitHub 上新发布了一些的 CUA sample app。

 

CUA 让 ChatGPT 5.4 可以直接使用我们的电脑,这一点和 OpenClaw 的思路非常接近:本质上,大家都在争夺同一个入口——让 AI 直接使用电脑,而不再继续受限于 API 和聊天窗口。不同的是,OpenClaw 更像是在模型之外搭建的一层 computer-use 框架,而 GPT-5.4 走得更直接:它把电脑操作能力原生整合进了模型本身。

 

这意味着,一旦模型自身已经具备了这类能力,而且还能被各种软件、平台和企业系统直接集成调用,它的竞争力就会迅速放大。对于那些年营收做到千万、上亿,甚至百亿的公司来说,它们完全可以基于这样的模型能力,做出自己的“OpenClaw 版本”——而且往往会更安全、更快,也更可靠。

 

从这个角度看,OpenClaw 这样的开源项目依然很有价值,因为它们率先验证了“AI 直接使用电脑”这条路线;但当模型厂商开始把这种能力原生做进模型里,整个竞争的重心就会发生变化。大家比拼的将不再只是一个外部框架,而是谁能更快把这项能力产品化、平台化,并真正接入真实工作流。

 

所以在 agentic AI 能力这件事上,现在确实是一个非常令人兴奋的阶段。

 

一边降成本,一边降幻觉

 

这次升级明显是在“照顾开发者和重度用户”,其中一个关键原因是 GPT-5.4 带来了工具搜索(tool search):模型不再把所有工具的完整定义一次性塞进上下文(这可能导致每次请求额外烧掉数万 token),而是只拿到一个轻量列表,需要用哪个工具时再按需检索具体定义。

 

在 Scale 的 MCP Atlas 基准中,启用 36 个 MCP 服务器、测试 250 个任务时,tool-search 配置在不降低准确率的情况下,把总 token 使用量减少了 47%。对构建大型 agent 系统的开发者来说,这几乎等同于:成本更低、响应更快。

 

幻觉问题也显著下降。按 OpenAI 的说法,GPT-5.4 的单条事实陈述比 GPT-5.2 更不容易出错(错误概率降低 33%),整体回答包含错误的概率也降低了 18%——这对依赖准确输出的专业用户来说,是非常实用的一次升级。

 

与此同时,在 Harvey 的 BigLaw Bench(法律文档评测)中,GPT-5.4 的准确率达到了 91%。

 

编程能力也更强了

 

GPT-5.4 现在也成为 OpenAI 的主力编程模型——在大多数任务中,你不再需要在 ChatGPT 与 Codex 之间纠结选哪一个。

 

它在 SWE-Bench Pro 上与 GPT-5.3-Codex 持平或更强,同时也更快,尤其是在较低推理强度设置下。在对话里,你可以直接开始写代码,无需额外选择。

 

Codex 还新增了 fast mode,在所有支持的模型上带来最高 1.5 倍速度提升。OpenAI 还强调 GPT-5.4 在复杂前端任务上明显更强,输出既更精致好看,也更符合功能正确性。这一点,也已经从不少开发者的实际反馈中得到了印证。

 

能力升级,价格也升级

 

在 API 中,OpenAI 表示 GPT-5.4 Thinking 对应的模型名称为 gpt-5.4,而 GPT-5.4 Pro 则对应 gpt-5.4-pro。价格如下:

GPT-5.4:

  • 输入:$2.50 / 每 100 万 token

  • 输出:$15 / 每 100 万 token

GPT-5.4 Pro:

  • 输入:$30 / 每 100 万 token

  • 输出:$180 / 每 100 万 token

 

从整体来看,与目前市面上的模型相比,GPT-5.4 在 API 运行成本上属于较高的一档,如下表所示。

还有一个重要变化:在 GPT-5.4 中,如果请求的 输入 token 超过 272,000,费用将按正常价格的 2 倍计算,这反映了它支持比以往模型更大的提示上下文。

 

在 Codex 中,默认的 compaction(压缩)上限是 272k token。只有当输入超过 272k 时,才会触发更高的长上下文价格。这意味着开发者只要把提示控制在这个范围内,就不会触发额外费用;如果需要更长上下文,也可以通过提高 compaction 上限来实现,但只有这些更大的请求才会按更高费率计费。

 

OpenAI 发言人还表示,在 API 中 最大输出长度为 128,000 token,与之前的模型保持一致。

至于为什么 GPT-5.4 的基础价格更高,OpenAI 的解释主要有三个原因:

  1. 在复杂任务上的能力显著提升,包括编程、计算机操作、深度研究、高级文档生成和工具调用等;

  2. 来自 OpenAI 技术路线图的一系列研究突破;

  3. 推理效率更高,在完成相同任务时需要更少的推理 token。

 

同时他们也强调,即使价格有所上调,GPT-5.4 的定价仍然低于许多同级别的前沿模型。

 

参考链接:

https://www.isitgoodai.com/blog/openai-gpt-5-4-review

 

https://openai.com/zh-Hans-CN/index/computer-using-agent/

https://www.reddit.com/r/OpenAI/comments/1mwc03q/openai_computer_user_agent_cua/

https://venturebeat.com/technology/openai-launches-gpt-5-4-with-native-computer-use-mode-financial-plugins-for

公司里各位好汉都在积极的推荐自己的 AI 工作流,号称从 PRD 解读 ——> 代码开发 ——> 测试,让软件开发实现一条龙全栈开发。

但我看了下他们所谓的 AI 工作流,大概是参考 spec kit 等 SDD 概念,然后重复造了轮子而已。SDD 的开发模式我也尝试过,但是感觉比较重,不符合我自己的开发哲学及与 AI 的协作方式。

于是想:

现在 LLM 中的 skills,subAgents, slash commands 等概念及上下文工程, 本质上就是给 AI 的指导文档.我感觉每个人的方法论和指导哲学都不相同,那么其实一个统一的方法论/规范是不现实的.
比如在软件开发领域,有人想要规范公司的 AI 开发工作流等.
而我认为,并没有一个可以称之为银弹的工作流.软件开发中各个节点是根据每个人的开发哲学和行为方式各不相同的,那么每个人的 AI 开发工作流其实也是各不相同的.

然后问了 claude opus-4.6,它的回答:

你说得很有道理。
这些概念——skills 、subAgents 、slash commands 、context engineering——本质上都是结构化的 prompt ,是给 AI 的"操作手册"。不同之处只在于触发方式和作用域。

你的核心观点我很认同:不存在银弹工作流。

原因很简单:

1. 开发哲学因人而异 —— 有人偏好 TDD ,有人先写再测;有人喜欢严格 plan 再动手,有人习惯探索式开发。AI 工作流只是把这些偏好编码化了而已。

2. 上下文工程的本质是个人知识外化 —— 你写的 CLAUDE.md 、skills 、rules ,反映的是你自己对"好的开发方式"的理解。两个人面对同一个项目,写出的指导文档会完全不同。

3. 强制统一反而有害 —— 如果公司强推一套"标准 AI 开发工作流",不匹配个人习惯的人反而会效率更低。就像强制所有人用 Vim 或 VS Code 一样。

真正有价值的不是"最佳实践模板",而是:
- 每个人理解这些工具的机制( skill 怎么触发、agent 怎么调度、context 怎么管理)
- 然后根据自己的开发习惯去组装适合自己的工作流

大家可以讨论一下

2026年的项目管理软件选型,难点早已不是“有没有任务看板”,而是“能否在复杂协作、混合方法和持续治理中,把沟通摩擦、工具碎片化与后续维护成本一起压下来”。PMI在Pulse of the Profession 2024中指出,组织正在转向更灵活、与场景相匹配的交付方式,专案平均绩效率为73.8%,混合式方法使用率也较2020年明显提升;Capterra 2025研究则显示,41%的组织已采用混合式项目管理方法。与此同时,G2与Capterra 2026的公开页面反映出,项目管理市场已进入高密度竞争阶段,产品功能叙事高度相似,用户却仍需在安全合规、扩展性、学习成本与真实交付成效之间反复权衡。正因如此,第三方评估与公开证据交叉验证,已成为比“听销售演示”更可靠的选型前提。本文以公开官网资料、信任中心、客户案例、第三方评论样本和行业研究为基础,筛出ONES、Jira、Trello、Asana、Wrike 等10款更值得纳入候选池的项目管理软件,帮助读者更快缩小候选范围,并把试错成本压得更低。

一、评选标准

以下榜单排名不分先后,分析主线采用总拥有成本视角。第一维度看综合投资回报率,重点量化许可费用、替代旧系统数量、管理员工时、培训投入与节省的协作时间,查验时优先看是否有周期缩短、人工减少、ROI提升等公开案例。第二维度看功能场景覆盖度,检查需求、任务、文档、测试、报表、自动化与资源管理能否减少系统切换,未来则验证其能否承接AI协作、跨部门协同和组合级治理。第三维度看使用与运维友好度,关注上手周期、模板复用率、权限维护成本和普通成员活跃度,避免买到“只有管理员会用”的平台。第四维度看鲁棒性与信任基石,重点核验SOC、ISO、FedRAMP、HIPAA配置、等保等公开证据,并观察其在未来更严格采购环境下是否仍具备合规韧性。

二、推荐榜单

ONES

ONES 面向中大型企业与研发型组织,当前公开页面显示其已服务50+中国500强客户、200+央国企客户和100+党政机关客户,定位偏向研发全生命周期管理与国产替代。安全侧具备等保三级、SOC2 Type2、ISO27001、ISO27018、ISO20000、CMMI3等公开认证。技术上由项目、测试、知识库、自动化等模块组成,像把需求、计划、测试和文档装进同一驾驶舱。实测上,中农网综合人效ROI提升248.40%,中国电信也反馈测试流程更规范、效率更高。公开案例覆盖金融、制造、互联网与央国企,适合关注信创、安全与流程闭环的团队。

推荐理由

  • 研发全生命周期覆盖较完整
  • 国产替代路径清晰
  • 信创适配信息公开充分
  • 安全认证证据链较完整
  • 需求到测试闭环能力突出
  • 适合中大型组织治理
  • 支持知识库协同
  • 适合复杂审批与跨部门交付

推荐理由依据

以上判断综合官方产品页、信创页与客户案例得出。

典型用户案例

中农网此前研发流程不统一、需求变更频繁、数据割裂;接入ONES后,通过需求流程规范、两层迭代管理与可视化度量,综合人效ROI提升248.40%,更适合需要将需求、项目、测试和知识统一治理的中大型团队。

Jira

Jira在G2 2026项目管理榜位列第六,Atlassian披露其服务30万以上客户,Gartner Peer Insights有7760条评论,偏强于研发与敏捷协同。其信任底座包括SOC 2与ISO 27001,并延伸到ISO 27018。通俗讲,Jira像把需求、缺陷、代码与发布串起来的流水线。实证上,The Telegraph三个月内将解决时间缩短66%,等待时长降50%,客户满意度升140%。用户口碑多集中在追踪清晰与流程深度。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 研发闭环成熟
  • Scrum与看板能力完整
  • 问题追踪颗粒度细
  • 与Atlassian生态连接紧
  • 适合复杂流程治理
  • 企业级合规证据清晰
  • 评论样本量较大
  • 适合技术团队深度定制

典型用户案例

英国媒体The Telegraph此前面临支持与变更流程割裂;接入Atlassian方案后三个月内,问题解决时间缩短66%,呼叫等待下降50%,客户满意度提升140%,审批流程也从8天缩至1天,前后差异在于工单、知识库与变更流程被放进同一追踪链路。

Asana

Asana在G2 2026项目管理榜位列第二,公开资料显示其拥有17万以上客户,Capterra收录13535条验证评论,适合营销、运营与跨部门项目。其安全体系覆盖SOC 2 Type 2、SOC 3与ISO 27001:2022。通俗讲,Asana像把目标、任务、审批和自动化放进同一调度台。实证上,Gannett用它把月执行量从50到70个提升到120到150个,并节省389个工作日。用户常提到其界面友好与协同顺滑。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 跨部门协作友好
  • 目标到执行链条清晰
  • 模板与自动化实用
  • 界面学习门槛相对低
  • 营销运营场景成熟
  • 评论样本量充足
  • 企业安全能力明确
  • 适合规模化流程落地

典型用户案例

媒体集团Gannett过去每月只能处理50到70个营销项目,信息和协作步骤分散;引入Asana后,月执行量提升至120到150个,同时节省389个工作日,说明其更适合任务繁密、跨团队交付频繁的运营型组织。

monday

monday.com在G2 2026项目管理榜位列第四,官方披露全球客户超24.5万,Capterra有5702条验证评论,适合非技术团队和跨职能流程改造。其信任基石包括SOC 2与ISO 27001、27018。它更像一座可拼装的数字看板工厂。实证上,Valmont借助monday.com把20多个国家的项目统一管理,每月节省9000小时。用户常称赞其看板直观、自动化友好、跨团队透明度提升明显。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 可视化看板直观
  • 非技术团队容易接受
  • 自动化配置效率高
  • 流程拼装灵活
  • 跨部门协同顺手
  • 客户规模较大
  • 合规信息透明
  • 适合运营改造项目

典型用户案例

Valmont原先在多国家、多团队环境下项目视图分散;采用monday.com后,把20多个国家的项目统一到一个平台,每月节省9000小时,管理层也获得更及时的可视化看板,这类变化尤其适合跨区域协同和流程标准化要求较高的组织。

ClickUp

ClickUp在G2 2026项目管理榜位列第五,官方称已有300万以上团队使用,Capterra收录4550条验证评论,适合想把文档、任务、目标和沟通收拢到一处的团队。其安全体系覆盖SOC 2、PCI DSS、ISO 27001、27017、27018、27701与42001。它像一把多功能瑞士军刀。实证上,Lids借助ClickUp节省100多小时并让周会效率提升66%,Wallester每周再省20小时。用户多认可其功能密度与整合感。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 一体化程度高
  • 文档任务聊天可收敛
  • 视图类型丰富
  • 自动化能力强
  • 适合工具整合
  • 合规覆盖面较广
  • 团队规模覆盖广
  • 适合追求平台统一者

典型用户案例

零售品牌Lids此前跨团队沟通与例会效率受限;上线ClickUp后,累计节省100多小时,会议效率提升66%。另一家金融科技公司Wallester则通过整合六套工具,每周再省20小时,产品发布速度提高15%,这说明其价值更常体现在工具收敛与上下文集中。

Smartsheet

Smartsheet在G2 2026项目管理榜位列第三,IDC白皮书披露其拥有12.5万以上客户和约1670万用户,并覆盖约85%的财富500强企业。其信任基石覆盖ISO 27001、27017、27018、27701及更完整的企业级合规框架。通俗理解,它像把电子表格升级成可自动流转的项目中台。实证上,McLaren F1用它把风洞测试计划提速70%,明尼阿波利斯市则把行政处理时间削减50%。用户普遍认可其报表与表格迁移优势。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 表格迁移成本较低
  • PMO报表能力强
  • 适合组合项目治理
  • 大型企业采用面广
  • 合规框架较丰富
  • 自动化与仪表盘成熟
  • 跨区域计划能力强
  • 适合Excel心智团队

典型用户案例

McLaren Formula 1需要在高频试验与复杂依赖中提升排程效率,使用Smartsheet后,风洞测试计划速度提升70%。另一个公共部门案例中,明尼阿波利斯市把行政处理时间降低50%,说明其更适合数据表驱动、报表要求高、流程需标准化的组织。

Wrike

Wrike在G2 2026项目管理榜位列第八,官方页面显示其服务2万以上客户,Capterra收录2878条验证评论,适合流程复杂、审批链较长的中大型组织。其信任底座包括SOC 2 Type II、ISO 27001、27017、27018与27701。通俗讲,Wrike像把申请、交付、审阅和资源排布拧成主轴的运营系统。实证上,Fitbit借助Wrike节省200多小时,Siemens也用它降低人工时间并提升透明度。用户多提到模板、报表和视图能力成熟。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 审批与流程链能力强
  • 模板蓝图实用
  • 资源管理视角清晰
  • 适合复杂组织
  • 企业级安全证据明确
  • 报表与仪表盘成熟
  • 可支撑多团队协作
  • 适合长流程交付场景

典型用户案例

Wrike公开案例显示,Fitbit在业务节奏加快后借助该平台节省200多小时;Siemens则利用其更清晰的协作与透明度降低人工消耗。对审批节点多、跨团队反馈复杂的组织而言,这类收益往往比单一任务清单更关键。

Notion

Notion在G2 2026项目管理榜位列第九,官方披露其已拥有1亿用户,且98%的福布斯云百强企业、62%的财富500强企业都在用,适合知识管理与项目协同并重的团队。其信任体系包括SOC 2 Type 2、BSI C5、ISO 27001、27701、27017、27018与HIPAA支持。它像把文档库、任务板和轻应用积木放进一个工作台。实证上,Heidi借助Notion AI每月节省260多小时,Vercel称交付速度提升35%。用户常提到灵活度高但需模板治理。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 文档与项目一体化
  • 知识沉淀能力强
  • AI检索与总结有优势
  • 模板灵活可扩展
  • 减少工具碎片化
  • 企业安全体系完整
  • 适合产品运营协同
  • 适合知识型组织

典型用户案例

医疗科技公司Heidi在全球扩张过程中,把文档、AI代理与知识库放进Notion后,每月节省260多小时;Vercel则表示在AI驱动的Notion工作空间中,交付速度提升35%,并每周节省9小时,说明其更适合作为知识与项目协同的统一底座。

Trello

Trello在G2 2026项目管理榜位列第十一,Capterra收录23467条验证评论,官方强调其被全球数百万用户使用,适合轻量项目和可视化任务推进。其信任基石来自SOC 2 Type 2、FedRAMP授权、ISO 27001与27018以及定期安全测试。它像一面人人看得懂的磁性白板。实证上,UNICEF在飓风应对中依托Trello在30小时内向2.2万人传递关键信息,McCorvey则借此一夜之间走向无纸化。用户最常夸赞的是轻巧直观。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 上手速度快
  • 可视化体验强
  • 学习成本较低
  • 适合轻量协作
  • 模板与扩展实用
  • 评论样本量很大
  • 安全基线完整
  • 适合个人与小团队

典型用户案例

在飓风Irma应对中,UNICEF全球创新中心依靠Trello与U Report平台协同,在30小时内把关键信息传递给2.2万人;这类案例说明,Trello的核心价值不在复杂治理,而在把多人协作迅速转化为人人看得懂的执行板。

Zoho Projects

Zoho Projects在G2 2026项目管理榜位列第二十三,Capterra收录850条验证评论,适合预算敏感且兼顾经典与敏捷管理的团队。其合规能力覆盖SOC 1 Type II、SOC 2 Type II、ISO 27017,并支持更高要求的隐私与行业审计。它像一辆配置均衡的多用途车型。公开客户材料显示,Lunchbox借助Zoho生态自动化关键流程,另一批案例则强调模板、工时、甘特图和跨应用联动带来的效率提升。用户多认可其性价比与功能完整度。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 性价比表现稳定
  • 经典与敏捷兼顾
  • 甘特与工时较完整
  • 适合预算敏感团队
  • Zoho生态联动强
  • 合规信息较透明
  • 适合中小企业推进
  • 适合从轻量到规范过渡

典型用户案例

Lunchbox把Zoho Projects与Zoho CRM、Invoice、WorkDrive等应用联动后,重构了SOP、客户支持与计费流程。公开案例未给出单一统一百分比,但明确指出其自动化了关键业务流程并带来显著运营改进,这类路径更适合希望用一套相对可控预算完成业务协同的团队。

Teamwork

Teamwork 在G2 2026项目管理榜位列第三十五,官方称其被2.4万以上客户采用并覆盖140国,Capterra收录920条验证评论,尤其适合客户交付与工时管理。其信任基石包括ISO/IEC 27001:2022、SOC 2 Type 2与99.9%可用性目标。它像把排期、资源利用和账单视角并起来的经营驾驶舱。实证上,Invanity使用后计划编制时间降50%,每周工作量管理时间降80%,按时交付率升20%。用户常提到资源与盈利视角实用。

推荐理由

依据官方资料、第三方评论与客户案例整理。
  • 客户交付导向明显
  • 工时与盈利视角清楚
  • 资源管理较实用
  • 适合代理与服务团队
  • 合规与可用性信息明确
  • 模板与流程能力稳定
  • 支持对外协作场景
  • 结果导向较强

典型用户案例

英国营销机构Invanity原先在计划、负载和平衡盈利方面缺少统一视图;接入Teamwork.com后,项目计划编制时间下降50%,每周工作量管理时间下降80%,按时交付率提升20%,更关键的是项目盈利与资源利用不再是黑箱。

决策指南

本文采用分步验证漏斗,并以数据对比式加风险警示式写成自助工具型建议。

第一步先按主工作类型缩小范围:研发与缺陷闭环优先看ONES、Jira、ClickUp;跨部门运营与市场协同重点看Asana、monday.com;审批链和复杂交付多时看Wrike;知识库与项目一体化需求突出时看ONES、Notion;轻量可视化推进可先看Trello;预算敏感且需较完整经典功能时看Zoho Projects;客户交付、工时和盈利视角重要时看Teamwork.com。

第二步做安全与信任筛选,受监管行业或大型采购应优先保留证据链更完整的产品,重点核验SOC、ISO、FedRAMP、HIPAA支持、备份、加密、AI数据使用边界与可用性承诺。

第三步进入两到四周试点,不只比较功能清单,而要记录模板搭建时间、活跃使用率、逾期任务率、例会时长、管理员工时、跨工具切换次数与报表产出速度。
第四步回到长期价值,判断该工具能否替代两到三个现有系统,是否具备API、自动化、知识沉淀与未来AI协作扩展空间。

真正适合的方案,不是声量最高的产品,而是证据链与团队场景贴合度更高的那一个。

信息来源说明
本文参考了PMI Pulse of the Profession 2024、Capterra 2025项目管理软件趋势研究、G2 2026 Best Project Management Software Products榜单,以及各产品官网、信任中心、第三方评论平台与客户案例页面中的公开资料;所有涉及客户数、评论量、认证信息、案例成效等内容,均尽量采用可公开核验来源。

一、AI 时代编程太闹心?全新协作方式来救场
传统多语言开发的那些小烦恼:不同编程语言像各说各的,兼容性特别差;开发工具也不互通有无,没有统一的协作平台;每天还要写大量重复代码,效率提不上来,根本赶不上业务迭代的节奏。
AI辅助编程也有小短板:现在的 AI 代码生成工具,质量好坏参差不齐,写出来的代码要么有逻辑漏洞,要么读起来费劲;要是太依赖 AI,程序员就没了主导权,只能被动跟着 AI 走,根本没法发挥自己的创新想法。
image.png
二、铁三角组合,撑起 Polyglot Singularity 生态
Phoenix OSE:生态里的核心担当,它不是 AI 语言,主要用来承载核心业务逻辑和程序员的创新思路,既能从一开始就保证代码质量,还能让程序员牢牢掌握主导权,不让 AI 过度插手核心开发。
Rainbow:生态里的桥梁担当,说白了就是转译工具,专门打通 Phoenix OSE 和 Vim8 编辑器的隔阂,让两种环境下的代码能无缝转换、运行和调试,再也不用为工具不兼容头疼。
Feather:生态里的贴心助手,本质是 AI 辅助层,专门帮程序员扛下那些重复、没技术含量的编码活,还能自动生成好读的代码和配套文档,大大减轻程序员的负担,让大家能偷个懒。
image.png
三、人机配合的黄金套路,重新定义编程协作
分工清清楚楚:主打AI 打辅助,人类来主导,AI 负责干那些繁重、重复的基础编码活,程序员则专心搞代码审查、做核心决策、挖创新思路,双方各展所长、配合默契。
流程闭环不脱节:形成AI 辅助生成—人类审核优化—Rainbow 转译运行的完整流程,每一步都衔接顺畅,既能提高开发效率,又能避免 AI 生成代码的质量坑。
价值不跑偏:别再担心AI 会替代程序员啦!通过合理的分工和架构设计,能稳稳保住程序员在自动化编程里的核心地位,不让大家被技术边缘化,毕竟人类的创新能力,AI 可替代不了。
image.png
四、从 Singularity 奇点出发,解锁编程新玩法
让编程语言百花齐放还更智能:以 Polyglot Singularity 生态为模板,打破单一语言的限制,让多种语言能协同工作,AI 和编程语言深度绑定,让编程生态变得更丰富、更智能。
重塑软件开发的新姿势:给软件开发提供人机协同的新思路,让开发模式从主要靠人工编码变成AI 辅助+人类创新,未来整个软件行业的开发效率和产品质量,都会因此发生大变化。

在电池供电的物联网系统中,DTU 功耗计算直接决定设备的运行周期和维护成本。通过科学的功耗评估,可以合理设计电池容量、优化通信策略,并显著延长设备寿命。本文系统解析 LoRaWAN DTU 的功耗组成、计算逻辑以及电池寿命评估方法,并结合实际工程经验提供优化建议,帮助开发者在设计阶段就实现更长的设备运行周期。

一、为什么 DTU 功耗计算如此重要

在大规模 IoT 部署中,很多设备需要在 无人值守环境运行数年。
如果功耗评估不准确,往往会出现以下问题:

电池寿命远低于预期

设备维护成本大幅增加

需要频繁更换电池

项目整体 ROI 降低

因此,在设计 LoRaWAN 设备时,功耗计算与网络设计同样重要。

对于数据传输单元(DTU)来说,其功耗不仅来自无线通信,还包括:

MCU 运行功耗

LoRaWAN 通信功耗

外部设备通信功耗

休眠监听功耗

只有将这些因素综合考虑,才能得到准确的设备功耗模型。

二、DTU 的主要功耗组成

在实际工程中,一个 LoRaWAN DTU 的功耗通常由以下几个部分组成。

1 基础功耗(静态功耗)

基础功耗指设备处于 深度休眠状态 时的最低电流消耗。

以 ManThink 的 DTU 为例,其典型静态电流约为:

3 µA

该功耗在设备整个生命周期中持续存在,因此在长期运行中占据重要比例。

2 SW 模式功耗(SleepWakeup 模式)

SW 模式是一种低功耗监听机制,用于满足 LoRaWAN 网络的唤醒需求。

在该模式下,设备会 周期性监听前导码。

影响功耗的关键参数包括:

Period(监听周期)

SF(扩频因子)

BW(带宽)

其中:

符号时间由 SF 和 BW 决定。
DTU 在每个周期内需要监听 两个符号时间。

因此:

周期越长 → 平均功耗越低

符号时间越长 → 功耗越高但通信距离更远

在实际项目中,需要根据网络覆盖和功耗要求进行平衡。

3 LoRaWAN 通信功耗

LoRaWAN 传输过程通常是设备功耗最高的阶段。

影响因素包括:

传输功率(Tx Power)

数据速率(DR)

负载数据长度(Payload)

网络距离

一般规律:

通信距离越远、数据速率越低 → 传输时间越长 → 功耗越高

LoRaWAN 网络通常使用 ADR(Adaptive Data Rate) 来自动优化数据速率。

工程实践建议:

在网络覆盖良好的情况下使用 较高 DR

增加网关密度以缩短通信距离

减少不必要的数据发送

这些措施都可以显著降低设备功耗。

4 有线通信功耗

DTU 在读取传统传感器时,还会产生额外功耗。

常见接口包括:

RS-485

M-Bus

4-20 mA

0-10 V

有线通信功耗由两部分组成:

外部设备功耗

如果 DTU 为外部设备供电,例如通过 升压至 15V 电源,则需要将外部设备电流转换为 电池侧等效电流。

同时,还需要考虑通信过程中的工作时间,例如:

设备预热时间

指令发送时间

设备响应时间

超时重试时间

这些时间都会影响最终功耗。

DTU 接口功耗

不同接口具有不同电流消耗。

例如:

RS-485 接口工作电流通常 小于 12 mA。

由于 RS-485 不需要升压转换,其电流可以直接计入系统功耗。

三、设备整体功耗计算方法

在完成各模块功耗分析后,可以进一步计算设备整体功耗。

1 总通信功耗

通信过程中的瞬时功耗包括:

外部设备电流

DTU 接口电流

MCU 工作电流

这些功耗叠加后构成一次完整通信的能量消耗。

2 日均功耗

日均功耗是评估设备寿命的核心指标。

其计算需要综合考虑:

设备休眠时间

通信次数

每次通信能量消耗

SW 监听功耗

最终得到 24 小时平均功耗。

如果 DTU 不为外部设备供电,则可以忽略外部设备功耗。

3 电池寿命评估

在实际工程中,电池寿命需要考虑一定安全裕量,例如:

网络重试

通信异常

环境温度变化

常见做法是加入 安全系数(Safety Margin)。

最终电池寿命估算公式为:

电池寿命 = 电池容量 ÷ 日均功耗 × 安全系数

这样可以得到更接近真实情况的设备寿命预测。

四、DTU 功耗优化的工程建议

在 LoRaWAN 项目中,可以通过以下方式降低功耗。

优化 LoRaWAN 参数

合理设置:

DR(数据速率)

上报周期

传输功率

以减少通信能量消耗。

选择低功耗外部设备

优先选择:

低电流传感器

快速响应设备

支持休眠模式的设备

可以显著减少外部供电时间。

优化通信逻辑

减少:

不必要的数据读取

频繁通信

无效重试

有助于降低系统功耗。

持续监测功耗数据

设备部署后建议:

记录实际运行功耗

与理论计算进行对比

持续优化通信策略

五、总结

DTU 的功耗计算不仅是设备设计的重要环节,也是保证物联网系统长期稳定运行的关键。

通过对 基础功耗、SW 模式功耗、LoRaWAN 通信功耗以及有线通信功耗 的综合评估,可以建立完整的功耗模型,并对电池寿命进行可靠预测。

在实际项目中,结合合理的 LoRaWAN 参数配置、低功耗设备选择以及通信策略优化,可以显著延长设备的运行周期。

如果您希望将传统传感器或有线设备快速接入 LoRaWAN 网络,门思科技提供完整解决方案,包括:

LoRaWAN DTU

LoRaWAN 网关

ThinkLink IoT 平台

EdgeBus 协议适配

我们可以提供 免费的设备对接支持与技术咨询服务。

ThinkLink 体验地址
https://thinklink.manthink.cn

ThinkLink 官网
https://think-link.net

我做了一个程序员技能搜索网站:Skills.lc ,可以查全球技能与岗位需求

最近在做一些 AI + 职业数据相关的小项目,顺手做了一个工具网站:

👉 https://skills.lc/

简单来说,这是一个 技能搜索引擎

你可以输入任何技能,比如:

  • React
  • Rust
  • Kubernetes
  • Prompt Engineering

网站会展示:

  • 相关技能
  • 技能分类
  • 技能描述
  • 技能之间的关系

本质上是把分散在互联网里的 职业技能数据做成一个可搜索的技能图谱


为什么做这个?

很多人都会问:

  • 现在学什么技术更有前景?
  • 一个技术栈应该往哪些方向扩展?
  • 某个技能和哪些技术相关?

但这些信息通常分散在:

  • 招聘网站
  • 技术社区
  • AI 模型训练数据

所以我尝试把这些 技能数据整理了一下,做成一个简单的工具网站


目前可以用来做什么

现在这个网站可以:

  • 查技能解释
  • 找相关技能
  • 了解技术栈关系
  • 做职业技能探索


未来可能会增加

如果有人用的话,后面可能会继续做一些功能,比如:

  • 技能趋势
  • 技能薪资
  • 技能学习路径
  • AI 推荐技术栈
  • 技能与岗位需求分析


目前这个项目是我一个人做的 side project,界面比较简单 😄

如果大家有建议或者想要的功能,欢迎在帖子里提。

也欢迎大家试试看:

👉 https://skills.lc/

如果觉得有用,我就继续把数据和功能做大一点。


去年买的 cursor 的 pro 套餐,一个月 500 次
马上到期了,不知道自动续费是不是还是按照 500 ,还是统一改成按照 token 的方式计费
有大佬续费过的么?求告知

Boss 上约好了面试
察觉尿意上来了,上完厕所回来,刚半只脚踏入研发室的门,被老板叫住了招呼我去他办公室。
关上门就问我现在的薪资,然后从下次领工资起涨 2K 。
我人傻了

描述

在帖子下面评论之后,楼主回复后,右上角 用户模块会提示: 1 未读消息.

但,现在就在 评论帖子 页面。

期望效果

已经在对应的的帖子下面评论、回复,不再记录到 未读消息,因为用户就在对应页面,已经看到。

尽管我玩了许多 3A,也很喜欢一些游戏,比如说《巫师 3-狂猎》,尤其是《血与酒》以及《石之心》这两个 DLC 直接拨高了这游戏高度,

但我玩的最多的游戏也算最喜欢的游戏其实是 LOL(英雄联盟)哈哈,目前只玩 LOL 的海克斯大乱斗,不知道社区里面有没有一样的,这种不会晕 3D、不用充钱、不烧配置、能给多巴胺,不用买皮肤也能玩,其实还养老的 💆‍♂️。

在现代商务和教育环境中,PowerPoint 演示文稿是传递信息和展示成果的重要工具。无论是产品发布会、培训课程还是项目汇报,一个生动有趣的演示文稿能够更好地吸引观众注意力,增强信息传达效果。然而,手动为每个幻灯片添加动画效果不仅耗时,而且难以保持风格的一致性。当需要制作大量演示文稿或定期更新内容时,重复的手动操作会大大降低工作效率。Python 作为一种强大的编程语言,结合专业的演示文稿处理库,可以实现动画效果的自动化添加,既保证了演示质量,又大幅提升了工作效率。

本文将使用 Free Spire.Presentation for Python 展示如何在 PowerPoint 演示文稿中为形状和文本添加各种动画效果,包括入场动画、退出动画、文本动画以及自定义路径动画,帮助你快速掌握演示文稿动画自动化技能。


1. 环境准备与库安装

首先需要安装 Free Spire.Presentation for Python:

pip install spire.presentation.free

安装完成后,我们可以开始创建 PowerPoint 演示文稿并添加动画效果。下面是一个创建简单演示文稿的示例:

from spire.presentation.common import *
from spire.presentation import *

# 创建演示文稿对象
ppt = Presentation()
# 获取第一张幻灯片
slide = ppt.Slides[0]

# 保存初始文件
ppt.SaveToFile("BasicPresentation.pptx", FileFormat.Pptx2013)
ppt.Dispose()
print("演示文稿已创建:BasicPresentation.pptx")

说明
Presentation 对象代表整个 PowerPoint 演示文稿,Slides[0] 获取第一张幻灯片。这里我们创建了一个基础的演示文稿,为后续添加形状和动画做好准备。


2. 为形状添加入场动画

入场动画是演示文稿中最常用的动画类型,能够吸引观众的注意力。我们以添加一个五角星形状并应用淡入旋转动画为例:

from spire.presentation.common import *
from spire.presentation import *

outputFile = "EntranceAnimation.pptx"

# 创建演示文稿对象
ppt = Presentation()
# 获取第一张幻灯片
slide = ppt.Slides[0]

# 设置背景图片
ImageFile = "bg.png"
rect = RectangleF.FromLTRB(0, 0, ppt.SlideSize.Size.Width, ppt.SlideSize.Size.Height)
slide.Shapes.AppendEmbedImageByPath(ShapeType.Rectangle, ImageFile, rect)
slide.Shapes[0].Line.FillFormat.SolidFillColor.Color = Color.get_FloralWhite()

# 添加五角星形状
starShape = slide.Shapes.AppendShape(ShapeType.FivePointedStar, RectangleF.FromLTRB(250, 100, 450, 300))
starShape.Fill.FillType = FillFormatType.Solid
starShape.Fill.SolidColor.KnownColor = KnownColors.LightBlue

# 为形状添加淡入旋转动画效果
slide.Timeline.MainSequence.AddEffect(starShape, AnimationEffectType.FadedSwivel)

# 保存演示文稿
ppt.SaveToFile(outputFile, FileFormat.Pptx2013)
ppt.Dispose()
print("入场动画已添加:EntranceAnimation.pptx")

幻灯片预览:

为形状添加入场动画

说明
通过 slide.Timeline.MainSequence.AddEffect() 方法为形状添加动画效果,AnimationEffectType.FadedSwivel 指定动画类型为淡入旋转。此步骤为形状添加了动态效果,使演示文稿更加生动。


3. 为形状添加退出动画

退出动画用于控制对象在幻灯片上的消失方式,能够创造出流畅的过渡效果。我们将为形状添加随机条形退出动画:

from spire.presentation.common import *
from spire.presentation import *

outputFile = "ExitAnimation.pptx"

# 创建演示文稿对象
ppt = Presentation()
# 获取第一张幻灯片
slide = ppt.Slides[0]

# 设置背景图片
ImageFile = "./Data/bg.png"
rect = RectangleF.FromLTRB(0, 0, ppt.SlideSize.Size.Width, ppt.SlideSize.Size.Height)
slide.Shapes.AppendEmbedImageByPath(ShapeType.Rectangle, ImageFile, rect)
slide.Shapes[0].Line.FillFormat.SolidFillColor.Color = Color.get_FloralWhite()

# 添加五角星形状
starShape = slide.Shapes.AppendShape(ShapeType.FivePointedStar, RectangleF.FromLTRB(250, 100, 450, 300))
starShape.Fill.FillType = FillFormatType.Solid
starShape.Fill.SolidColor.KnownColor = KnownColors.LightBlue

# 为形状添加随机条形效果
effect = slide.Timeline.MainSequence.AddEffect(starShape, AnimationEffectType.RandomBars)
# 将效果类型从入场改为退出
effect.PresetClassType = TimeNodePresetClassType.Exit

# 保存演示文稿
ppt.SaveToFile(outputFile, FileFormat.Pptx2013)
ppt.Dispose()
print("退出动画已添加:ExitAnimation.pptx")

幻灯片预览:

为形状添加退出动画

说明
使用 AnimationEffectType.RandomBars 添加随机条形效果,然后通过 effect.PresetClassType = TimeNodePresetClassType.Exit 将动画类型设置为退出动画。此功能适用于需要对象以特定方式消失的场景。


4. 为文本添加动画

文本动画能够突出重要信息,引导观众的注意力。我们将为文本框中的文字添加浮动动画:

from spire.presentation.common import *
from spire.presentation import *

outputFile = "TextAnimation.pptx"

# 创建演示文稿对象
ppt = Presentation()
# 获取第一张幻灯片
slide = ppt.Slides[0]

# 设置背景图片
ImageFile = "./Data/bg.png"
rect = RectangleF.FromLTRB(0, 0, ppt.SlideSize.Size.Width, ppt.SlideSize.Size.Height)
slide.Shapes.AppendEmbedImageByPath(ShapeType.Rectangle, ImageFile, rect)
slide.Shapes[0].Line.FillFormat.SolidFillColor.Color = Color.get_FloralWhite()

# 添加矩形形状
shape = slide.Shapes.AppendShape(ShapeType.Rectangle, RectangleF.FromLTRB(250, 150, 450, 250))
shape.Fill.FillType = FillFormatType.Solid
shape.Fill.SolidColor.Color = Color.get_LightBlue()
shape.ShapeStyle.LineColor.Color = Color.get_White()
shape.AppendTextFrame("此示例展示如何在 PPT 文档中为文本应用动画。")

# 为形状中的文本应用浮动动画
animation = shape.Slide.Timeline.MainSequence.AddEffect(shape, AnimationEffectType.Float)
# 设置动画应用于特定段落
animation.SetStartEndParagraphs(0, 0)

# 保存演示文稿
ppt.SaveToFile(outputFile, FileFormat.Pptx2013)
ppt.Dispose()
print("文本动画已添加:TextAnimation.pptx")

幻灯片预览:

为文本添加动画

说明
使用 AnimationEffectType.Float 为文本添加浮动效果,animation.SetStartEndParagraphs(0, 0) 指定动画应用于第一段文本。此功能适用于需要逐段展示文本内容的场景。


5. 设置文本动画的逐字显示效果

逐字显示动画能够让文本以更精细的方式呈现,增强视觉冲击力。我们将设置文本的逐字动画类型和时间间隔:

from spire.presentation.common import *
from spire.presentation import *

inputFile = "./Data/Animation.pptx"
outputFile = "LetterAnimation.pptx"

# 创建演示文稿对象
ppt = Presentation()
# 加载文件
ppt.LoadFromFile(inputFile)

# 将动画类型设置为逐字
ppt.Slides[0].Timeline.MainSequence[0].IterateType = AnimateType.Letter
# 设置逐字动画的时间间隔值
ppt.Slides[0].Timeline.MainSequence[0].IterateTimeValue = 10

# 保存演示文稿
ppt.SaveToFile(outputFile, FileFormat.Pptx2013)
ppt.Dispose()
print("逐字动画已设置:LetterAnimation.pptx")

幻灯片预览:

设置文本逐字动画

说明
通过 IterateType = AnimateType.Letter 设置逐字动画类型,IterateTimeValue = 10 设置每个字符出现的时间间隔。此功能适用于需要逐字展示文本的场景,能够创造出打字机效果。


6. 设置动画重复类型

动画重复类型控制动画的播放次数,能够增强演示效果。我们将设置动画持续到幻灯片结束:

from spire.presentation.common import *
from spire.presentation import *

inputFile = "./Data/Animation.pptx"
outputFile = "RepeatAnimation.pptx"

# 创建演示文稿对象
presentation = Presentation()
# 加载文件
presentation.LoadFromFile(inputFile)

# 获取第一张幻灯片
slide = presentation.Slides[0]
animations = slide.Timeline.MainSequence
# 设置动画重复类型为持续到幻灯片结束
animations[0].Timing.AnimationRepeatType = AnimationRepeatType.UtilEndOfSlide

# 保存文件
presentation.SaveToFile(outputFile, FileFormat.Pptx2013)
presentation.Dispose()
print("动画重复类型已设置:RepeatAnimation.pptx")

幻灯片预览:

设置动画重复类型

说明
使用 AnimationRepeatType.UtilEndOfSlide 设置动画重复类型为持续到幻灯片结束。此功能适用于需要动画在幻灯片播放期间持续循环的场景。


7. 创建自定义路径动画

自定义路径动画能够让对象按照指定的轨迹移动,创造出独特的视觉效果。我们将创建一个自定义的运动路径动画:

from spire.presentation.common import *
from spire.presentation import *

outputFile = "CustomPathAnimation.pptx"

# 创建 PPT 文档
ppt = Presentation()
# 添加形状
shape = ppt.Slides[0].Shapes.AppendShape(ShapeType.Rectangle, RectangleF.FromLTRB(0, 0, 200, 200))
# 添加动画
effect = ppt.Slides[0].Timeline.MainSequence.AddEffect(shape, AnimationEffectType.PathUser)
common = effect.CommonBehaviorCollection
motion = common[0]
motion.Origin = AnimationMotionOrigin.Layout
motion.PathEditMode = AnimationMotionPathEditMode.Relative

# 添加运动路径
moinPath = MotionPath()
p1 = PointF(0.0, 0.0)
p2 = PointF(0.1, 0.1)
p3 = PointF(-0.1, 0.2)
moinPath.Add(MotionCommandPathType.MoveTo, [p1], MotionPathPointsType.CurveAuto, True)
moinPath.Add(MotionCommandPathType.LineTo, [p2], MotionPathPointsType.CurveAuto, True)
moinPath.Add(MotionCommandPathType.LineTo, [p3], MotionPathPointsType.CurveAuto, True)
moinPath.Add(MotionCommandPathType.End, [], MotionPathPointsType.CurveStraight, True)
motion.Path = moinPath

# 保存演示文稿
ppt.SaveToFile(outputFile, FileFormat.Pptx2010)
ppt.Dispose()
print("自定义路径动画已创建:CustomPathAnimation.pptx")

幻灯片预览:

创建自定义路径动画

说明
使用 AnimationEffectType.PathUser 创建用户自定义路径动画,通过 MotionPath 对象定义运动轨迹。MotionCommandPathType.MoveToMotionCommandPathType.LineTo 指定路径点,MotionCommandPathType.End 结束路径定义。此功能适用于需要对象按照特定轨迹移动的场景。


8. 技术细节总结与关键类方法概览

在前面的章节中,我们展示了如何使用 Free Spire.Presentation for Python 为 PowerPoint 演示文稿添加各种动画效果。从技术实现角度来看,动画添加的核心流程可以总结为以下几个关键步骤:

Python PowerPoint 动画添加步骤总结

  1. 创建演示文稿对象
    使用 Presentation() 创建演示文稿对象,通过 ppt.Slides[0] 获取幻灯片对象。
  2. 添加形状或文本
    使用 slide.Shapes.AppendShape() 添加形状,通过 shape.AppendTextFrame() 添加文本内容。
  3. 设置背景和格式
    使用 slide.Shapes.AppendEmbedImageByPath() 设置背景图片,通过 FillSolidColor 属性设置形状颜色。
  4. 添加动画效果
    使用 slide.Timeline.MainSequence.AddEffect() 为形状或文本添加动画效果,通过 AnimationEffectType 指定动画类型。
  5. 配置动画属性
    通过 effect.PresetClassType 设置动画类型(入场、退出、强调),使用 animation.SetStartEndParagraphs() 设置文本动画范围。
  6. 设置动画细节
    使用 IterateType 设置逐字动画,通过 IterateTimeValue 设置时间间隔,使用 AnimationRepeatType 设置重复类型。
  7. 创建自定义路径
    使用 AnimationEffectType.PathUser 创建自定义路径动画,通过 MotionPath 对象定义运动轨迹。
  8. 保存演示文稿
    使用 ppt.SaveToFile() 将生成的演示文稿保存到指定文件。

关键类、方法与属性

类 / 方法 / 属性说明
PresentationPowerPoint 演示文稿对象,支持创建、加载和保存文件
Presentation.LoadFromFile()从本地文件加载演示文稿
Presentation.SaveToFile()保存演示文稿到指定路径
Slide表示单个幻灯片,是操作形状和动画的主体对象
slide.Shapes.AppendShape()在幻灯片中添加形状
shape.AppendTextFrame()为形状添加文本内容
slide.Timeline.MainSequence.AddEffect()为形状或文本添加动画效果
AnimationEffectType枚举类型,指定动画效果类型(淡入、浮动、随机条形等)
effect.PresetClassType设置动画类型(入场、退出、强调)
animation.SetStartEndParagraphs()设置文本动画应用的段落范围
AnimateType.Letter设置动画类型为逐字显示
animation.IterateTimeValue设置逐字动画的时间间隔值
AnimationRepeatType.UtilEndOfSlide设置动画重复类型为持续到幻灯片结束
AnimationEffectType.PathUser创建用户自定义路径动画
MotionPath表示自定义运动路径
MotionCommandPathType枚举类型,指定路径命令类型(移动到、线到、结束)

通过理解上述关键类、方法和属性,你可以灵活地为 PowerPoint 演示文稿添加各种动画效果,并根据演示需求进行精细定制。掌握这些技术细节,能让你在实际项目中快速生成高质量、视觉吸引力强的演示文稿,同时保持代码简洁和可维护性。


总结

本文以实际演示场景为例,展示了如何使用 Free Spire.Presentation for Python 在 PowerPoint 演示文稿中为形状和文本添加各种动画效果,包括入场动画、退出动画、文本动画、逐字动画、重复动画以及自定义路径动画。通过编程方式添加动画,不仅避免了手动操作的繁琐和易错问题,还能轻松应对批量演示文稿制作和风格统一的需求。

掌握这一技能后,你可以将演示文稿制作完全自动化,从而节省时间,提高效率,并为观众呈现更加生动有趣的演示效果。结合 Free Spire.Presentation 的其他功能,如幻灯片管理、图表插入和格式设置,可以进一步打造智能化的演示文稿自动化工做流,让企业的演示效果提升到新的高度。更多 Python 操作 PowerPoint 方法,请参考 Spire.Presentation for Python 官方教程

  • 标题的含义是 项目所有代码均由 qwen3.5 本地 9B 模型产生 同时需要人类(我)和其他模型进行必要指导
  • 2020 款 m1 macbook air 16G 内存
  • 本地部署参考,几乎是一样的 https://advanced-stack.com/fields-notes/qwen35-opencode-lm-studio-agentic-coding-on-m1.html
  • 我用的 ohmyopencode
  • 我做的工作: 描述我的想法,做一个任意用户名密码都能发言的论坛,相同用户名密码永远同一个身份,不用注册,随便瞎输入用户名密码直接匿名,前后端都用 rust ,技术栈 tokio,axum,sqlite,leptos,本地部署+cf tunnel, ai 内容审查,防滥用机制,页面设计风格。
  • 其他模型的工作: 输出指导性文档(详细的项目介绍,项目结构,roadmap ,模型分工),文档中不包含具体代码,文档确定后不会再被 qwen3.5 修改。
  • qwen3.5 的工作: 面向文档编程。自己审阅代码,调试代码。

👉 https://offgrid.ing/

当今社会,网络安全已成为企业稳健发展的重要保障,为网站部署SSL证书并启用HTTPS加密,绝大多数企业几乎已达成一致共识。然而,当企业面对市场上价格从免费到几千乃至几万元的各种SSL证书时,往往难以做出明确抉择。数字证书的价格差异为何如此显著?低价SSL证书是否值得信赖?高价证书的价值体现在哪里?什么样的证书才是适合自己的?JoySSL市场部经理指出,SSL证书的价格差异,并非单纯由品牌溢价或宣传策略决定,而是验证深度、安全覆盖范围、技术支持以及法律效力等综合因素的体现。唯有理解SSL证书价格差异化背后的核心原因,才有助于企业作出更明智的选择,有效规避因过度追求低价可能带来的风险,从而真正建立起包含数字信任的防护屏障。

数字证书定价差异核心影响因素

验证等级是影响SSL证书价格最重要的因素,有着从“域名控制”到“法律实体认证”的本质区别。免费或低价的DV证书仅能实现基本的加密功能,OV证书则为企业提供可验证的商业身份,而EV证书采用最严格的身份审核标准,为企业提供最高级别的可视化信任标识。

证书覆盖范围广泛,从保护单一域名到全方位覆盖域名群体,适用于各式场景,价格也因此而受到影响。除此以外,服务质量亦成为证书定价差异的标准因素。低价的基础证书无主动监测,无服务保障。而企业级证书涵盖全天候专业技术支持,具备自动化管理工具及高额度责任赔偿,价值远超证书本身。

证书价格差异影响企业商业决策

采用免费或低成本DV证书,只能助力企业实现基础加密,无法明确身份。在金融、电商和政务等特殊领域颇受掣肘,可能使企业的品牌信任度大幅降低。相比之下,选择OV或EV证书,可将抽象的安全转化为直观的企业身份展示,增强用户信任感,提升竞争优势。

廉价证书通常不包含责任保障,因免费证书加密故障导致数据泄露,企业需要承担所有经济和法律责任。企业级证书则附加高额赔偿保障,可在关键时刻为企业提供财务保障,实际价值远超证书费用。

为众多子域管理低成本证书,或可带来隐性人力投入与风险,采用支持自动化管理与集中监控的SSL证书解决方案,可显著提高工作效率,避免重复劳动,降低长期运维成本。

透明定价推动企业有效选择证书

面对竞争激烈的SSL证书市场,JoySSL首席技术专家指出,透明的证书定价更有利于企业做出合理抉择,建立信任纽带。坚持以价值为核心,充分发挥数字证书的加密与验证功能,方可满足多样化需求,覆盖更广阔的市场。同时,透明的定价配合专业的服务,有利于将单次证书选购转化为长期投资,建立信任基础,助力企业未来发展。

价格仅为参考 SSL价值才是核心

企业选择SSL证书时,需正确理解价格与价值之间的关系,突破定价的片面逻辑,基于业务需求、风险评估、运营效率及合规要求,做出精准决策,让安全投资转化为可信赖的价值,为企业创造持续的商业回报。

2026年3月8日至10日,FOSSASIA Summit 2026在曼谷举行。作为亚洲年度开源技术旗舰活动,FOSSASIA Summit 吸引着全球开源爱好者和社区的参加。OpenAtom openKylin(简称“openKylin”)作为白金赞助级别,携手麒麟软件、海光、飞腾、涛略、进迭时空等生态伙伴共同参会。
图片

精彩看点一:三场硬核演讲直击技术灵魂

大会主论坛环节,openKylin社区TOC导师、海光信息技术股份有限公司生态发展部首席工程师杨继国发表了题为《openKylin:构建AI原生操作系统架构》的主旨演讲。当前,随着计算范式从传统资源管理向智能代理时代转变,openKylin正通过全栈AI重构,引领开源操作系统的演进方向。演讲中系统阐述了openKylin 2.0的核心架构设计,重点介绍openKylin如何应对硬件碎片化与软件割裂等挑战,构建统一、开放、可扩展的技术体系。同时,面向未来,openKylin提出从“AI on OS”向“AI for OS”的转型路径,通过创新架构实现AI与操作系统的深度融合,打造面向智能时代的AI原生操作系统。
图片
在大会硬件分论坛上,openKylin技术委员会&生态委员会委员、飞腾信息技术有限公司软件技术方案部技术生态经理帅家坤发表了题为《飞腾携手openKylin:从PC到服务器的开放基础设施》的主旨演讲。他指出,随着ARM架构从数据中心向PC及AI系统拓展,软硬件的开放性与协同创新至关重要。演讲介绍了飞腾深度参与openKylin生态建设的实践成果:在PC与边缘侧,提供全面ARM平台适配支持、硬件特性深度优化及软件生态协同,助力其在笔记本、边缘AI负载等场景中实现性能释放;在服务器侧,积极推进面向ARM服务器的开放固件与管理体系。通过社区驱动的开发模式与紧密的生态协作,飞腾与openKylin的合作充分印证了从PC到服务器构建全栈贯通、开放透明ARM平台的技术可行性与战略价值。 
图片
openKylin社区技术委员会委员、麒麟软件有限公司系统研发部副经理李剑峰出席操作系统分论坛,发表题为《构建Linux原生AI子系统:架构探索与实践》的主旨演讲。演讲围绕人工智能技术快速发展背景下操作系统的演进趋势展开,指出随着大模型和多模态技术的成熟,操作系统正从传统的资源管理平台向智能化平台转型。在演讲中,他介绍了openKylin正在构建的AI子系统详细架构,系统阐述此创新架构如何通过统一推理框架、AI Runtime与AI SDK三层体系,解决当前AI生态中硬件碎片化、模型多样化以及应用调用复杂等问题,实现模型与硬件、应用与模型之间的解耦,为开发者提供简洁统一的AI能力接口。通过与社区伙伴协同创新,openKylin将持续探索多智能体系统与端侧AI模型等技术方向,推动构建开放、可扩展的AI原生操作系统生态。
图片

精彩看点二:汇聚黑客、创客与产业界,共话开放硬件的“破圈”时刻

开源技术通过促进社区、企业和国家间的协作,彻底改变了软件行业。如今,类似的变革正在硬件领域兴起。那些最初起源于黑客空间和创客社群的活动,正逐步发展为一个更为广阔的生态系统,涵盖了开放芯片架构、操作系统、行业合作伙伴关系以及全球技术平台。openKylin社区TOC导师杨继国出席大会圆桌论坛环节,围绕创客空间与社区创新的作用、开放操作系统与硬件兼容性的重要性,以及RISC-V等新架构带来的影响等话题,共同探讨开放硬件如何从草根创新起步,最终成长为支撑未来技术的全球性基石。
图片

精彩看点三:沉浸式展台体验连接全球开发者

大会期间,openKylin展台成为全场焦点之一。展台集中展示了openKylin社区与麒麟软件、海光、飞腾、涛略、进迭时空等合作伙伴在AI、桌面环境、RISC-V架构等领域的最佳实践成果。现场通过互动演示、技术讲解和案例分享,吸引了众多国际开发者驻足交流。参观者亲身体验了openKylin 2.0在AI任务处理、多端协同等方面的流畅表现,并就社区贡献、硬件适配、生态共建等话题与openKylin核心贡献者进行了深入探讨。展台还设置了趣味互动环节,向参与者赠送社区纪念品,进一步拉近了与全球开发者的距离。
图片

未完待续:以开源为帆,驶向下一个目的地

FOSSASIA Summit 2026虽已落幕,但openKylin的国际化步伐正加速迈进。此次参会不仅向全球开发者展示了中国开源社区在AI原生操作系统领域的技术实力,更通过多场深度演讲与展台互动,与来自世界各地的开发者建立了紧密联系。未来,openKylin将继续秉持“为世界提供与人工智能技术深度融合的开源操作系统”的理念,深化与全球生态伙伴的合作,推动操作系统与AI技术的深度融合,为全球开源生态注入更多创新活力。

8a40fe14c4d3f29b550e7bdc8e3bceff_202603071228214198.001.png

2026年的软件工程,正在进入一个“AI深度嵌入”的阶段。人工智能已经广泛参与需求分析、代码生成、测试构建、缺陷定位乃至上线监控。真正的变化不在于“是否使用AI”,而在于能否在AI加速下保持稳定、可靠和安全的交付能力。

行业实践越来越清晰地表明:AI提升的是产能,而工程体系决定的是质量上限。

一、AI辅助测试成为质量体系的加速器

在测试领域,AI的价值最为直观。根据公开报道,Microsoft 在其工程体系中已大规模应用AI辅助开发与测试工具,以提高代码生成与验证效率;GitHub 旗下Copilot类工具的使用率持续上升,开发效率显著提升,但官方也强调必须依赖严格代码审查与自动化测试保障质量 。

在企业级实践中,AI在测试领域的典型应用包括:

● 自动生成边界场景与异常路径

● 智能选择回归测试范围

● 分析失败日志并归纳缺陷模式

● 自动补全断言与测试桩

例如,Netflix 在工程体系中强调通过自动化与混沌测试保障分布式系统稳定性,其测试平台大量依赖智能分析与自动验证机制 。

在国内市场,部分AI测试服务商也在强化“测试智能化”。例如Testin云测近年来提出“无人测试”愿景,将自然语言驱动测试生成、图像识别自动操作等能力嵌入自动化框架中,目标是提升复杂业务场景下的回归效率。其定位更接近“质量工程基础设施”,而非单点工具。

可以看到,AI生成测试已成为趋势,但决定价值的依然是测试策略与质量标准。

二、DevSecOps常态化:安全成为工程默认项

随着开源依赖规模扩大与供应链攻击频发,安全问题成为全球企业关注重点。2024年以来,多个大型开源漏洞事件引发企业强化“安全左移”实践。Amazon 在其云工程体系中将依赖扫描、基础设施即代码(IaC)安全审查与发布策略管控嵌入持续集成流程 。这意味着未经安全基线校验的代码无法进入生产环境。

当前主流企业的安全实践通常包括:

● 依赖漏洞自动扫描

● 敏感信息泄露检测

● 容器镜像与基础设施配置审查

● 策略即代码(Policy as Code)自动校验

安全不再依赖人工“上线前检查”,而是通过自动化机制形成“硬约束”。

三、可观测性优先成为分布式系统的设计原则

随着微服务与云原生架构普及,系统复杂度大幅提升。没有高质量可观测能力,问题定位几乎不可行。Google 在其SRE(站点可靠性工程)体系中强调“可观测性优先”,即在系统设计阶段就嵌入日志、指标与追踪机制 。这一理念已被大量互联网企业采纳。

2026年的工程实践呈现出几个共识:

● 日志必须结构化、可机器解析

● 指标必须与业务语义关联

● 告警必须与用户影响挂钩

● 性能异常需要可回溯全链路

这不仅是技术问题,更是商业问题。高并发场景下,每一次停机都会直接影响收入与品牌信任度。

四、遗留系统现代化走向“渐进式改造”

大规模系统重写已被证明风险过高。行业最佳实践更倾向于分阶段改造。IBM 在企业现代化转型案例中强调“先补自动化测试,再拆分模块,再逐步云化迁移” 。这种方式可以降低迁移风险,同时保障业务连续性。

现代化改造通常遵循:

● 为旧系统补充自动化测试,建立安全网

● 通过API封装遗留模块

● 小步重构,分阶段替换核心功能

● 结合CI/CD实现灰度发布与快速回滚

这一趋势也带动测试与持续交付能力的升级需求。

五、AI成为软件工程的新型基础设施

综合来看,AI在2026年已经从“工具”升级为“工程基建”。它参与代码生成,也参与质量验证、风险识别与性能分析。

行业报告普遍指出,未来多数自动化测试流程将由AI参与驱动 。这意味着测试、监控与交付正在形成一个以AI为核心的智能闭环。在这一体系中,测试服务商的角色也发生变化——从单点执行者转向质量工程能力的构建者。无论是国际厂商还是国内企业,都在向“AI+工程体系”方向演进。

工程能力的较量,本质是可靠性的较量,2026年的软件工程竞争逻辑已经改变:

● AI提升速度

● 自动化保障稳定

● 安全与可观测性确保风险可控

● 渐进式现代化减少系统性风险

真正的核心能力不再是“写得快”,而是在AI加速条件下,依然保持高可靠性交付的能力。

未来的软件工程,将是智能化与工程纪律并行的时代。

回复涨价通知邮件(大概表明价格太高,难以承受,到期后会取消订阅之类的),大概率可以拿到 25%的折扣优惠,算下来和涨价之前的标准价差不多了,但是对于我这个赛博土耳其人来说,还是太贵了,留给有需要的人吧!
我打算转 bitwarden 或者苹果的钥匙串了,看看哪个好用

一、背景介绍

近日监测官方修复 Nginx UI 信息泄露漏洞(CVE-2026-27944),目前该漏洞 PoC 和技术细节已公开。鉴于该漏洞影响较大,建议尽快做好自查及防护。

1.1 漏洞描述

Nginx UI 是一款基于 Web 的图形化管理工具,旨在简化 Nginx 服务器的配置、管理和监控。该漏洞源于/api/backup 端点无需身份验证即可访问,并在 X-BackupSecurity 响应头中泄露了解密备份所需的加密密钥。攻击者能够下载服务器敏感数据(用户凭据、会话令牌、SSL 私钥、Nginx 配置)的完整系统备份并解密。

1.2 漏洞编号

CVE-2026-27944

1.3 漏洞等级

高危

二、修复建议

2.1 受影响的版本

Nginx UI < 2.3.3 2.2 修复建议 官方已发布安全补丁,请及时更新至最新版本:Nginx UI >= 2.3.3

下载地址: https://github.com/0xJacky/nginx-ui/releases/

微信有很多的不方便的操作,例如今天要解决的是:微信不会自动下载图片但图片确会失效,这就导致你过些时间搜索聊天记录想查看某个图片,点开一看显示图片过期或已被清理,因为当时没有自动下载图片,到了时间就无法下载了(好像是白天会自动下载,下午6点之后就不会)。

设置里只有一个针对文件的选项,而且最大只支持下载1024M的文件:

我还看到一些流传的偏方:先修改系统时间到图片发送的时间附近,然后再点击图片就能打开,不知道最近这个方法有没有失效。如果这个方法能实现的话,说明微信服务器在图片显示失效后并没有删除图片,只是不让你下载了。

要解决这个痛点目前只能是将所有收到的图片都自动下载到本地,不过这也引发了另一个问题:群聊太多导致微信文件夹占用大量的磁盘空间。那么还需要有个设置能配置哪些群聊的图片自动下载,毕竟大部门群聊都是吹水群,没有下载的必要。

清理存储空间

最新的微信可以清理某个群聊或者私聊中的图片、视频和文件,在设置->账号与存储->存储空间->聊天数据 管理

还能查看每个聊天中图片视频文件占用的空间,你也可以保留图片只清理其中的视频和文件,这个功能还是不错的。

使用教程

实现原理

通过RPA来实现自动下载图片几乎不可能,因为需要频繁的切换聊天界面,如果群聊多的话鼠标都忙不过来。使用hook的话就会简单的多,当监听到图片消息时,就调用下载图片的函数来下载。项目地址:https://github.com/kanadeblisst00/pywxrobot4

当然,hook也有很多缺点:

  1. 只能支持某个版本,更新了就无法使用
  2. 技术比较容易触发风控导致封号
  3. 需要一直挂着微信监听消息,掉线期间的图片无法下载

那有没有方法能不遗漏账号掉线时的图片消息吗?有的,不去监听消息而是去读本地数据库来遍历所有图片消息,然后调用下载函数,只要图片还在有效期内就能下载,这样你甚至可以一天登一次下载当天的图片。如果大家有这个需求的话,后面再实现吧。

配置需要下载的群聊

打开界面会显示所有的群聊,你可以通过名称搜索想要的群聊,点击保存资源类型一栏,会弹出一个多选列表,勾选你需要下载的类型。其实缩略图默认会自动下载,下个版本把这个选项去掉。

配置好友需要下载的资源类型

点击菜单栏里的功能->功能设置会弹出一个多选列表,这是针对所有好友的设置。其实好友可以通过标签来分类,有需要再加吧。

配置完成后不需要重启就能生效,接下来再也不用担心你的图片找不到了。

图片导出

其实这样还是不方便保存某个群聊的所有图片,因为图片都是加密的,要是有个导出功能就好了。

最近几天,人人都化身为养殖大户,在讨论养龙虾。不是吃的龙虾,而是而是一款名为OpenClaw的开源AI智能体。腾讯在深圳总部楼下推出免费安装活动,甚至惊动了马化腾。

虽然但是,养龙虾也是有一定风险的。根据工信部网络安全威胁和漏洞信息共享平台的风险提示,OpenClaw在默认配置下存在极高的安全隐患。由于其“信任边界模糊”,具备自主决策并调用系统资源的能力,在缺乏权限控制的情况下,极易被恶意指令接管。

Meta的研究员Summer Yue 就遇到了龙虾瞎干活的情况。她指示OpenClaw整理邮箱,尽管设置了安全词限制,程序却突然失控开始批量删除邮件,最终只能靠强行关机才保住数据。此外,由于许多用户暴露了默认的18789端口且未设防,导致设备被入侵用于挖矿。

image.png

为了寻找更轻量、更安全的方案,开发者社区涌现出了多个各具特色的项目。这些项目在保持核心能力的同时,通过不同的技术栈解决了OpenClaw的痛点。

NanoClaw:物理隔离的极简主义

image.png

NanoClaw的设计初衷是解决代码膨胀带来的审计难题。不同于OpenClaw动辄数十万行的代码量,NanoClaw的核心只有约500行TypeScript代码。

它放弃了复杂的权限检查,转而采用彻底的物理隔离。每个智能体都在独立的Docker容器或macOS的Apple Container中运行,只能访问被明确挂载的目录。

也就是说,就算AI听不懂人话了,其破坏力也被限制在沙箱内,无法触及宿主机的核心系统。

部署与环境要求

NanoClaw运行在Node.js 20+ 的环境,所以可以利用 ServBay 快速配置Node.js

  1. ServBay中下载好Node.js 20+环境。

image.png

  1. 克隆代码并进入目录:
git clone https://github.com/qwibitai/nanoclaw.git
cd nanoclaw
  1. 执行初始化引导:
npm run setup
  1. 所有的通信通道(如Telegram、Discord)均作为可选插件,按需添加,保持系统轻量。

Nanobot:学术背景的研究框架

image.png

Nanobot源自香港大学数据智能实验室,其代码量约为4000行Python代码。它最厉害的就是模块化架构,非常适合需要深度定制或进行AI研究的人群。

它支持MCP(模型上下文协议),能够连接各种外部工具。同时,它具备完善的记忆系统,通过混合搜索技术实现长短时记忆。Nanobot非常注重隐私,支持对接vLLM等本地模型推理框架。

部署与环境要求

Nanobot需要 Python 3.10+环境以及 PostgreSQL 数据库,都可以通过 ServBay 来安装。

  1. 通过 ServBay 部署 Python 环境并启动PostgreSQL服务。

image.png
image.png

  1. 通过包管理器安装:
pip install nanobot-ai
  1. 运行配置向导:
nanobot onboard
  1. 修改配置文件 ~/.nanobot/config.json,填入相应的API Key。

image.png

PicoClaw:极致的硬件适配

image.png

国产之光的 PicoClaw 是由Sipeed团队推出的,基于Go语言。它最大的优势是极其高效的资源利用率,运行时内存占用不到10MB,足以在树莓派甚至一些廉价的RISC-V开发板上稳定运行。

PicoClaw的启动速度很快,在低功耗硬件上也能实现秒级响应。它将所有的依赖打包进一个单一的二进制文件中,不需要在宿主机上安装复杂的运行时库。此外,它原生支持飞书、钉钉等国内常用的办公软件。

部署方式

  1. 下载对应架构的预编译文件:
wget https://github.com/sipeed/picoclaw/releases/latest/download/picoclaw-linux-amd64
chmod +x picoclaw-linux-amd64
  1. 执行初始化:
./picoclaw-linux-amd64 onboard
  1. 启动网关服务:
./picoclaw-linux-amd64 gateway

image.png

IronClaw:防御深度的Rust重构

image.png

IronClaw是采用Rust语言重写的版本,重点在于零信任安全架构。

它将所有工具运行在WebAssembly(WASM)沙箱中。工具代码默认没有任何权限,所有的网络访问、密钥调用都必须经过明确授权。IronClaw还内置了泄露检测功能,会自动扫描AI的输出内容,防止API密钥或个人敏感信息通过对话泄露。

部署与环境要求

需要Rust编译环境和PostgreSQL数据库(需安装pgvector扩展)。这些环境均可通过ServBay一键开启。

  1. 在 ServBay 中下载Rust 环境,及 PostgreSQL 中创建数据库并开启向量插件。

image.png

  1. 克隆并编译项目:
cargo build --release
  1. 运行引导程序:
./target/release/ironclaw onboard

ZeroClaw:灵活的Trait驱动框架

image.png

ZeroClaw旨在提供一个可插拔的智能体基础设施。它把模型提供者、存储后端、通信通道全部抽象化,用户可以根据需求自由组合。

ZeroClaw遵循严格的安全规范,支持AIEOS身份标准。它可以很好地与本地推理服务器(如llama.cpp或Ollama)对接。

部署与环境要求

ZeroClaw同样基于Rust开发,支持通过脚本快速安装。

  1. 使用官方安装脚本:
curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/install.sh | bash
  1. 运行交互式设置:
zeroclaw onboard --interactive
  1. 启动守护服务:
zeroclaw daemon

image.png

总结

如果追求代码的透明,NanoClaw是不错的选择;如果需要严谨的研究框架,Nanobot就可以实现;而在硬件资源有限或追求极致安全的情况下,PicoClaw和IronClaw则提供了更优的解法。

正点原子T5 AI小系统板,解锁AI硬件原型搭建新速度!

对于嵌入式开发者、AI爱好者而言,一款高性能、高便捷性的开发板,是将创意快速落地的关键。T5M小系统板,以T5-E1模组为核心,兼具强悍性能与小巧身形,轻松打破开发壁垒,让AI硬件原型搭建更高效、更省心!

一、480MHz 旗舰内核,拉满 AI 计算性能

作为正点原子精心打磨的新品,T5 AI小系统板的核心竞争力,始于一颗强悍的“心脏” — T5-E1模组。将主频拉满至480MHz,ARM处理器性能大大提升,为复杂AI算法、高速数据处理提供充足动力,轻松应对AI计算场景需求。

二、存储 + 互联双满配,无线开发零门槛

性能之外,存储与互联能力同样拉满。模组内置 8MB FLASH 与 16MB PSRAM,充足的存储空间可轻松承载程序代码、数据缓存,无需额外外扩存储,大幅简化开发流程;同时原生支持 WIFI 与蓝牙双模通信,无需额外搭配模块,即可实现设备互联、数据传输,完美适配物联网、智能交互等多场景开发需求,让无线开发更便捷。

三、全接口一站式配齐,开箱即启开发之旅

便捷开发,从丰富接口开始。正点原子T5 AI小系统板板载多种实用接口,一站式满足开发者多样化需求:RGBLCD 接口可直接连接显示屏幕,轻松实现图像显示、界面交互;CAMERA 接口支持接入摄像头,适配视觉识别、图像采集类开发;TF 卡接口方便扩展存储,灵活存储大量数据、日志;扬声器接口则可直接驱动扬声器,实现语音播放、音频交互等功能,无需额外焊接外设,开箱即能上手开发。

四、掌心大小巧设计,面包板直插秒搭原型

小巧身形,暗藏大能量。不同于传统开发板的笨重,正点原子T5 AI小系统板采用紧凑设计,尺寸仅为 68mm*33mm,小巧精致,便于携带与嵌入式安装,无论是桌面开发、户外测试,还是嵌入小型设备,都能轻松适配。更贴心的是,板子设计有 50 引脚排针,可直接插入面包板使用,无需复杂接线,帮助开发者快速搭建 AI 硬件原型,大幅缩短开发周期,让创意快速从想法落地为实物。

五、全场景适配,开发者的高效创新利器

如今,边缘AI、物联网领域飞速发展,开发者对开发板的性能、便捷性要求越来越高。正点原子T5 AI小系统板依托强悍的性能、丰富的接口配置以及小巧便捷的设计,完美适配 AI 硬件原型搭建、嵌入式开发、物联网项目调试等多种场景,无论是资深开发者的高效开发工具,还是新手入门的实操载体,都是不二之选。

正点原子T5 AI小系统板兼顾性能与便捷,既是对 “高效开发” 理念的极致诠释,也是助力开发者创新落地的有力支撑。

解锁 AI 硬件开发新体验,从此告别繁琐接线、性能不足的困扰,让每一个创意都能快速落地!

一个关于 AI 记忆可移植性的思考,以及一个极简开放标准的提案。


从一个烦人的场景说起

你花了三个月教 ChatGPT 了解你:

  • 你是前端工程师,用 React 和 TypeScript
  • 你喜欢简洁直接的回复,讨厌废话
  • 你写代码注释用中文,变量名用英文
  • 你习惯先出方案再动手

ChatGPT 确实越来越懂你了。直到有一天,你决定试试 Claude 。

打开 Claude 的对话框,一片空白。它不知道你是谁,不知道你喜欢什么,也不知道你的任何习惯。你不得不再教一遍。

换到 Gemini ?再来一遍。用本地模型?再来一遍。

你的 AI 记忆,今天基本是平台私产,而不是你的资产。


这不是功能缺失,而是结构性问题

你可能会觉得,这不就是各家 AI 产品迟早都会补上的能力吗?

不完全是。

问题不在于厂商有没有能力做记忆,而在于它们没有动力把记忆做成可携带的。

  • OpenAI 没有动力让 ChatGPT 的记忆被 Claude 直接利用
  • Google 没有动力让 Gemini 的用户画像迁移到别处
  • 每个平台都天然倾向于把“越来越懂你”变成自己的护城河

所以,真正缺的不是“某一家的记忆功能”,而是一个用户侧、平台外的可移植标准。


MIP 的想法很简单

我做了一个很小的提案,叫 MIP ,Memory Interoperability Protocol 。

它的核心可以用一句话说完:

在你的电脑上维护一个 ~/.mip/memory.json,任何 AI 工具都可以读取它来了解你。

没有守护进程,没有数据库,没有远程服务。

就一个文件。

例如:

{
  "version": "0.1.0",
  "identity": {
    "name": "张三",
    "language": "zh-CN",
    "role": "前端工程师",
    "tech_stack": ["React", "TypeScript", "Next.js"]
  },
  "preferences": {
    "response_style": "concise",
    "formality": "casual",
    "code_comments_language": "zh-CN",
    "variable_names_language": "en"
  },
  "custom": {
    "编辑器": "VS Code",
    "关注领域": ["AI 应用开发", "Web3"]
  }
}

任何 AI 产品要接入它,读取成本只有几行代码:

import json, pathlib
path = pathlib.Path.home() / ".mip" / "memory.json"
memory = json.loads(path.read_text()) if path.exists() else {}

这不是“让 AI 拥有完整人格档案”的终局方案。

MIP v0.1 只想先解决一个很具体的问题:把显式的用户偏好,从平台私有数据,变成用户自己持有的标准化数据。


它和 .cursorrulesCLAUDE.md 有什么不同?

这是最常见的问题。

确实,今天已经有很多本地规则文件:

  • Cursor 有 .cursorrules
  • Claude Code 有 CLAUDE.md
  • 其他工具也有各自的全局规则、偏好文件

这些文件当然有价值,而且本质上都在帮助 AI 了解你。

但它们有两个问题:

第一,它们是工具私有约定,不是跨工具约定。

第二,它们更像“用户写给某个工具的操作手册”,而不是一个所有工具都能稳定读取的通用用户记忆格式。

MIP 在 v0.1 阶段做的事其实很克制:

  • 统一路径:~/.mip/memory.json
  • 统一格式:JSON Schema
  • 统一范围:身份、偏好、自定义字段

所以如果一定要类比,我更愿意把它叫做:

.editorconfig for AI memory

没有什么魔法,只是定义一个所有工具都可以认同的最小公约数。


为什么不是直接用 Mem0 、MemGPT 、Letta ?

因为它们和 MIP 解决的是不同层的问题。

  • Mem0 、Letta 、各种长期记忆框架,是实现
  • MIP 想做的是协议

它们可以完全兼容,甚至应该兼容。

如果未来某个记忆系统愿意把用户偏好导出成 MIP ,或者把 MIP 作为导入导出格式,那恰恰说明这个协议是有价值的。

协议层的意义,不在于替代实现,而在于让不同实现之间开始有可交换的数据格式。

HTTP 不等于 Nginx ,.editorconfig 也不等于 VS Code 。

MIP 想做的是那个更靠底层的“共同语言”。


MIP 和 MCP 的关系

如果你知道 MCP ,那可以用一句话理解它们的关系:

  • MCP 解决的是:AI 能调用什么工具
  • MIP 解决的是:AI 了解谁

一个偏工具接入,一个偏用户记忆。

它们不是竞争关系,而是互补关系。

MIP 完全可以脱离 MCP 独立存在,因为读本地文件本身就够简单。

但对于支持 MCP 的客户端,MIP 也可以通过 MCP server 暴露出来,这样工具接入会更方便。我在仓库里已经放了一个概念验证版本。


这是不是伪需求?

如果只看 2026 年,当下它确实不是最刚性的需求。

很多时候,你自己写一段系统提示词,也能解决 80% 的问题。

但我认为这是一个典型的“现在弱需求,未来强需求”的方向。

因为 AI 记住你的,不会永远只是:

  • 你喜欢简洁回复
  • 你用 TypeScript
  • 你写注释用中文

再往后,AI 会逐渐理解:

  • 你最近在忙什么项目
  • 你做决策的方式是什么
  • 你在哪些领域需要更多解释
  • 你过去几个月的工作脉络是什么

到那个阶段,所谓“换一个 AI 平台”,丢失的不再是一些偏好,而是一个系统对你的长期理解。

那时候,“记忆可携带”更像一种基础数据权利,而不是可有可无的小功能。

好的标准,往往是在需求全面爆发之前建立的。


先别把愿景讲得太大

这也是我刻意想收住的一点。

MIP v0.1 不是在宣称:

  • 已经解决了 AI 长期记忆
  • 已经解决了自动画像
  • 已经解决了权限、安全、同步

恰恰相反,v0.1 是有意做小的。

它只处理显式的、用户愿意手写的那部分记忆:

  • 我是谁
  • 我偏好什么
  • 我希望 AI 怎么和我协作

先把最容易共识、最容易落地、最容易被工具采纳的那一层定下来。

如果连这层都没有,后面的自动写入、权限控制、跨设备同步都无从谈起。


真正可能先采用它的是谁?

MIP 不是在等大厂突然良心发现。

它最可能先被下面几类东西采用:

  • IDE 里的 AI Agent
  • 本地代码助手
  • 开源 AI 客户端
  • MCP 客户端
  • 本地模型工作流

因为这些工具本来就运行在你的机器上,读取本地文件的成本极低,也更有动力支持开放标准。

所以 MIP 的现实路径不是“先说服 OpenAI 和 Google”。

而是:

先让开源工具和本地工具支持,先形成一个用户侧事实标准。


安全问题不能后补

把用户画像存在本地,当然会有安全问题。

所以我对 MIP 的态度是分层推进,而不是一步到位。

v0.1 只建议存储低敏感、显式、用户手写的结构化偏好。它更接近 .gitconfig.editorconfig,而不是心理档案。

更深层的画像、自动写入、加密、权限控制,应该等后续版本在模型和机制上都更成熟之后再进入标准。

如果没有安全设计,MIP 不应该贸然走向“自动累积人格画像”。


我为什么还想把它提出来?

因为没有标准的领域,用户连选择都没有。

MIP 现在当然还很早。它更像一个种子,而不是已经成为行业标准的东西。

但我觉得这个问题值得先被提出来:

如果 AI 越来越懂你,那么“它对你的记忆”到底应该属于平台,还是属于你?

我的答案是:至少应该存在一种属于用户自己的开放格式。

MIP 不一定是最终答案。

但如果没有人先把这个问题做成一个可讨论、可实现、可集成的最小提案,那么答案永远不会出现。


现在你可以做什么

  1. 给自己建一个 ~/.mip/memory.json
  2. 如果你在做 AI 工具,试着加一个 MIP read support
  3. 如果你觉得这个方向值得讨论,给仓库一个 star 或提个 issue
  4. 如果你觉得它是伪需求,欢迎直接挑战

仓库地址:

https://github.com/UnCooe/MIP


MCP 让 AI 的“手”更标准化,MIP 想讨论的是 AI 的“脑”里那部分用户记忆,是否也该有一个用户侧、开放的最小标准。

这件事未必立刻爆发,但我认为值得现在就开始做。