2026年2月

引言:从原型成功到长期失速

在智能体加速落地的过程中,一个反复出现的现象是: Demo 越来越容易做,真正跑得久、跑得稳的系统却越来越少。

当智能体从“回答问题”转向“执行任务”,其失败不再是单点错误,而往往表现为长期退化、能力漂移与不可控风险累积。 这类问题通常并非技术路线错误,而是成本认知结构本身出现偏差

一、成本模型正在失效

在传统软件工程中,成本常被拆解为“开发成本 + 运维成本”。 但在智能体系统中,这一模型已无法覆盖真实支出。

真正被低估的,是确定性治理成本。

它并不体现在 Token 消耗上,而体现在:

  • 为减少不稳定输出所持续投入的人力
  • 为对齐业务认知而反复调整的策略设计
  • 为防止能力退化而建立的长期评估机制

当项目规模扩大,这类成本往往呈现指数级叠加

二、最容易被忽视的三类长期成本

1. 数据与知识的“持续失真成本”

智能体依赖检索增强或长上下文获取领域知识,但现实中的知识并非静态资产。

  • 知识冲突成本新旧制度、历史文档与即时规则并存,极易导致同一问题多版本答案并行存在。
  • 语料结构化成本将原始业务资料转化为“模型可稳定理解的知识形态”,其投入远高于一次性文档整理。

随着时间推移,知识库的复杂度自然上升,若缺乏治理机制,智能体输出的可信度会持续下降。

2. 推理逻辑的脆弱性与回归成本

在智能体系统中,一次小改动往往引发系统性影响

  • 修复某个场景的提示逻辑,可能导致其他场景能力退化
  • 工具链路拉长后,失败原因难以快速定位
  • 单点异常可能被模型“合理化掩盖”,而非显式报错

因此,智能体必须配套:

  • 场景化基准集
  • 稳定的能力回归评估
  • 对失败路径的长期记录与分析

否则,系统只会在“看似可用”中逐步失控。

3. 环境与工具演进带来的隐性消耗

智能体并非封闭系统,其能力高度依赖外部环境。

  • API 升级、权限策略变化,会直接导致执行失败
  • 不同模型之间的策略差异,可能迫使逻辑层整体重构
  • 合规或成本压力下的模型切换,往往并非“参数替换”那么简单

如果底层架构未做解耦,一次外部变化就可能引发系统级返工

三、面向长期运行的实践策略

1. 将“反馈闭环”作为核心资产

智能体真正的价值,不在于最初的提示设计,而在于运行过程中沉淀的数据。

  • 持续记录决策路径与失败样本
  • 利用人工介入节点形成高质量修正数据
  • 通过真实场景反向驱动策略优化

这是少数能随时间提升系统稳定性的机制

2. 以模块化对抗不确定性

与其不断扩展单一智能体,不如主动拆解复杂性。

  • 将任务分解为可评估、可替换的子模块
  • 在模型层与业务层之间建立稳定抽象
  • 降低模型升级、策略调整带来的系统震荡

这类设计不会让系统更“聪明”,但会让它更可控

结语:长期主义下的智能体价值

从长期视角看,智能体并非一次性技术交付,而是一种持续演化的系统能力。 其核心挑战,不在模型强度,而在治理深度。

当行业普遍经历从试验到规模化的阶段转换,智能体来了,真正的分水岭也随之出现: 能否为不确定性本身,提前预留成本与结构。

人活着的意义在哪里?
小时候总在想一个问题,人死了之后会怎么样?长大后才知道身死道消的道理。
这些年忙忙碌碌,算是一事无成吧。中途也经历了非至亲的死亡,那时候对死亡没有深刻的思考,甚至对于死亡思考的还没有小时候多。现在面对至亲得了极凶险的癌症后,看着她化疗后一点点消瘦,脸色变得越来越差,头发也剃光了,以至现在无法进食,但是自己却无能为力,不知道该做些什么。甚至对死亡有了一丝畏惧,回想想想幼时的想法,人死了之后会怎样?好像这些思考也没有任何意义。现在唯一能做的是多陪伴,活好当下。当自己面对这一天时,能否坦然接受呢?只有时间能给我答案了。

关于宁波大学附属妇女儿童医院患儿(小洛熙)术后离世医疗事件,官方调查组已于今日(2026 年 2 月 5 日)发布了最终的 调查处置情况通报

事件被正式判定为一级甲等医疗事故,院方承担主要责任,且主刀医师已被吊销执业证书,公安机关已立案侦查。

在知道小洛熙事件后就持续关注,还在 V 站陆续发了好几次帖子。中间有些人的发言真是很难理解,现在通报出来了估计那些人还是一样嘴硬。

但也没有意义,小洛熙的生命是真的被庸医耽误了,那些冷血的看客有什么重要的,想到她还是感觉非常悲伤。

AI 越来越厉害,用起来也越来越方便。但用时一时爽,账单火葬场。上下文缓存、自动重试机制以及复杂的推理链条,每一个环节都在消耗大量的 Token。
我这个小机灵鬼,找了一些开源的 AI 工具,自己掌控、零边际成本,选择那么多,没必要死磕 OpenAI 和Anthropic。

image.png

现有的开源生态已经足够成熟,完全可以替代付费 API 覆盖推理、RAG、编排、评估以及多模态处理的全流程。以下是 10 款能够构建生产级 Agent 的开源工具,它们可以帮助开发者在本地或私有云服务器上搭建起完整的 AI 管道,各个都是过万星🌟。

vLLM

image.png

如果说 Ollama 适合开发者在笔记本上尝鲜,vLLM 就是为生产环境的高并发而生的。它的核心技术是 PagedAttention,一种受操作系统虚拟内存启发的显存管理算法。vLLM 能够极大地减少显存碎片,从而在相同的硬件上通过更大的 Batch Size(批处理大小)。

对于需要部署 Qwen2.5 或 Llama 3 等大模型的场景,vLLM 的吞吐量通常比 HuggingFace 的标准库高出数倍。它支持连续批处理(Continuous Batching),这意味着当一个请求处理完毕,系统无需等待整个批次完成即可立即插入新请求,极大地降低了服务延迟。

Ollama

image.png

Ollama 解决了模型部署难的问题。它将模型权重、配置和提示词模板打包成一个 Modelfile,大模型运行起来也很简单。它对量化模型(GGUF 格式)的支持极佳,使得在非专业级显卡甚至纯 CPU 环境下运行 7B 或 14B 参数的模型成为可能。

ServBay 目前也已支持了一键安装 Ollama,就不用管命令行依赖和配置环境变量,直接在 ServBay 的管理界面中即可完成 Ollama 的部署与服务启动。配合其提供的兼容 OpenAI 格式的 API,对于不需要极高并发的中小型内部工具,使用“ServBay + Ollama”作为后端推理引擎是一个极低维护成本的选择。

image.png

LiteLLM

image.png

LiteLLM 本身不运行模型,它是一个通用的 I/O 库和代理服务器。当系统后台既有 OpenAI 的 API,又有本地部署的 vLLM,甚至还有 Azure 的端点时,代码维护就够开发者吃一壶的。

而LiteLLM 提供了一个统一的接口,只需要按照 OpenAI 的格式发送请求,它负责在后台将请求路由到 Ollama、vLLM 或其他 100 多种支持的后端。它还自带了负载均衡、不仅可以做故障转移(Fallback),还能记录每一笔调用的成本和耗时,是构建混合云架构的粘合剂。

CrewAI

image.png

目前的 Agent 框架很多,但 CrewAI 的特点是角色扮演(Role-Playing)。它不只是让模型执行任务,而是让开发者定义“角色”、“目标”和“背景故事”。

比如,可以定义一个“高级研究员”Agent 负责搜索信息,再定义一个“技术作家”Agent 负责整理成文。CrewAI 会自动管理这些 Agent 之间的对话和任务委派。它的底层基于 LangChain,但封装了复杂的流程控制,非常适合构建需要多步骤推理的复杂工作流。

Continue.dev

image.png

这是 VS Code 和 JetBrains IDE 的开源插件,旨在替代 GitHub Copilot。它的优势特点是完全离线模型无关性。开发者可以将它连接到本地运行的 Ollama 或 vLLM,使用 DeepSeek-Coder 或 CodeLlama 等模型进行代码补全和重构。

对于企业来说,企业的核心代码库不需要上传到云端,杜绝了代码泄露的风险。它支持通过 @ 符号引用代码库中的文件作为上下文,让本地模型也能理解整个项目的结构。

Qdrant

image.png

Qdrant 是一个用 Rust 编写的高性能向量数据库。与传统的数据库不同,它专为存储和搜索高维向量而设计。在 Agent 系统中,它充当长期记忆的存储介质。

Qdrant 的特点是支持过滤搜索(HNSW + 过滤) ,允许开发者在进行语义搜索的同时,加上类似 SQL 的 WHERE 条件(例如:仅搜索“2025年”且“状态为已发布”的文档)。这对于生产环境下的精准检索至关重要。

AnythingLLM

image.png

如果不想从头写代码搭建 RAG 管道,AnythingLLM 是目前最完善的开箱即用的工具。它是一个全栈桌面应用(也有 Docker 版本),集成了向量数据库、嵌入模型和 LLM 接口。

用户只需将 PDF、Markdown 或网页链接拖入界面,它就会自动完成分块(Chunking)和向量化。它甚至支持多用户权限管理,非常适合快速为团队搭建一个内部知识库问答系统。

Promptfoo

image.png

在修改了 Prompt 或更换了模型后,如何确定系统的回答质量没有下降?依靠人工测试不仅慢而且不准确。

Promptfoo 是一个专注于 LLM 输出评估的 CLI 工具。开发者可以用它来编写测试用例(类似于单元测试),批量运行不同的 Prompt 和模型组合,并自动评分。它可以检测输出是否包含特定关键词、JSON 格式是否正确,甚至可以用另一个 LLM 来给输出打分。这是将 Agent 推向生产环境前的质检员。

Diffusers

image.png

在图像生成领域,Hugging Face 的 Diffusers 库是事实上的标准。它提供了对 Stable Diffusion、Flux 等扩散模型的底层控制能力。

不同于 WebUI 的图形界面,Diffusers 让开发者可以通过 Python 代码精细控制生成过程的每一步,例如添加 ControlNet 进行姿态控制,或者使用 LoRA 微调风格。如果你的 Agent 需要生成图片,这是最灵活的底层库。

Transformer.js

image.png

并非所有的 AI 任务都需要庞大的 Python 后端。Transformer.js 将 Hugging Face 的 transformers 库移植到了 JavaScript 环境中,支持通过 ONNX Runtime 在浏览器或 Node.js 中直接运行模型。

对于一些轻量级任务,如文本分类、关键词提取甚至小型的语音识别(Whisper),可以直接在客户端完成,无需将数据发送回服务器,极大地降低了延迟和服务器成本。

Python 和 Node.js 管理

上述工具展示了开源 AI 栈的强大,但也有个问题,大部分的AI栈是深度依赖 Python 生态,比如vLLM、CrewAI 等,也有一部分要 Node.js 环境,比如 Transformer.js。

这时候可以用 ServBay 来统一管理开发环境。它一个集成的开发环境管理工具,它原本是为 Web 开发者设计,但其沙盒化的环境管理机制完美契合了 AI 开发的需求。

image.png

  • 一键安装与版本共存:ServBay 允许你在同一台机器上同时安装并运行多个版本的 Python 和 Node.js。你可以为 vLLM 分配 Python 3.10,同时为 CrewAI 分配 Python 3.12,互不干扰。
  • Node.js 管理:对于需要 Node.js 的工具(如 Transformer.js 或前端界面),ServBay 同样支持多版本快速切换,无需配置复杂的 nvm。
  • 纯净与隔离:ServBay 的所有环境都独立于操作系统,不会污染 macOS 的系统库,这对于经常需要安装各种 pip 包的 AI 开发来说,保证了系统的长期稳定性。

这样开发者就可以安装不同的AI栈,又不用担心系统环境会被污染。

结语

从云端租赁算力回归到本地掌控数据,这不仅是出于成本的考量,更是技术自主的体现。现在,我们拥有了推理引擎、编排框架、记忆存储以及评估工具。

不过,你不要以为开源并就是简陋、缺乏保障。很多工具比如如 Qdrant、CrewAI、LiteLLM 以及 Continue.dev,除了免费的开源版本外,均提供了针对企业的商业化托管服务或高级支持功能(如 SSO 登录、审计日志、SLA 保障等)。

用了这些工具,妈妈再也不用担心我的Token了。

最近总有人说上 V 站的“都是”违法的。

那我就想说了,我把浏览的 dns 设置为https://77.88.8.8/dns-query,然后就正常登录访问,请问有什么问题吗?

感觉以后限制会越来越严,先说出来,等以后用不了,拉倒。

备注:77.88.8.8 是俄罗斯搜索引擎 Yandex 公司的公共 dns 服务。

我始终认为当前的工作是为下一次面试做准备

那么在 AI 时代,如果对面试官表达,我会用 AI 做 xxxx ,有说服力吗

先接了一个湖北移动 197 号段的电话,问我是不是 XX 公司的。因为 7 年前工作过,所以我说了一下之后就挂掉了。

过了一个小时,10086 来电,自称移动公司反诈中心,问我是否刚才接听了 XXXX 来电,是否认识对方。因为我是移动客户,10086 来电就很奇怪,我没理对方就直接挂断了。

不过后来越想越奇怪,于是致电自己运营商客服 10010 ,问到了:
运营商确实有机制,对自己号段内呼出的可疑电话,运营商反诈中心会再致电对方去提醒。也就是,刚才那个 10086 给我打电话,问我是否认识那个 197 号码,在他们行业的工作流程里确实是说得过去的

又过了一个小时,查询自己的通话详单,上述三个呼叫全都是“高清”通话,也就说明应该不是假基站上的通信。

据此梳理:
某个新手 sales 从同样 sb 的前辈手里接过流传了不知道多少手的潜在客户资料,开始批量打 cold call 。他归属的运营商看他不顺眼,于是给被叫方打电话核实。被叫方很警惕,挂断了然后自行想办法核实

2025 年,Apple 在硬件领域的基调是稳健迭代,兼有新方向的试探。Vision Pro 迎来升级,虽然改善了佩戴舒适度与性能,但仍徘徊在大众市场的门槛之外。M5 架构陆续应用到 Mac 与 iPad,进一步巩固了 Apple Silicon 的地位。标准版 iPhone 17 终于标配高刷屏幕,成为年度口碑之选;iPhone Air 虽以极致轻薄的工业设计博得眼球,市场却普遍踟蹰于镜头与续航上的妥协。Apple Watch、AirPods 也获得了温和但不失吸引力的更新。

在软件与生态层面,2025 年是 Apple 充满争议与挑战的一年。iOS 26 带来的「液态玻璃」设计语言引发了激烈的审美辩论,对其追求拟物与光影的评价两极分化。AI 赛道上,Siri 的进化幅度未能满足用户的高期待,Apple Intelligence 服务仍未实现在中国市场的落地。全球监管压力也正不断冲击着 App Store 的既有模式。尽管如此,服务生态依旧是 Apple 的「定海神针」,服务营收再创新高,证明了其依然拥有强大的用户粘性。

那么,少数派的朋友们都会怎样评价 Apple 的 2025 年呢?今年,我们连续第五年推出「大家给 Apple 的成绩单」策划,邀请到更多嘉宾,也结合时事热点对评分类目、问题设置做了更新,希望能够为大家呈现一份既反映共识、又体现个性的点评。在专题页中,你可以通过每个部分新增的「官方资讯」功能回顾相应主题的新闻事件,还可以在页面底部填写一份自己心目中的「成绩单」,然后和少数派嘉宾们的结果一起分享出去。期待看到你的观点。

iPhone

  • 平均分 4.25,相比去年 +0.92
  • 中位数 4.00,相比去年 +1

年度事件

评语摘录

  • 宛潼:今年的 iPhone 给了我一种 Apple 终于卸下了包袱的感觉。要全能有 Pro,要堪用选数字,要特立独行就 Air。
  • 居然 sir:iPhone Air 是个迷人的「偏科生」,而 Pro 系列则是稳扎稳打的「六边形战士」。
  • 柯里昂:这是第一次标准版让我如此有购买欲,并且也有预感它会成为某种新的「钉子户」。

观点概览

产品线规划清晰、覆盖面广是今年获好评的亮点。例如,宛潼评价道,「大部分机型的日常体验都在一条线上,终于没有什么让人下不去手的遗憾了。」所长 bibabo 也认为「今年 iPhone 体系更清晰、体验更聚焦」。iPhone 17 标准版尤其因诚意十足的升级备受好评。例如,Vanilla 说「给 iPhone 17 标准版非常诚意的升级,这也直接拉动了今年标准版的销量」;ElijahLee 也认为其「对标 Pro 升级很有吸引力」。

对于全新推出的 iPhone Air,评价两极分化。例如,Kostya 认为它是「新时代的启幕」,photosoft 称其带来了「近年来最大的设计革新」;但 JJ Ying 却感到「江郎才尽」,认为其「看着很薄但其实很尴尬」。

Pro 系列的性能继续获得认可,但存在关于材质与影像能力的批评。例如,王波粒指出「Pro 系列为了极致散热从钛合金换到铝合金,有些可惜」;常岩 CY 则提到,考虑到「AI 入华以及影像性能大幅落后安卓同行的问题,我们只能说是未来可期。」

快问快答

关于 iPhone Air 代表的一类设计思路,即优先追求极致轻薄、但在电池续航和相机配置上做出明显妥协,以下最接近你看法的是

  • 可以接受,我非常看重手感和轻薄,即便续航和画质差一些也无所谓(15 人选择,41.67%)
  • 勉强可以接受,但希望后续型号不要再以明显牺牲电池和相机为代价(12 人选择,33.33%)
  • 不能接受,我更在意续航和影像表现,不会为了轻薄买单(9 人选择,25%)

iPad

  • 平均分 3.36,相比去年  -0.31
  • 中位数 3.00,相比去年  -1

年度事件

评语摘录

  • JJ Ying:如果我是 Apple 的运营,我就邀请罗永浩老师的《十字街头》来采访 iPad 一期。这个标题太合适这个阶段的 iPad 了,到底是 Pad 还是电脑?接下来怎么走?
  • Rio:今年是 iPad 硬件「小年」,但也是 iPadOS 软件「大年」:虽然尚不成熟且有各种 bug,但 iPadOS 26 的全新多任务模式,让十年苦等 iPad Pro 能堪大用的我终于看到了一丝曙光。
  • Vanilla:我认为「你的下一台电脑,何必是电脑」战略其实是失败的:iPadOS 无疑限制了生产力;M 芯片的确很强,但是 iPad Pro 太贵了。

观点概览

硬件性能过剩与常规升级是普遍观感,老用户换机动力不足。例如,Snow 评价其为「中规中矩的硬件升级」,Kostya 也认为是「例行升级」。性能的强劲并未转化为购买意愿,正如 A9VG 所言,「M5 相较于 M4 来说的提升对我而言没有太大的吸引力」;王树义也说,「实在找不出来更换 iPad Pro 的理由,那台 2020 年购买的 iPad Pro 现在基本上在吃灰。」

软件对硬件的限制依旧被频繁提起,生产力属性受到质疑。例如,张黑黑指出,「iPadOS 依旧没有办法完全发挥 M5 芯片的实力。」对于「替代电脑」的愿景,常岩 CY 指出,「每次出国工作时二选一时都会坚定不移地拿上 Mac 的事实已经说明了一切。」居然 sir 则说,「如果是公司老板,每天看看邮件,iPad 是个好选择,但打工人还是算了。」

快问快答

随着 iPadOS 26 加入菜单栏、允许更自由的窗口排布,iPadOS 与 macOS 会否最终「融合」的话题再次被提上台面。对此,以下最接近你看法的是

  • 倾向于最终将 iPadOS 和 macOS 合二为一(19 人选择,52.78%)
  • 倾向于让 iPadOS 和 macOS 继续相互借鉴,但仍保持两个系统(13 人选择,36.11%)
  • 不太认可 iPadOS 和 macOS 越发相近的趋势,希望两个系统保持适合各自硬件特性和目标场景的独特性(4 人选择,11.11%)
  • 我不了解或未曾关注这个问题(0 人选择,0%)

Mac

  • 平均分 4.03,相比去年 -0.37
  • 中位数 4.00,相比去年 -1

年度事件

评语摘录

  • Kostya:Mac 台式机和 MacBook 也开始进入了平稳更新的时代,今年的 M5 芯片 MacBook Pro 个人认为很可能是对 2021 年以来这一代产品的总结之作,所以用起来非常舒适。
  • 居然 sir:我作为 M1 Pro MacBook Pro 用户,至今没有购入最新款 MacBook Pro 的原因是 M1 Pro + 32G 依然非常能打。
  • 虽然但是张黑黑:在 AI 领域提升非常显著,M5 芯片配置 Neural Accelerator,让 Mac 离专业 AI 设备更进一步。

观点概览

「稳健」与「常规」是今年 Mac 评价的主基调。例如,吴诗源认为,外观无变化反而是一种优势,指出「『干活工具』就应该这样扎扎实实的更新,不需要让用户去频繁改变使用习惯。」常岩 CY 评价道,「等了很久,能在核心体验上追平的对手也没出现。」然而,这也导致老用户换机动力不足,例如柯里昂表示,由于体验差距难感知,这种更新方式不是「促进消费的路径」。

在具体产品线上,M4 MacBook Air 凭借便携与性价比赢得了广泛好评。A9VG 称其「在应对基础工作方面绰绰有余」,宛潼也表示「如此充满性价比的 Apple 产品并不多见」。而在高端领域,Mac Studio 则展现了在 AI 时代的吸引力。例如,所长 bibabo 强调了 Mac Studio 在「大模型时代」的可能性;张黑黑也指出,「Mac Studio (M3 Ultra) 首次配备 512G 统一内存,让桌面电脑运行千亿参数大模型成为可能。」

快问快答

Apple 已有两年多未更新台式机工作站 Mac Pro,最近亦有该产品线已被搁置、定位由 Mac Studio 取代的传闻。对于 Mac Pro 的意义,以下最接近你看法的是

  • 意义不大,Apple 应逐步用 Mac Studio 等产品线取代它(17 人选择,47.22%)
  • 可以保留,但属于小众产品,不必频繁更新(11 人选择,30.56%)
  • 我不了解或未曾关注这个问题(5 人选择,13.89%)
  • Mac Pro 仍对极端专业场景非常重要,应该大力投入(3 人选择,8.33%)

XR、Watch、音频与周边

  • 平均分 3.64,相比去年 +0.18
  • 中位数 3.50,相比去年 -0.5

年度事件

评语摘录

  • 两颗皮蛋:AirPods 3 Pro 堪称是今年 Apple 完成度最高、升级最大的产品。而手表和 XR,我们有理由相信它们在等待下一个时机。
  • 果壳:Apple 通过这些设备展现出两大核心策略:一是「技术下放」,将过往旗舰特性普及到更多产品线,提升整体产品竞争力的同时强化生态粘性;二是「功能整合」,尝试将健康监测等新功能融入更多设备,探索设备联动的未来可能性。
  • 所长 bibabo:Apple 音频产品很保值,原因就在 Apple 一直预埋长线更新。

观点概览

AirPods Pro 3 成为本年度周边设备中的明星产品。例如,两颗皮蛋将其誉为「今年 Apple 完成度最高,升级最大的产品」;宇宙怪兽则重点指出音质优势,「推荐每一个重度 Apple 用户购买」。新增功能中,彭林认为「实时翻译值得大书特书」,还有多名嘉宾称赞了心率监测。不过也有相反意见,例如 Snow 批评其「功能升级屈指可数,佩戴体验反向升级」,吴诗源也指出对于老用户缺少「决定性的购买理由」。

Apple Watch 和 Vision Pro 继续面临创新乏力的担忧。对于手表,A9VG 认为是「基本上是挤牙膏的一年」,林捂捂直言「能拿出来的东西太少了」。对于 Vision Pro,Kostya 指出「连 Apple 都没有特别能够激起 XR 的水花」,photosoft 认为「距离大众化依然遥远」,九月也提到「依旧没有杀手级应用」。

快问快答

面对 Apple Vision Pro 被多方报道为销量远低于预期、甚至传出削减或暂停生产的消息,以下最接近你看法的是

  • 作为第一代有这样的表现很正常,作为长期布局的一环仍然值得肯定(15 人选择,41.67%)
  • 主要问题在于定价和定位,如果价格更亲民仍有机会成功(12 人选择,33.33%)
  • 这是 Apple 在 XR 领域的战略失误,证明这条路本身就不适合大众(5 人选择,13.89%)
  • 我不了解或未曾关注这个问题(4 人选择,11.11%)

硬件可靠性

  • 平均分 4.28,相比去年 +0.01
  • 中位数 4.50,相比去年 +0.5

年度事件

评语摘录

  • 彭林:针对散热能力和划痕掉色上的取舍,Apple 犯下很大的决策失误。
  • 果壳:Apple 通过强大的工程能力和资源投入,为其硬件建立了一套超前、系统且严格的可靠性保障体系。这使得其大部分产品具有行业领先的耐用性。
  • Rio:除了不小心让 iPad 掉浴缸进水需要维修外,今年全家几十台 Apple 设备继续保持无故障记录。

观点概览

硬件的可靠和耐用依然维持了高水准,多数嘉宾给予了正面评价。例如,A9VG 表示「基本没有遇到过硬件问题」,柯里昂称「一切是如此耐用,让我买的 Apple Care 有点尴尬」,Yundor 也称赞「产品的做工和用料一直在线」。

iPhone 17 Pro 回归铝金属机身的设计引发了耐用性争议。多名嘉宾都指出了材质偏软、易磕碰的问题,认为新材质让保护壳成为必需品。常岩 CY 还指出 Apple 在营销上面临的矛盾之处,即如何需要「圆回来」之前大力宣传的钛金属耐用性。不过,也有嘉宾认为相比于散热的改善,材质的改变是值得的。

快问快答

iPhone 17 Pro 系列改用铝合金一体中框后,对于其耐用性的担忧不时出现在网络讨论中。Apple 回应称,店内演示机上的大部分痕迹是 MagSafe 支架材料转移,实际耐用性与以往机型相当。对此,以下最接近你看法的是

  • 属于可接受的磨损范围,不会过度担心(13 人选择,36.11%)
  • 确实担心更易掉漆或刮花,但用保护壳就可以接受(10 人选择,27.78%)
  • 以旗舰定价来说,这种外观耐久度是难以接受的设计妥协,会影响购买决策(9 人选择,25%)
  • 我不了解或未曾关注这个问题(4 人选择,11.11%)

软件可靠性

  • 平均分 3.33,相比去年 -0.12
  • 中位数 3.00,相比去年 -1

年度事件

评语摘录

  • 吴诗源:软件还是目前 Apple 体验里面的短板,现在用 macOS 已经不像以前那样有安全感。
  • JJ Ying:UX 方面的问题简直数不胜数,很多细节的质量让人匪夷所思。
  • 林捂捂:存在一些可以反复复现的问题,更复杂的视觉和交互仿佛是一种科技枷锁。

观点概览

「液态玻璃」视觉风格成为最大的争议点。不少嘉宾批评新界面风格令人困惑,或未达成品标准。例如,JJ Ying 批评道,「新界面风格所带来的可用性下降完全不是一句『高透明度带来的低可读性』可以涵盖的。」刘少楠则说,玻璃质感「过于强烈了,不太符合 Apple 的气质。」不过,也有嘉宾表达出更多包容,例如所长 bibabo 认为其「统一四个系统的视觉语言和重塑交互逻辑,值得高分」;彭林则指出新 UI「是以 only Apple can do 的芯片技术作为支撑。」

系统稳定性的口碑发生下滑。九月评价道,「iOS 26 bug 极多,并且很多至今仍未修复,很难想象是正式版系统。」王波粒也说,「最近几年的正式版系统,bug 明显比过去多。」对于 macOS,宇宙怪兽表示升级后「用起来非常卡顿,很难想象是 Apple 做的升级」;吴诗源则具体指出了「聚焦搜索在后台一直高占用 CPU」以及应用失去响应等问题。

快问快答

对于 Apple 在本年度系统更新中全面采用的液态玻璃(Liquid Glass)界面风格,以下最接近你观点的是

  • 完全可以适应该界面风格(23 人选择,63.89%)
  • 大体可以接受该界面风格,但认为需要时间习惯或仍需完善(9 人选择,25%)
  • 不太能接受该界面风格,认为存在重大缺陷或退步(4 人选择,11.11%)

服务

  • 平均分 3.61,相比去年 +0.01
  • 中位数 4.00,与去年持平

年度事件

评语摘录

  • Vanilla:Apple Music 功能越来越丰富了,已经成为我的唯一主力音乐服务;Apple TV 的优质自制剧和电影越来越多,真的很开心。
  • 常岩 CY:Apple 软件服务方面已经达到了好用无感的程度,每次尝试离开的时候你就会感知到它的粘性有多大。
  • photosoft:在 AI 竞赛白热化的当下,核心智能服务进展缓慢,Apple 已处于被动。

观点概览

Apple Intelligence 的缺席是被表达最多的遗憾。如彭林所言,「在国内,Apple 这方面的服务约等于没有。」A9VG 也表示担忧,称「Apple Intelligence 至今和中国大陆无关,且实际性能也让人担忧前景。」部分体验过外版的用户中,以 Vanilla 为代表的较乐观观点认为,「每个版本 Apple Intelligence 都在优化,可用性已经不错了。」但也有以居然 sir 为代表的嘉宾认为,即使抛开地域限制,Apple Intelligence 的体验「也已经是目前所有市面上主流 AI 产品里垫底的」。

Apple 的流媒体与内容服务凭借高质量获得了极高口碑。Kostya 盛赞 Apple TV+ 拥有「SeverancePluribus 两部神剧和 F1 一部神影」,Vanilla 也表示「优质自制剧和电影越来越多。」音乐方面,所长 bibabo 指出 Apple Music 在「清爽体验的基础上,一直在进一步丰富服务内容」,例如古典乐指南和艺人专访等。

基础云服务 iCloud 面临着对体验与定价的质疑。连接速度方面,宛潼提到「iCloud 访问速度缓慢」,王波粒指出「经常别的 App 网速没问题,就 iCloud 转不动。」定价策略上,宇宙怪兽指出了档位设置的不合理:「刚好超 2TB 一点点,就不得不购买 6TB 的方案」,辛晓阳也感叹「感觉 iCloud 还是有些太贵了。」

快问快答

2025 年初,网上曾有一轮关于 iCloud+ 订阅方案的讨论,一些用户指出目前的可选方案从 200 GB 直接跳到 2 TB,「要么不够用,要么又太贵」。对此,以下最接近你看法的是

  • 基本合理,目前可以找到适合自己的方案,但也希望增加 500 GB—1 TB 左右的中间档位(17 人选择,47.22%)
  • 不合理,目前很难找到适合自己的方案,只能在低容量或高价之间妥协(12 人选择,33.33%)
  • 合理,多数用户 200 GB 就够用,重度用户用到 2 TB 也很常见(6 人选择,16.67%)
  • 我不了解或未曾关注这个问题(1 人选择,2.78%)

应用生态与开发者关系

  • 平均分 3.94,相比去年 +0.25
  • 中位数 4.00,与去年持平

年度事件

评语摘录

  • 居然 sir:Apple 构建了一个最漂亮的花园,但门票和里面的消费确实是越来越贵了。
  • 果壳:一个商业上极其成功但面临公平性质疑的巨型生态,正在全球监管的外力推动和 AI 技术的内生驱动下,进行一场深刻的自我演进。
  • Rio:很开心看到有越来越多的国家和地区开始立法明确限制应用商店垄断。

观点概览

Apple 的生态系统依然被视为行业标杆。嘉宾普遍肯定为开发者提供的丰厚收益和完善工具。例如,常岩 CY 认为它是「最良性也最健康的开发者收益平台」,柯里昂指出「能感受到某种社区氛围,高要求催生了优质产品。」技术层面上,Vanilla 和 photosoft 都赞赏了 Xcode 的 AI 功能降低了开发门槛,后者特别指出 Apple「首次向第三方开发者开放了其设备端的 AI 模型」。Snow 还肯定了生态的统一性,指出这「降低了开发者开发和适配的门槛,应用迭代更高效,多端体验更一致。」

开发者关系维护方面的努力获得认可。例如,王波粒提到 Apple 会主动与开发者沟通,张黑黑肯定了移动应用创新赛和年度应用评选的意义。宛潼也指出,能看出来 Apple 还是很重视中国开发者的生态建设和引导,落地了不少活动。

商业模式与「苹果税」引发的争议依然激烈。居然 sir 指出,成本转嫁导致「App 动不动就是高昂的订阅制」,Rio 则呼吁「中国也应该积极行动起来,保护消费者和中小开发者的权益。」游戏方面,虽然 Apple 试图吸引更多传统游戏厂商,A9VG 认为「目前的数量还是太少了」。

快问快答

对于 Apple 从第三方渠道支付的交易(例如微信小游戏、应用跳转外部支付、欧盟区第三方应用商店等)收取分成或佣金,以下最接近你看法的是

  • 理解合规和运营成本,但 Apple 应当提高透明度、说明合理性,并根据开发者规模、交易类型等因素提供更合理的减让(22 人选择,61.11%)
  • Apple 提供了平台安全、审核和基础设施服务,有权就广义上的应用收入收取分成(7 人选择,19.44%)
  • Apple 只应对最狭义的「内购」(即在通过 App Store 安装的应用内、采用 Apple 支付方式产生的虚拟物品交易)收费(5 人选择,13.89%)
  • 我不了解或未曾关注这个问题(2 人选择,5.56%)

社会责任与本地化

  • 平均分 4.42,相比去年 +0.05
  • 中位数 5.00,与去年持平

年度事件

评语摘录

  • Yundor:Apple 在环保和清洁能源上的投入确实没得说,是实打实有数据支撑的成果,这种社会责任感确实加分。
  • 吴诗源:很多欧美公司都陆续在放弃原本定下的未来的可持续目标,Apple 可能是仍然在推进的最具代表性的企业了,非常了不起。
  • 浴中奇思:一直很喜欢 Apple Store 里开展的课程,每次去逛都能看到很多老年人在认真学习智能设备的使用方法,这事儿真挺酷的。

观点概览

碳中和与可持续发展方面的投入获得普遍认可。ElijahLee 说,「一直以来,ESG 都是 Apple 重点的营销亮点,并且它也确实在推进相关合作的落地。」其他嘉宾也用「标杆级」「业界楷模」「代表性」等形容 Apple 的持续投入。不过,也有九月等嘉宾指出,「希望最后不要落到由消费者买单企业的形象工程。」

本地化在不同维度上获得了褒贬不一的评价。一方面,实体零售店的扩张与社区教育获得了不少认可,例如两颗皮蛋表示给深圳新开店「给打个五星」;所长 bibabo 也认为这体现了 Apple 与本土建立「长期关系」的决心。另一方面,photosoft、Fenng、常岩 CY 等嘉宾也指出「本地化服务进展缓慢」「不接地气」等问题,认为 Apple「还有更多的声音需要倾听」。

快问快答

对于 Apple 2030 这一旨在最终完全实现碳中和的计划,以下最接近你看法的是

  • 基本认可,如果配置接近、价差不大,我会优先选择碳中和机型,但不希望为此支付明显溢价(20 人选择,55.56%)
  • 非常认可,为了支持环保,我愿意在同等产品里优先选择碳中和机型,即使需要为此接受一定的溢价(10 人选择,27.78%)
  • 不太认可,更像品牌公关和形象工程(5 人选择,13.89%)
  • 我不了解或未曾关注这个问题(1 人选择,2.78%)

方法

我们从 2025 年 11 月下旬至 12 月中旬期间,陆续向 36 名受访人发送了相同的问卷。问卷中仅含有少量背景信息、分类说明和官方资讯,不含有其他引导或提示性质的文本。问卷回收结束于 2026 年 1 月 5 日。

除为符合产品规范名称、语句通顺所做的必要编辑外,文章引用的评语均为所回收问卷中的原文。该等评语的权利由相应受访者保留,其内容不代表少数派立场。

    在数字化浪潮与人工智能技术深度融合的2025年,行业的目光正聚焦于那些以创新驱动变革、以实践定义未来的先锋力量。百度文心快码,作为“AI+软件工程”领域的开拓者与深耕者, 凭借一系列突破性的技术成果与深度产业实践,在2025年收获多项重量级奖项与权威认可。

    市场认可维度,文心快码综合实力备受青睐,屡获权威肯定,从在IDC《中国市场代码生成产品评估》中斩获3项第一,到荣膺中国软件行业协会“年度优秀软件产品”,证明了Comate作为企业级生产工具的成熟、可靠;

    技术标准维度, 文心快码积极引领技术标准规范,参与编制了《面向软件工程智能体的技术和应用要求 第1部分:开发智能体》这一行业首个智能体技术标准,并联合人工智能关键技术和应用评测重点实验室,共同编写了《面向软件工程智能体的技术和应用要求 第一部分:开发智能体》文献,为“AI+软件工程”的标准化发展贡献了核心力量;

    在产业实践中, 文心快码直击用户痛点,先后在AIIA、服贸会、AiDD峰会、IT新治理领导力论坛等行业峰会的重量级评选中,分别囊获2025年十大AI4SE“银弹”标杆案例、“数智影响力”先锋案例、AI+研发工具先锋奖、2025XOps创新实践奖等重量级奖项,印证了文心快码在真实业务场景中解决复杂研发难题、推动全流程效能变革的落地实战能力;

    面向社会价值,文心快码致力于践行科技向善,落实技术普惠,获得了可及信息无障碍优秀案例和百度高价值专利奖,体现了技术温度与企业战略的统一。

    文心快码斩获的多维度重磅荣誉,不仅是对其过去一年在各方面成就的集中肯定,更是文心快码作为“AI+软件工程”开拓者与深耕者的最佳注脚。

    一、市场认可——实力备受青睐,屡获权威肯定

    1.IDC《中国市场代码生成产品评估》3项第一

    2025年6月,国际权威评测机构IDC正式发布了《中国市场代码生成产品评估》,国内市场10家头部代码生成头部产品参评。在本次评估中,百度智能代码助手文心快码脱颖而出,斩获3项第一:

    • 在涉及的9项评分维度中达成8项满分,满分维度数量第一
    • C++产品能力实测总分第一
    • “核心代码实现”(即代码质量)总分数排名第一

    2.中国软件行业协会“2025年度优秀软件产品”

    2025年9月,中国软件行业协会揭晓“2025年度优秀软件产品”评选结果。百度智能代码助手文心快码凭借在AI赋能研发领域的持续突破与创新,成功摘得这一荣誉。

    本次评选以软件的自主知识产权、商品化程度、技术水平、稳定性、可靠性、用户满意度等作为主要考评指标。文心快码获评“优秀软件产品”,证明了其领航AI编码新时代的标杆模范作用。

    二、技术标准——引领技术实践、共建标准规范

    3.参编《面向软件工程智能体的技术和应用要求》

    2025年5月30日,中国信息通信研究院(简称“中国信通院”)与中国工商银行、北京兴云数科技术有限公司、北京百度网讯科技有限公司牵头,联合农业银行、邮储银行、科大讯飞、腾讯、阿里、华为等二十余家头部企业,共同编制并正式发布了 《面向软件工程智能体的技术和应用要求 第1部分:开发智能体》 (技术规范编号AIIA/T 0219-2025)。

    该标准的发布标志着我国在AI 智能体领域的标准化进程迈出关键一步,为企业开发智能体提供能力建设指导,助力产品快速迭代,同时为企业提供技术选型参考,推动开发智能体的落地应用。

    4.合作人工智能关键技术和应用评测重点实验室编写文献

    由百度牵头,联合人工智能关键技术和应用评测重点实验室,共同编写了《面向软件工程智能体的技术和应用要求 第一部分:开发智能体》。这标志着百度在“AI+软件工程”领域的技术积累和产业洞察已上升至行业规范制定层面,为软件开发智能体的技术能力、应用场景及评价体系建立了权威参考框架。

    三、产业实践——直击用户痛点,驱动效能跃升

    5.AIIA 2025年十大AI4SE“银弹”标杆案例

    2025年9月,中国人工智能产业发展联盟(AIIA)在中国国际服务贸易交易会 “大模型驱动企业数智化转型论坛” 上公布 2025年十大人工智能AI4SE“银弹”标杆案例。“百度基于编码智能体Zulu的提效实践”成功入选。 AI4SE“银弹”案例旨在发掘和推广能够显著提升软件研发效率与质量的典型落地实践。文心快码的入选体现了其在推动AI赋能软件工程领域的持续突破与领先实力。

    6.2025服贸会“数智影响力”先锋案例

    2025年9月,在2025中国国际服务贸易交易会“大模型驱动企业数智化转型论坛”上,“百度智能代码助手——文心快码的提效实践”入选“数智影响力”先锋案例。 标志着其在推动软件开发产业智能化转型方面的卓越成果获得了全球服务贸易领域的高度认可。

    7.AI+研发工具先锋奖

    2025年12月,在AiDD峰会(全球软件开发大会)上,百度文心快码凭借其在AI+研发领域的突破性贡献,荣膺组委会颁发的“AI+研发工具先锋奖”。 作为“AI+研发”赛道的开拓者,文心快码智能研发解决方案,推动了行业向智能化、自动化研发模式的系统性演进,展现了百度在AI赋能产业升级方面的技术实力与生态影响力。

    8.2025XOps创新实践奖

    在第六届IT新治理领导力论坛,百度文心快码凭借其开创性的“智能体人机协同研发新范式”实践,荣获“2025 XOps创新实践”奖。 文心快码以其智能体为核心,构建了高效的人机协同体系,显著提升了代码生成、测试、运维的自动化和智能化水平。

    四、社会价值与企业战略——践行科技向善,落实技术普惠

    9.可及信息无障碍优秀案例

    在2025年信息无障碍领域评选中,百度文心快码无障碍适配版凭借其创新的技术理念与切实的社会价值,荣膺“可及信息无障碍优秀案例”奖项。 文心快码以AI技术弥合数字鸿沟,不仅体现了百度 “用科技让复杂的社会更简单” 的社会责任担当,更为推动研发工具普惠化、构建包容性数字生态树立了行业标杆。

    10.2025百度高价值专利奖

    2025年,凭借核心技术成果“云端代码开发系统、方法、装置、设备及储存介质”,荣获“百度高价值专利奖”。 该奖项体现了百度在AI开发工具领域持续投入所形成的技术壁垒与知识产权优势。

    寄语

    荣耀属于过去,奋斗定义未来。感恩2025年来自行业、机构的每一份认可与信赖,这不仅是文心快码前行路上的璀璨注脚,更是我们肩负的责任与期许。迈向2026,我们将继续以创新为炬,继续深耕“AI+软件工程”的技术深水区,不断突破智能研发的效能边界。文心快码将以更坚实的技术、更开放的生态,回馈每一份支持,与行业并肩同行,共同迎接软件开发智能化变革的星辰大海。

    大家好,因为工作需要,想买一台安卓备用机,主要用来联系海外客户,多开 Line / WhatsApp / 微信,iOS 用起来不太方便。

    原本考虑三星,但价格偏高,现在在看国产机,比如 vivo 、OPPO 。
    比较担心的是:国产机在海外使用时,是否会有系统限制(比如偷偷收集用户信息),影响正常使用和“科学上网”。

    想请教大家:
    - vivo / OPPO 是否适合我的需求?
    - 有没有具体型号推荐?
    - 我如果在海外(新加坡或者泰国)购买 vivo 或者 OPPO ,是不是就不用担心上面提到的“夹带私货”的问题?

    谢谢大家!

    挣脱上下文的枷锁:OpenViking,为 AI Agent 而生的开源上下文数据库

    “We are swimming in a sea of information, and we need to learn to navigate.” — Norbert Wiener

    “我们正畅游在信息的海洋中,我们需要学会航行。” — 诺伯特·维纳

    AI Agent 的浪潮已至,它正从简单的任务执行者,演变为能够感知环境、自主规划、并调用工具完成复杂目标的智能实体。然而,在这片充满无限可能的机遇之海中,开发者们却普遍遭遇了一座难以逾越的冰山——上下文管理

    随着模型能力飞速提升,Agent 不再满足于处理单轮对话或短文本,而是开始面对长周期任务、海量多模态数据和复杂的协同需求。记忆、资源、技能……这些原本分散各处的上下文,管理起来愈发混乱。然而,如何高效管理和利用这些上下文,已成为开发者们普遍遭遇的瓶颈:

    • 上下文无序且割裂:记忆在代码中,资源在向量库,技能分散在各个角落,关联和维护成本极高。

    • 长程任务需要更多上下文:Agent 逐渐从处理单轮对话转向执行长周期任务,会涉及多工具、多 Agent 间的复杂协同。每一轮任务执行都会给上下文窗口和模型理解带来压力,如果简单的截断或压缩,本质上是“丢卒保帅”,会带来不可逆的信息损失和高昂的模型成本。

    • 朴素 RAG 检索效果局限:朴素 RAG 的数据切片是平铺式存储,缺乏全局视野,面对海量、多模态且有信息组织的数据越来越力不从心,可能回去错失关键信息。同时,它过于关注语义相关性,在需要兴趣泛化和探索的开放式场景中表现不佳。

    • 上下文缺乏观测和调试:从 DeepSeek 和 Manus 的爆火能发现,在 AI 越来越强大时,用户更渴望白盒化的体验,能看到其思考与决策的轨迹。而传统 RAG 隐式的检索链路如同黑箱,出错时难以归因和调试,改进门槛高。

    • 记忆成为核心资产:模型本身是通用的,大家越发意识到沉淀的记忆才是 Agent 的核心资产,但这不止包括使用用户的记忆,还包括 Agent 自身的经验和偏好记忆。记忆需要在开发初期就建设起来,这样才能形成使用时间越长,体验越好的复利效果

    而近年来,业界也关于 Context Engineering 有一些探索实践:Manus 提出文件系统是上下文的终极形态;Claude Code 的成功验证了文件系统 + Bash 的简洁方案在特定场景下超越复杂向量索引的潜力;而 Anthropic 的 Skills 系统也巧妙地以文件夹来组织能力模块。这些实践给了我们启发,但也反映了一个问题:文件系统是上下文一种很好的组织方式,但并没有一个类似数据库能有效管理 Agent 所需所有上下文并解决上述问题。

    为此,我们正式开源 OpenViking——专为 AI Agent 设计的上下文数据库。

    我们旨在为 Agent 定义一套极简的上下文交互范式,让开发者彻底告别上下文管理的烦恼。 OpenViking 摒弃了传统 RAG 的碎片化向量存储模式,创新性地采用“文件系统范式”,将 Agent 所需的记忆、资源和技能进行统一的结构化组织。

    Memory, Resource, Skill. Everything is a File.

    记忆、资源、技能,皆为文件。

    OpenViking 信息图,由 vaka 知识助手生成 (https://aisearch.volcengine.com/)

    借助 OpenViking,上下文不再是散落一地的拼图,而是一个层次分明、井然有序的认知系统。它能够实现上下文的分层供给,在保障信息完整性的前提下,将 Token 成本降至最低;它提供协同写入自我迭代机制,让 Agent 的“知识”与“经验”在与世界的交互中持续成长,开发者可以像管理本地文件一样构建 Agent 的大脑:

    • 文件系统管理范式 → 解决碎片化问题:基于文件系统范式,将记忆、资源、技能进行统一上下文管理;

    • 分层上下文按需加载 → 降低 Token 消耗:L0/L1/L2 三层结构,按需加载,大幅节省成本;

    • 目录递归检索 → 提升检索效果:支持原生文件系统检索方式,融合目录定位与语义搜索,实现递归式精准上下文获取;

    • 可视化检索轨迹 → 上下文可观测:支持可视化目录检索轨迹,让用户能够清晰观测问题根源并指导检索逻辑优化;

    • 会话自动管理 → 上下文自迭代:自动压缩对话中的内容、资源引用、工具调用等信息,提取长期记忆,让 Agent 越用越聪明。

    现在,让我们一起深入了解 OpenViking,看看它如何挣脱上下文的枷锁,助您在 AI Agent 的浪潮中扬帆远航。

    OpenViking 核心理念

    OpenViking 的设计哲学围绕四大核心理念构建,旨在将复杂的上下文管理流程化繁为简,让开发者能将宝贵的精力聚焦于业务创新。

    文件系统管理范式

    我们不再将上下文视为扁平的文本切片,而是将其统一抽象并组织于一个虚拟文件系统中。无论是记忆、资源还是能力,都会被映射到 viking:// 协议下的虚拟目录,拥有唯一的 URI。这种范式赋予了 Agent 前所未有的上下文操控能力,使其能像开发者一样,通过 list、find 等标准指令来精确、确定性地定位、浏览和操作信息,让上下文的管理从模糊的语义匹配演变为直观、可追溯的“文件操作”。

    图片

    分层上下文按需加载

    将海量上下文一次性塞入提示词,不仅成本高昂,更容易超出模型窗口并引入噪声。OpenViking 借鉴业界前沿实践,在上下文写入时便自动将其处理为三个层级:

    • L0 (摘要):一句话概括,用于快速判断;

    • L1 (概述):包含核心信息和使用场景,供 Agent 在规划阶段进行决策;

    • L2 (详情):完整的原始数据,供 Agent 在确有必要时深入读取。

    OpenViking 的设计使其能够灵活适配各类 AI Agent 的开发场景。无论是简单的问答机器人,还是复杂的自动化工作流,它都能作为坚实的上下文底座,提供稳定、高效的支撑。

    图片

    目录递归检索

    单一的向量检索难以应对复杂的查询意图。OpenViking 设计了一套创新的目录递归检索策略,它深度融合了多种检索方式的优点:首先,通过意图分析生成多个检索条件;然后,利用向量检索快速定位初始切片所在的高分目录;接着,在该目录下进行二次检索,并将高分结果更新至候选集合;若目录下仍存在子目录,则逐层递归重复上述二次检索步骤;最终,拿到最相关上下文返回。这种 “先锁定高分目录、再精细探索内容” 的策略,不仅能找到语义最匹配的片段,更能理解信息所在的完整语境,从而提升检索的全局性与准确性。

    图片

    可观测与自迭代

    OpenViking 的组织方式采用层次化虚拟文件系统结构,所有上下文均以统一格式整合且每个条目对应唯一 URI(如 viking:// 路径),打破传统扁平黑箱式管理模式,层次分明易于理解;同时检索过程采用目录递归策略,每次检索的目录浏览、文件定位轨迹均被完整留存,能够清晰观测问题根源并指导检索逻辑优化。

    此外,OpenViking 内置了记忆自迭代闭环。在每次会话结束时,通过 session.commit() 主动触发,系统会异步分析任务执行结果与用户反馈,并自动更新至 User 和 Agent 的 /memory 目录下。既能更新用户偏好相关记忆,使 Agent 回应更贴合用户需求,又能从任务执行经验中提取操作技巧、工具使用经验等核心内容,助力后续任务高效决策实现自我进化,让 Agent 在与世界的交互中“越用越聪明”。

    图片

    快速上手:三分钟运行 OpenViking

    OpenViking 的一大核心优势是其极简的集成方式。我们深知开发者的宝贵时间不应浪费在繁琐的配置上。您无需部署复杂的服务或学习新的 DSL,只需通过几行 Python 代码,即可为您的 Agent 装上强大的“上下文大脑”。

    以下示例是以 OpenViking 的 Readme 英文版作为文件进行写入,展示处理后的上下文目录结构,以及对应文档的分层信息,并进行简单问题的回复。

    第一步:安装 OpenViking

    pip install openviking
    复制代码

    第二步:获取模型服务

    OpenViking 需要 VLM 模型(用于多模态内容理解)和 Embedding 模型(用于向量化)能力的 API Key:

    我们支持多种模型服务:

    第三步:配置环境

    创建配置文件 ov.conf:

    ⚠️ 重要提示:请将下方配置中的 替换为你在第二步获取的真实 API Key!

    {  "vlm": {    "api_key": "<your-api-key>",      // 模型服务的 API 密钥    "model": "<model-name>",          // VLM 模型名称(如 doubao-seed-1-8-251228 或 gpt-4-vision-preview)    "api_base": "<api-endpoint>",     // API 服务端点地址(如volcengine api:https://ark.cn-beijing.volces.com/api/v3)    "backend": "<backend-type>"       // 后端类型(volcengine 或 openai)  },"embedding": {    "dense": {      "backend": "<backend-type>",    // 后端类型(volcengine 或 openai)      "api_key": "<your-api-key>",    // 模型服务的 API 密钥      "model": "<model-name>",        // Embedding 模型名称(如 doubao-embedding-vision-250615 或 text-embedding-3-large)      "api_base": "<api-endpoint>",   // API 服务端点地址(如volcengine api:https://ark.cn-beijing.volces.com/api/v3)      "dimension": 1024                // 向量维度    }  }}
    复制代码

    并设置环境变量:

    export OPENVIKING_CONFIG_FILE=ov.conf
    复制代码

    第四步:运行体验

    创建简单的 Python 脚本 example.py 并运行,通过写入 OpenViking README 文档来体验写入-检索-读取的全过程:

    import openviking as ov# Initialize OpenViking client with data directoryclient = ov.SyncOpenViking(path="./data")try:    # Initialize the client    client.initialize()    # Add resource (supports URL, file, or directory)    add_result = client.add_resource(        path="https://raw.githubusercontent.com/volcengine/OpenViking/refs/heads/main/README.md"    )    root_uri = add_result['root_uri']    # Explore the resource tree structure    ls_result = client.ls(root_uri)    print(f"Directory structure:\n{ls_result}\n")    # Use glob to find markdown files    glob_result = client.glob(pattern="**/*.md", uri=root_uri)    if glob_result['matches']:        content = client.read(glob_result['matches'][0])        print(f"Content preview: {content[:200]}...\n")    # Wait for semantic processing to complete    print("Wait for semantic processing...")    client.wait_processed()    # Get abstract and overview of the resource    abstract = client.abstract(root_uri)    overview = client.overview(root_uri)    print(f"Abstract:\n{abstract}\n\nOverview:\n{overview}\n")    # Perform semantic search    results = client.find("what is openviking", target_uri=root_uri)# Input query    print("Search results:")    for r in results.resources:        print(f"  {r.uri} (score: {r.score:.4f})")    # Close the client    client.close()except Exception as e:    print(f"Error: {e}")
    复制代码

    运行脚本:

    python example.py
    复制代码

    若您得到符合预期的答案,恭喜!你已成功运行 OpenViking 🎉

    开源共建,定义下一代 Agent 上下文标准

    我们坚信,开放与协作是推动技术创新的核心动力。将 OpenViking 开源,是我们回馈社区、并与全球开发者共同探索 AI Agent 未来的第一步。

    这不仅仅是一次代码的分享,更是一次理念的传播。我们希望通过 OpenViking,能够为业界提供一个关于 Agent 上下文管理的全新范式,一个能够有效降低开发门槛、激发业务创新的坚实底座。

    我们深知,OpenViking 目前还处于早期阶段,有许多需要完善和探索的地方。但这正是开源的魅力所在——它允许我们汇聚最广泛的智慧,应对最前沿的挑战。

    在此,我们诚挚地邀请每一位对 AI Agent 技术充满热情的开发者:

    • 访问我们的 GitHub 仓库 https://github.com/volcengine/OpenViking,为我们点亮一颗宝贵的 Star,给予我们前行的动力;

    • 访问我们的网站 https://openviking.ai(点击阅读原文可跳转),了解我们传递的理念,并通过文档使用它,在您的项目中感受它带来的改变,并向我们反馈最真实的体验;

    • 扫描下方二维码加入我们的社区,分享您的洞见,帮助解答他人的疑问,共同营造一个开放、互助的技术氛围;

    • 成为我们的贡献者,无论是提交一个 Bug 修复,还是贡献一个新功能,您的每一行代码都将是 OpenViking 成长的重要基石。 让我们一起,共同定义和构建 AI Agent 上下文管理的未来。旅程已经开始,期待您的加入!

    关于我们:字节跳动 Viking 团队

    我们用 C 端产品的体验标准打造能够重塑企业生产力的产品和技术。在上下文工程领域具有深厚的技术积累与商业化实践,我们的愿景是提供用户友好的上下文工程产品矩阵。

    我们的产品历程

    • 2019 年:VikingDB 向量数据库支撑字节内部全业务大规模使用;

    • 2023 年:VikingDB 在火山引擎公有云售卖;

    • 2024 年:推出面向开发者的产品矩阵:VikingDB 向量数据库、Viking 知识库、Viking 记忆库;

    • 2025 年:打造 AI 搜索、vaka 知识助手等上层应用产品;

    • 2025 年 10 月:开源 MineContext https://github.com/volcengine/MineContext,主动式 AI 应用探索;

    • 2026 年 1 月:开源 OpenViking,为 AI Agent 提供底层上下文数据库支撑。

    GLM-OCR 是一款先进的光学字符识别( OCR )工具,旨在从各种文档格式中提取和理解文本数据。其核心特性基于 GLM 模型架构,确保在复杂布局文档中的高精度文本识别。

    主要特点:

    文本提取:GLM-OCR 高效地从图片、扫描文档或 PDF 中提取文本。

    文档结构理解:不仅仅是简单的文本提取,还能理解文档的结构,如标题、段落、表格及混合内容等。

    多语言支持:该模型能够识别多种语言的文本,使其在不同地区和使用场景中都能发挥作用。

    优化的性能:GLM-OCR 在准确性和计算效率之间找到了平衡,适合云端和边缘计算的部署。

    更多信息可以访问官方站点: https://glm-ocr.com

    在跨境电商、多账号运营、广告投放等场景中,美国静态IP一直是需求量非常高的一类资源。相比较数据中心IP,美国住宅IP更接近真实家庭网络,而“静态住宅IP”,可以让账号和业务环境更稳定,不需要频繁更换IP。

    那么问题来了,美国静态住宅IP购买到底选择哪家比较合适呢?下面就跟着IPDEEP小编一起来看看吧!
    美国静态住宅IP购买选择哪家好?

    一、什么是美国静态住宅IP?

    简单来说,美国静态住宅IP具备两个核心特征:

    静态固定:IP地址长期不变,可按月甚至更长周期使用

    住宅属性:IP来源于真实美国家庭宽带(ISP),信任度高,不容易被平台识别为代理。

    正因为这两点,它特别适合以下场景:

    广告账户长期投放

    社媒账号矩阵

    跨境电商店铺运营

    二、选择美国静态住宅IP,重点看那些因素?

    在选择服务商之前,先搞清楚什么样的IP才算“好用”。

    1.稳定性和在线率

    既然是静态IP,稳定性是非常关键的。

    是否长期在线、不频繁掉线

    是否存在夜间断连、运营商切换等问题。

    2.使用方式是否灵活

    支持 HTTP / HTTPS / SOCKS5

    是否兼容指纹浏览器、多账号工具

    是否限制并发或端口数量

    2.IP纯净度和历史

    IP是否被大量滥用过,直接影响封号和风控概率。优质的美国静态住宅IP,通常具备:

    使用历史干净

    不混用高风险行业

    三、市面上常见的美国静态住宅IP服务商类型

    1.海外大型平台型服务商

    这类厂商规模达、IP池广,优势是品牌成熟、基础设施完善,但也存在一些问题:

    价格普遍偏高

    套餐规则复杂

    对中小客户支持不够灵活

    更适合预算充足、技术团队完善的公司用户。

    2.低价或个人转售型IP

    这类IP价格看起来很有吸引力,但风险也最高:

    IP来源不透明

    易被多人共用

    出问题基本没有售后

    如果是核心账号或长期业务,通常不太建议选择。

    四、美国静态住宅IP购买建议总结

    美国静态住宅IP,选对比选便宜更重要。

    在实际选择时,可以遵循以下原则:

    明确自己的使用场景和风险承受能力

    优先选择支持固定、独享的IP服务商

    不要被“超低价”迷惑

    以前学生价打包入手了 Final Cut Pro 套装,Pixelmator Pro Mac 端买断
    现在 Apple Creator Studio 出了订阅,而且有些功能只在新的订阅版里面有,所以就使用国区 ID 订阅了一年。
    问题就来了,只要 App Store 切换到美区 ID ,那么 Apple Creator Studio 订阅的软件打开就会提示你订阅……
    目前在 iPad Pro 是这样一直提示,Mac 没测试
    因为平时都是挂着美区 ID 使用,邮箱添加两个 ID 的 iCloud 肯定加了的,我甚至都把美区 ID 加入到国区的家庭共享里面了,一样会提示重新订阅。

    根据已有公开信息,可以通过/usr/trim/etc/rsa_private_key.pem 来生成 token 。
    token 应该在内存中,不落盘,或者做好权限管理。从而减少文件泄露导致的风险。

    应该改为安全的随机数来生成,
    比如 golang https://pkg.go.dev/crypto/[email protected] , 或者是 /dev/urandom ,不要用成 math/rand 或者是 /dev/random

    对应用应该加强管控,尽可能的不适用 root 运行程序,同时使用比如 SELinux AppArmor 限制文件读取访问,

    需要 尽快更新现有的/usr/trim/etc/rsa_private_key.pem 文件,避免历史有人保存数据,从而再次入侵,参考如下

    #!/bin/bash
    
    # 备份老的 rsa 密钥对
    FN_RSA_BACKUP_DIR=/usr/trim/etc/backup/fn-rsa-$(date +"%Y-%m-%dT%H-%M-%S%z")
    mkdir -p "$FN_RSA_BACKUP_DIR"
    mv /usr/trim/etc/rsa_private_key.pem /usr/trim/etc/rsa_public_key.pem "$FN_RSA_BACKUP_DIR"
    
    # 重新生成 rsa 密钥对
    openssl genrsa -out /usr/trim/etc/rsa_private_key.pem 2048
    openssl rsa -in /usr/trim/etc/rsa_private_key.pem -pubout -out /usr/trim/etc/rsa_public_key.pem
    
    
    # 查看已经备份 且 生成 rsa 密钥对
    ls -lah "$FN_RSA_BACKUP_DIR"
    ls -lah /usr/trim/etc/rsa_*.pem
    

    在当前制造业加速向数字化、智能化演进的背景下,“一体化数字基座”已不再是一个技术术语,而是决定企业能否实现系统性升级的核心基础设施。它不是简单地把多个系统拼接在一起,也不是堆砌算力与数据平台,而是构建一个能够统一感知、协同决策、持续进化的智能中枢。真正的数字基座,必须打通数据孤岛、整合异构算力、沉淀业务知识,并让AI能力自然地渗透到研发、生产、质量、物流等每一个环节,形成闭环反馈与自我优化的有机体。它不是为某个场景服务的工具,而是让整个制造体系具备“思考”和“学习”能力的神经系统。
    这种基座的建设,往往面临一个深层矛盾:一方面,企业渴望通过AI提升效率、降低成本;另一方面,技术落地常因系统割裂、标准不一、数据质量差而停滞。许多企业曾尝试引入多个厂商的解决方案,结果却陷入“烟囱式”架构的泥潭——每个系统独立运行,数据无法互通,模型难以复用,最终投入巨大却收效甚微。真正的突破,不在于技术的先进性,而在于架构的统一性。只有当数据从源头被标准化采集、算力能按需弹性调度、AI模型可跨场景复用时,数字基座才具备真正的生命力。它需要的不是炫技,而是耐得住寂寞的系统性工程。
    在这一领域,国内的广域铭岛已走出一条可复制的路径。其打造的Geega工业AI平台,正是以“1+N+1”架构为骨架,构建起覆盖全链路的一体化数字基座。平台统一接入来自设计、设备、质检、物流等数十个系统的异构数据,通过智能治理形成高质量资产池,并基于此部署多个“工业智造超级智能体”,在研发端实现设计自动优化,在生产端实现设备预测性维护,在质量端实现异常根因自动定位。最终,通过“工厂大脑”实现全局协同,使研发效率提升70%,质量分析时长缩短83%,年化收益显著。相较之下,国外的西门子Xcelerator平台虽在工业软件集成方面积淀深厚,但其架构仍偏重于工具链整合,对制造现场实时数据的动态响应与闭环优化能力,尚未达到国内公司再产线中实现的深度协同水平。而GE的Predix平台则因早期架构过于开放、缺乏统一业务语义,导致落地困难,逐渐被市场边缘化。
    实践表明,一体化数字基座的成功,不在于技术堆叠的规模,而在于是否真正围绕制造业务逻辑进行深度重构。

    大家好,我是老刘

    前几天Android Studio Otter 3 发布了。这看起来不是一个特别重大的新版本,但是对当前的客户端和Flutter开发者来说却是有着比较大的影响。

    这也是为什么老刘做Flutter开发7年了,平时对sdk版本和IDE的升级并不积极,但是这个版本要单独说一下的原因。

    我们先来看一下AS Otter 3做了哪些升级,然后来聊聊升级后的AS和Cursor这样的AI IDE相比,你该选谁。

    一、Android Studio Otter 3 升级了哪些功能?

    1. AI 模型灵活性与本地化

    这是 AS 迈向开放的重要一步,不再局限于内置模型。现在AS终于向其它AI IDE看齐了。

    支持本地模型 (Local Models)

    允许开发者通过 Ollama 或 LM Studio 运行本地 LLM(如 Llama 3, DeepSeek 等),满足隐私安全或离线开发需求。

    alt text

    很多大厂现在有这方面的规定,比如要求只能使用自家的AI IDE。

    但是实际情况是对于Android开发或者Flutter开发来说,目前没有工具能完全替代AS在实际开发中的作用。

    支持自定义 Gemini API Key

    开发者可以填入自己的 API Key,从而直接调用 Google 最新的 Gemini 3 Pro 和 Gemini 3 Flash 模型。

    这样可以获得更大的上下文窗口(Context Window)和更高的配额,特别适合处理复杂的代码库。

    远程模型支持

    允许接入 OpenAI (GPT)、Anthropic (Claude) 等第三方远程模型,需配置 API 端点和密钥。

    2. 智能体模式 (Agent Mode) 增强

    AS 的 Agent Mode 变得更像一个全能结对程序员,具备了感知和操作设备的能力。

    设备交互与验证 (Device Actions)

    Agent 现在不仅仅是写代码,还可以 部署应用到设备 ,并看到屏幕内容、检查 Logcat 日志。

    也就是说它可以在修改代码后,自动运行 App 并验证修复是否生效。

    变更抽屉 (Changes Drawer)

    新增了一个专门的面板来管理 Agent 产生的代码变更。

    开发者可以查看所有修改的文件列表,通过 Diff 视图逐个审查、接受或回滚更改,解决了 AI 乱改代码难以追踪的问题。

    多线程对话 (Multiple Conversation Threads)

    支持同时进行多个独立的对话线程,避免不同任务的上下文混淆。

    3. 开发与测试新体验

    Journeys (自然语言 UI 测试)

    需在 Studio Labs 中开启

    利用 Gemini 的视觉和推理能力,开发者可以用自然语言编写端到端的 UI 测试。

    Gemini 会将“点击登录按钮”这样的指令转换为实际的测试操作,并根据屏幕视觉内容进行断言,比传统的 View 查找方式更稳健。

    Logcat 自动 R8 反混淆

    在使用 AGP 9.0 (或 8.12+) 且开启 R8 ( minifyEnabled = true ) 时,Logcat 现在会自动还原(Retrace)堆栈信息,无需再手动使用命令行工具进行映射,极大方便了 Release 包的 Crash 排查。

    话说这一点是老刘这样的企业开发者非常需要的,对于定位线上问题可以省不少事。

    4. 支持AGP 9.0

    下表列出了各个 Android Studio 版本需要的 AGP 版本。

    Android Studio 版本AGP 版本
    Otter 3 功能更新 \2025.2.34.0–9.0
    Otter 2 功能更新 \2025.2.24.0–8.13
    Otter \2025.2.14.0–8.13
    Narwhal 4 功能更新 \2025.1.44.0–8.13
    Narwhal 3 功能更新 \2025.1.34.0–8.13
    Narwhal 功能更新 \2025.1.24.0–8.12
    Narwhal \2025.1.13.2–8.11
    Meerkat 功能更新 \2024.3.23.2–8.10
    Meerkat \2024.3.13.2–8.9

    二、日常开发选AS还是Cursor(Flutter 开发者视角) ?

    于是一个问题就出现了:日常开发选AS还是Cursor / Trae 这样的AI IDE ?

    1. AI IDE能完全替代AS吗(Flutter 开发者视角)?

    比如老刘自己,近几个月来,用Cursor或者Trae的时间越来越多了。

    其实这中间一个最重要的影响因素是性价比。

    比如Trae 每个月10刀,虽然没有了Claude模型,但是Gemini 3 Pro 用起来也还是不错的。

    这是目前老刘使用的最具性价比的方案了,而且还不用每次写代码都考虑网络问题。

    Cursor 虽然要20刀,但是它的功能更加强大,而且可以用claude系列模型。

    那么 Trae 或者 Cursor能完全替代AS吗?

    答案是否定的。

    根本原因在于AI在大型项目特别是企业项目的开发中还没办法完全替代程序员的作用。

    个人开发和企业开发的差异(Flutter 开发者视角)

    这可能是很多人的一个误区,觉得AI现在什么样的代码都能写出来,应该能代替大部分开发者了。

    比如你可能一句话就可以利用AI写一个很漂亮的App。

    但是实际上企业开发和很多个人开发者开发是完全不同的工作方式。

    对个人开发者来说

    重要的是看到需求和市场,然后利用AI快速实现想要的功能。

    这种情况下只要AI写出来的代码功能正确,界面漂亮,那么就可以发布,然后再根据用户的反馈进行迭代。

    比如你让AI写一个登录页面,他就能自动实现一个漂亮的登录界面,而且功能也比较完善。

    对企业开发者来说

    开发者需要100%的实现产品团队需求描述中的每一个细节。

    UI上,你的每一个像素、每一个交互的细节,都需要100% 的还原UI/UE 设计,而不是用AI实现一个差不多的东西。

    在功能逻辑上更是如此。

    很多功能的细节是运营、产品、开发、测试多个团队的人坐在一起讨论出来的,虽然最后会落在需求规格说明书这样的文档中,但是文档毕竟没办法完全描述出每一个细节。

    所以实际开发中有很多东西还是只存在于开发者的脑海中,或者是随时与产品团队进行沟通。

    所以给AI一个需求说明文档,然后AI实现一个差不多的代码,是完全行不通的。

    最后还是需要开发者自己去实现或者调整很多的细节。

    在这种情况下特别是客户端项目中,不管是Android原生还是Flutter项目,AS对开发来说效率都会更高一些。

    AS在bug定位和性能分析方面更方便

    AS 对 bug 定位和性能分析提供了更方便的工具和功能。

    比如我们前面提到的这次AS更新的功能,Logcat 自动 R8 反混淆

    再比如,AS 还提供了性能分析工具,如 Profiler 可以帮助开发者分析应用的性能瓶颈,优化应用的性能。

    虽然也有一些网页版的工具比如Flutter的dev tools,但是始终没有AS内部的顺手且方便。

    2. 日常开发Flutter项目,老刘用啥工具?

    日常开发Flutter项目的时候老刘到底是用Trae还是AS呢?

    答案是两个都用。

    方案设计用Trae

    在真正开始写代码前,通常我会和AI讨论一下架构方案。

    比如模块如何拆分,数据流如何设计等等。

    大块代码用Trae

    因为老刘工作中大部分的项目基础设施已经封装哈了,即使开新的App,大概率也会基于这些基础设施进行开发。

    比如Flutter的状态管理、路由管理、底层数据库、服务端接口等等,都有现成的封装好的代码可以用。

    所以我通常可以在项目的早期就进入业务逻辑的开发阶段。

    这个阶段我主要用的是Trae,因为它便宜。

    注意这里并不是说一次交给AI一个页面,让他一次性完成。

    我会分成多个步骤。

    比如先生成一个页面框架,把标题、页面结构、背景色等基本元素先写好。

    然后将页面的具体内容分成几个模块。

    每个模块单独让Trae实现。

    比如先实现一个商品描述卡片,然后实现类似商品推荐卡片。

    每个模块实现完后,先检查一下代码是否符合规范,是否有错误。

    如果有错误,和AI进行沟通,然后一起解决。

    这个过程中需要AI进行多次沟通,直到模块实现符合预期。

    细节调整用AS

    前面说了,AI没办法100%的完成需求的所有细节。

    因此Trae实现的代码只是一个初始版本,需要开发者自己去调整和完善。

    其中比较简单的问题直接在Trae中就修改了,比如布局问题。

    有些问题和AI多次沟通都没办法很好的解决,比如一些比较复杂的交互逻辑。

    这种问题可能就会放到AS中自己去实现。

    但是这个切换不是很频繁。

    比如今天主要用Trae实现大部分代码,那即使要自己写一些代码,就也会在Trae中完成。

    等第二天上班想想今天的任务主要是自己写,那就会在AS中完成。

    bug修复主要用AS

    代码完成提交测试后大概率会有一些bug(其实我们用TDD会避免很多bug,但没法做到完全没有)。

    这种情况下定位bug可能更多的是在AS中。

    以为经过TDD的验证,那些简单的bug是不会进入到测试环境的。

    所以这个阶段收到的bug基本都是比较复杂的,比如那些难以复现的,或者难以定位的。

    这种bug交给AI通常效果并不理想。因为AI并不能真正理解你的问题,它只是一个基于概率的模式匹配的机器。

    所以在这种情况下,AS的bug定位和修复工具就会非常方便。

    好了,总结一下就是现阶段AI并不能完全替代程序员完成开发工作,特别是在企业级项目的开发中。所以老刘自己目前的实际用法是Trae和AS混合使用。

    三、为啥不提Claude Code?

    到这里可能很多人有疑问,为啥没有提Claude Code这类开发工具?其实有两个原因

    1. 基于终端的AI开发工具不限IDE

    老刘觉得这是基于cli的开发工具最聪明的地方,避开了和各种IDE的直接竞争,可以无缝衔接到任何一个IDE中。

    但是还是要说回来,CLI类的开发工具毕竟无法完全代替IDE。

    就好像我们前面说的,现阶段在企业级开发中AI还没办法100%完成需求

    既然还需要开发者的干预,那么就还是无法绕开IDE而完全切换到纯cli开发工具上。

    2. 性价比不高

    老刘用Claude Code的时间其实也不算短。总结Claude Code有两个问题

    第一个是官方账号太容易封号了。

    老刘自己被封了两个账号,身边的同事也基本都有中招的。

    这就造成了用起来很不稳定,而且提心吊胆的。

    所有第二个账号被封后,老刘就直接转用国内的API代理了。

    第二个是价格较高

    其实claude官方账号本身订阅就不便宜。

    相信目前愿意给员工付费claude账号的公司寥寥可数吧?

    如果让员工自己买,那相当于付费上班了,这个对大多数牛马来说估计是不会干的。

    所以官方订阅其实更适合那些独立开发者。

    比如如果老刘去写后端代码,因为我自己也不熟,所以可能就需要和通过AI进行反复的修改。

    这时候官方的订阅基本上能锁定一个封顶的价格,总的来说就还是比较合适的。

    那国内的 API代理怎么样呢?

    这个最大的问题是大多数代理都是按使用量收费,少有包月的,或者包月比官方还贵。

    按使用量的话,老刘建议不要轻易尝试,基本上是 几美刀每小时的样子。

    四、总结

    总的来说Android Studio Otter 3 的发布,标志着官方 IDE 在开放性和智能化上迈出了重要一步,特别是本地模型支持和 Agent 模式的增强,让它在专业开发领域依然稳固。

    但在 AI 编程浪潮下,Cursor 和 Trae 等新兴 IDE 凭借极高的开发效率和性价比,正在重塑我们的编码习惯。对于开发者(尤其是 Flutter 开发者)来说,这并非是一场非此即彼的淘汰赛,而是一次工具箱的升级。

    最聪明的做法是博采众长

    1. 前期:利用 Trae 等 AI IDE 的高性价比和快速生成能力,完成方案验证、框架搭建和大块业务逻辑的实现。
    2. 后期:回归 Android Studio,利用其强大的调试工具、性能分析器和对原生环境的完美支持,进行细节打磨、Bug 修复和最终交付。

    工具只是手段,效率才是目的。在这个 AI 快速迭代的时代,灵活组合使用不同的工具,各取所长,才是当下最高效的生存之道。

    🤝 如果看到这里的同学对客户端开发或者Flutter开发感兴趣,欢迎联系老刘,我们互相学习。

    🎁 点击免费领老刘整理的《Flutter开发手册》,覆盖90%应用开发场景。可以作为Flutter学习的知识地图。

    🚀 覆盖90%开发场景的《Flutter开发手册》

    📂 老刘也把自己历史文章整理在GitHub仓库里,方便大家查阅。

    🔗 https://github.com/lzt-code/blog

    VSAN 是基于 vSphere 内核开发的可扩展分布式存储架构,在 vSphere 集群主机中安装硬盘与闪存构建存储层,经管理控制形成共享存储层。
    其数据存储为对象存储,以文件系统形式呈现给 vSphere 主机,从启用 VSAN 集群的主机加载卷,形成单一、各节点可见的分布式共享数据存储。它简化了存储配置,虚拟机只有一个来自集群各主机存储空间、通过磁盘组配置的分布式数据存储,可存储所有虚拟机文件。
    虽数据存储较安全,但闪存盘或容量盘故障时,数据转移过程可能出现其他故障。下面介绍北亚数据恢复中心近期成功恢复的 VSAN 存储数据案例。

    VSAN数据恢复环境:
    数台某品牌服务器组建VSAN集群。每台服务器节点上有两个磁盘组,每个磁盘组有1块SSD硬盘+5块SAS硬盘,SSD做闪存,SAS做容量盘。

    VSAN故障:
    其中一个服务器节点上的一个磁盘组中的容量盘出现故障离线。容量盘出现故障的时候VSAN正在重构迁移数据,这个时候机房停电导致数据迁移没有完成。来电的时候,另外一个磁盘组中也有两块硬盘出现故障离线,VSAN存储出现故障。VSAN的管理控制台可以登录,但是所有的虚拟机都无法访问了。

    VSAN数据恢复过程:
    将四个服务器节点上的所有硬盘以只读方式做全盘镜像(包括那几块因故障离线的硬盘。镜像完成后,将所有硬盘按照原样还原到节点服务器上。
    基于基于镜像文件分析底层数据存储结构,确认虚拟机所在硬盘的分布信息。北亚企安数据恢复工程师在分析底层数据存储结构的时候,开发相应的程序测试数据分布信息的准确性。
    单独分析每个节点上的两个磁盘组,搞清楚磁盘组内的闪存硬盘和容量盘之间的对应关系。每块硬盘都有一个唯一标识进行磁盘间的对应,根据硬盘的ID信息,判读磁盘组里的硬盘ID信息。
    1、获取每块硬盘的磁盘UUID及磁盘组UUID。
    2、依据磁盘组中容量盘组件信息获取其详情。
    3、从组件信息的MAP位置提取组件位图。
    4、由组件位图提取组件数据与缓存数据。
    5、按组件描述信息确定所属对象及顺序,合并组件成对象。
    6、从对象中提取数据。
    可以将VSAN对象看成一个卷,也可以理解成是一个逻辑卷。每个存在于数据存储上的VSAN对象都是由多个组件构成,这些组件分布于集群主机上配置的磁盘组中。在恢复数据的过程中,组件的信息提取是关键。因为组件是每个对象的重要组成部分,本次故障组件损坏的很少,恢复出来的虚拟机都能正常启动。

    我小额玩,就 100 美刀左右,走币安的 C2C 。

    但是现在微信支付统统让扫码加另一个企业微信,名字跟商户名字(包括收款人名字)都对不上;而支付宝支付,又让下载一个叫小荷包的 app 支付。

    换了好几个商家都是这样。

    我之前也买过几次,都是直接微信/支付宝加好友转账就行了啊,现在怎么回事?

    请问这种有风险吗?我没敢支付,问商家,商家也不理我,订单上面一行醒目的大字“请勿使用第三方应用支付”。

    我怂,把单取消了。